JP4774964B2 - Robot equipment - Google Patents

Robot equipment Download PDF

Info

Publication number
JP4774964B2
JP4774964B2 JP2005352352A JP2005352352A JP4774964B2 JP 4774964 B2 JP4774964 B2 JP 4774964B2 JP 2005352352 A JP2005352352 A JP 2005352352A JP 2005352352 A JP2005352352 A JP 2005352352A JP 4774964 B2 JP4774964 B2 JP 4774964B2
Authority
JP
Japan
Prior art keywords
arms
robot apparatus
posture
joint
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005352352A
Other languages
Japanese (ja)
Other versions
JP2007222951A5 (en
JP2007222951A (en
Inventor
直之 尾上
亮一 津崎
智久 森平
誠司 田村
直人 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005352352A priority Critical patent/JP4774964B2/en
Publication of JP2007222951A publication Critical patent/JP2007222951A/en
Publication of JP2007222951A5 publication Critical patent/JP2007222951A5/ja
Application granted granted Critical
Publication of JP4774964B2 publication Critical patent/JP4774964B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、複数の関節自由度を持つロボット装置に係り、特に、可動脚とともに双腕を備えたロボット装置に関する。   The present invention relates to a robot apparatus having a plurality of joint degrees of freedom, and more particularly to a robot apparatus having two arms together with movable legs.

さらに詳しくは、本発明は、双腕を用いた物体の把持や運搬を行なうロボット装置に係り、特に、移動や運搬の対象となる物体の位置や姿勢を考慮しながら双腕を用いて把持するロボット装置に関する。   More particularly, the present invention relates to a robot apparatus that grips and transports an object using two arms, and in particular, grips using two arms while considering the position and posture of an object to be moved or transported. The present invention relates to a robot apparatus.

従来のロボットは、6軸のマニピュレータに代表されるように、主な用途は、産業活動・生産活動などにおける各種の人的作業の代行や支援であった。この場合のロボットは、工場などの構造化された環境内で動作することを前提としており、人や環境との複雑な物理的インタラクションは基本的に行なわない。   Conventional robots, as represented by a six-axis manipulator, have been mainly used for agency and support for various human tasks in industrial activities and production activities. The robot in this case is premised on operating in a structured environment such as a factory, and basically does not perform complex physical interaction with people or the environment.

これに対し、最近では、パートナー型、すなわち人間との「共生」あるいは「エンターティンメント」という用途が注目されてきている。この種のロボットは、環境やものだけでなく、人と接するなど、高度な物理インタラクション能力を備えていることが望まれる。パートナー型ロボットは、6軸マニピュレータなどのように所定の場所に固定されるのではなく、自律的に移動してさまざまなサービスを提供する、いわゆる移動ロボットが一般的である。パートナー型ロボットの代表例はヒューマノイドである。例えば、可動脚からなる移動手段を備え、接地・無接地間を遷移する安定な運動パターンを実時間で生成することができるロボット装置について提案がなされている(例えば、特許文献1を参照のこと)。   On the other hand, recently, the use of the partner type, that is, “symbiosis” with human beings or “entertainment” has been attracting attention. This type of robot is expected to have not only the environment and things but also advanced physical interaction capabilities such as contact with people. Partner-type robots are not fixed to a predetermined place like a 6-axis manipulator, but are generally so-called mobile robots that autonomously move to provide various services. A representative example of a partner robot is a humanoid. For example, there has been proposed a robot apparatus that includes a moving means including movable legs and can generate a stable motion pattern that transitions between grounding and non-grounding in real time (for example, see Patent Document 1). ).

ヒューマノイドは、四肢を活用して、人や環境とのさまざまな物理的インタラクションが可能である。例えば、左右の可動脚による単脚支持期及び両脚支持期を交互に繰り返すことによって、歩行や走行といった移動作業を行なうことができる。脚式移動によれば、クローラ式ロボットに比し不安定で姿勢制御や歩行制御が難しくなるが、階段の昇降や障害物の乗り越えなど、柔軟な歩行・走行動作を実現できるという点で優れている。最近、脚式移動ロボットの構造やその安定歩行制御に関する研究開発が進展し、実用化への期待も高まってきている。   Humanoids are capable of various physical interactions with people and the environment using their limbs. For example, a moving operation such as walking and running can be performed by alternately repeating a single-leg support period and a both-leg support period using the left and right movable legs. Leg-based movement is unstable compared to crawler robots and makes posture control and walking control difficult, but is superior in that it can realize flexible walking and running operations such as climbing stairs and climbing obstacles. Yes. Recently, research and development on the structure of legged mobile robots and their stable walking control has progressed, and expectations for practical application are also increasing.

また、ヒューマノイドは、手や腕を用いて物体を把持することができ、さらに脚式動作と組み合わせて物体の運搬を行なうことができる。   In addition, the humanoid can hold an object using a hand or an arm, and can carry the object in combination with a legged operation.

単腕のマニピュレータの手先に設けられた複数本の指を用いて物体を把持することができる。例えば、関節を持ちほぼ平行に配置された2本以上の人差し指、中指、環指、小指と、それらの指と対向するように配置された拇指と、拇指を除く2本以上の指の関節を屈曲させるために牽引される可撓部材からなり、1個の駆動源から発生する動力を1個以上の動滑車を介して2本以上の可撓部材に伝達し、その各々の可撓部材を牽引することにより2本以上の指に把持力が発生するように構成される多指可動ロボットハンドは、2本以上の指と拇指を異径物を含む把持対象物に接触させて把持動作を行なうことが可能である(例えば、特許文献2を参照のこと)。   An object can be grasped using a plurality of fingers provided at the hand of a single-arm manipulator. For example, there are two or more forefinger, middle finger, ring finger, little finger that have joints and are arranged in parallel, a thumb that is placed so as to face these fingers, and a joint of two or more fingers except the thumb It consists of a flexible member pulled to bend, and the power generated from one drive source is transmitted to two or more flexible members via one or more moving pulleys, and each of the flexible members is transmitted. A multi-fingered robot hand configured to generate a gripping force on two or more fingers by towing the gripper performs a gripping operation by bringing two or more fingers and thumbs into contact with a gripping object including objects of different diameters. (For example, see Patent Document 2).

これに対し、ロボットの双腕を用いれば、単腕では手首関節部分に過大なトルクが掛かるような長大で重量のある物体を把持し運搬することが可能になる。   On the other hand, if the two arms of the robot are used, it is possible to grip and carry a long and heavy object with an excessive torque applied to the wrist joint portion with a single arm.

例えば、双腕協調を行なうロボットについて提案がなされている(例えば、特許文献3を参照のこと)。この双腕ロボットでは、マスターアームMに教示点データを教示し、該データから補間計算により通過点を決定し、マスターアームが移動すべき通過点データをスレーブアームSに送信し、該送信されたデータと両アームの相対的な位置・姿勢関係を表すデータとに基づいてスレーブアームSの移動すべき点を決定し、各アームを各々移動すべき点に同期的に移動させるようにし、補間計算によるマスターアームMの移動すべき点の決定、該点のデータの送信、スレーブアームSが移動すべき点の計算、両アームの移動という行程を繰返し実行することで両アームが目標点協調動作を続けて、物品の把持・運搬等の作業を行なうようになっている。   For example, proposals have been made for robots that perform dual-arm coordination (see, for example, Patent Document 3). In this dual-arm robot, teaching point data is taught to the master arm M, a passing point is determined from the data by interpolation calculation, and passing point data to be moved by the master arm is transmitted to the slave arm S. Based on the data and data representing the relative position / posture relationship of both arms, the slave arm S is determined to move, and each arm is moved to the point to be moved, and interpolation calculation is performed. By repeating the steps of determining the point to which the master arm M should move, transmitting the data at that point, calculating the point to which the slave arm S should move, and moving both arms, both arms perform the target point coordinated operation. Subsequently, operations such as gripping and transporting articles are performed.

また、左右の腕の手先を用いて物体の両端付近を把持すれば、把持状態をそれほど堅固なものにする必要がなく、手部の構造を簡略化することもできる。例えば、手部の指先部を装着して、2足歩行しながら人間と協働して物品を運搬する歩行型ロボットについて提案がなされている(例えば、特許文献4を参照のこと)。   In addition, if the left and right arm tips are used to grip the vicinity of both ends of the object, the gripped state does not need to be so rigid, and the structure of the hand can be simplified. For example, there has been proposed a walking robot that wears a fingertip portion of a hand and carries an article in cooperation with a human while walking on two legs (see, for example, Patent Document 4).

しかしながら、左右の腕を用いて物体を運搬する双腕ロボットの多くは、左右の手部の掌部分に物体の両端付近を載せて運搬するものが多い。このような場合、移動先で物体を降ろす際に、物体を置くときの設置面と掌で掴む接触面が同じになることから、把持中の物体を解放する作業において、指を挟む、あるいは指の高さ分だけ物体を落下させることになり、問題となる。また、物体を把持する際には、あらかじめ物体の底面に指先を挿入するだけのギャップがあることを前提にしなければならない。   However, many of the double-arm robots that use left and right arms to carry an object carry many objects near both ends on the palms of the left and right hands. In such a case, when the object is lowered at the destination, the installation surface when placing the object and the contact surface gripped by the palm are the same. This causes a problem of dropping the object by the height of. In addition, when grasping an object, it is necessary to presuppose that there is a gap for inserting a fingertip on the bottom surface of the object in advance.

また、人間の骨格に比べて、ロボットの関節自由度は制約が多い。物体を最初に掴んだときから同じ高さで移動やその他の作業を行なうには問題ないが、床に置かれている物体を持ち上げて高い場所に設置するには、十分な関節自由度が備わっているとは言い難い。   Moreover, the degree of freedom of joints of the robot is more limited than that of a human skeleton. There is no problem in moving and doing other work at the same height from the first grasp of the object, but it has enough joint freedom to lift an object placed on the floor and install it in a high place It's hard to say.

特開2004−167676号公報JP 2004-167676 A 特開2003−145474号公報JP 2003-145474 A 特開平6−71580号公報JP-A-6-71580 特開2005−131718号公報JP 2005-131718 A

本発明の目的は、可動脚とともに双腕を備えた、優れたロボット装置を提供することにある。   An object of the present invention is to provide an excellent robot apparatus having a double arm with a movable leg.

本発明のさらなる目的は、双腕を協働的に用いることにより長大で重量のある物体の把持や運搬を好適に行なうことができる、優れたロボット装置を提供することにある。   A further object of the present invention is to provide an excellent robot apparatus capable of suitably holding and transporting a long and heavy object by using two arms cooperatively.

本発明のさらなる目的は、移動や運搬の対象となる物体の位置や姿勢を考慮しながら双腕を用いて好適に把持することができる、優れたロボット装置を提供することにある。   A further object of the present invention is to provide an excellent robot apparatus that can be suitably gripped by using two arms while taking into consideration the position and posture of an object to be moved or transported.

本発明は、上記課題を参酌してなされたものであり、少なくとも胴体と、前記胴体に連結された左右の双腕と、前記双腕を含む各部の関節駆動を制御する制御部を備えたロボット装置であって、前記双腕は、肩部のロール、ピッチ、ヨーの各軸回りの関節自由度と、肘部のピッチ軸回りの関節自由度と、手首のロール及びヨーの各軸回りの関節自由度と、手先に近い部位に設けられたピッチ軸回りの自由度を持つ最先端ピッチ軸関節を備えることを特徴とするロボット装置である。   The present invention has been made in consideration of the above-described problems, and includes a robot including at least a body, left and right double arms connected to the body, and a control unit that controls joint driving of each unit including the double arms. The double arms include joint degrees of freedom around the roll, pitch, and yaw axes of the shoulder, joint degrees of freedom around the pitch axis of the elbow, and around the wrist roll and yaw axes. A robot apparatus comprising a state-of-the-art pitch axis joint having a degree of freedom of joint and a degree of freedom around a pitch axis provided in a portion close to the hand.

パートナー型ロボットの代表例であるヒューマノイドは、可動脚からなる移動手段や腕を備えており、物体を把持して所望の設置場所に運搬・移動するといったアプリケーションが考えられる。特に、ロボットの双腕を用いれば、単腕では手首関節部分に過大なトルクが掛かるような長大で重量のある物体を把持し運搬することが可能になる。しかしながら、従来の双腕ロボットの多くは、左右の手部の掌部分に物体の両端付近を載せて運搬するものが多い。このような場合、移動した先で物体を降ろす際に、物体を置くときの設置面と掌で掴む接触面が同じになることから、把持中の物体を解放する作業において、指を挟む、あるいは指の高さ分だけ物体を落下させることになり、問題である。   A humanoid, which is a typical example of a partner type robot, includes a moving means and arms composed of movable legs, and an application in which an object is gripped and transported to a desired installation location can be considered. In particular, if a robot has two arms, a single arm can hold and carry a long and heavy object that causes excessive torque to be applied to the wrist joint. However, many of the conventional double-arm robots carry many objects near both ends of the palms of the left and right hands. In such a case, when the object is lowered at the destination, the installation surface when placing the object and the contact surface gripped by the palm are the same, so in the work of releasing the object being gripped, This is a problem because the object is dropped by the height of the finger.

これに対し、本発明に係るロボット装置は、物体の左右の対向する側面を把持面にして双腕で挟持するという持ち方をすることができるので、床面から持ち上げ易く、且つ設置面を開放していることから、設置場所で物体の把持状態を解除し易い(すなわち置き易い)。   On the other hand, the robot apparatus according to the present invention can hold the object by holding the left and right opposing side surfaces of the object with the two arms, so that it can be easily lifted from the floor surface and the installation surface is opened. Therefore, it is easy to release the gripping state of the object at the installation location (that is, easy to place).

このような持ち方をするためには、ロボット装置は、ステレオ・カメラなどの撮像画像から把持対象物体を画像認識して、双腕それぞれの最先端ピッチ軸関節のピッチ軸がほぼ一直線上にあり、且つ該直線上に把持対象物体の重心が来るようにして、前記双腕を把持対象物体の幅を徐々に狭めて手部で挟み込むようにして把持するようにすればよい。   In order to do this, the robot device recognizes the object to be grasped from the captured image of a stereo camera or the like, and the pitch axes of the most advanced pitch axis joints of the two arms are almost in a straight line. And, the center of gravity of the object to be grasped may be placed on the straight line, and the two arms may be grasped by gradually narrowing the width of the object to be grasped and sandwiched between the hands.

例えば、最先端ピッチ軸が掌内に設けられている場合、双腕で物体を把持している期間中における物体の位置姿勢変更要求に応じて、腕部のその他の関節を固定させたまま、最先端ピッチ軸のみを駆動して、把持物体の姿勢を変更することができる。すなわち、左右の掌ピッチ軸が1直線上となるように物体を把持すれば、掌ピッチ軸の回転駆動のみによって、あたかも物体が回転軸を持つかのように姿勢が変化するので、腕部の他の6軸を姿勢制御することなく把持物体の姿勢を変更することができる。また、腕部最先端のピッチ軸をエンドエフェクタとしての掌の内側に設けることにより、把持物体の重心位置と回転軸を一致させ易くなり安定した把持が可能になる。   For example, when the most advanced pitch axis is provided in the palm, in response to an object position / posture change request while holding an object with two arms, the other joints of the arm part are fixed, Only the most advanced pitch axis can be driven to change the posture of the grasped object. In other words, if the object is gripped so that the left and right palm pitch axes are on a straight line, the posture changes as if the object has a rotation axis only by the rotational drive of the palm pitch axis. The posture of the grasped object can be changed without controlling the posture of the other six axes. Also, by providing the most advanced pitch axis on the inner side of the palm as an end effector, the center of gravity position of the gripping object and the rotation axis can be easily matched and stable gripping becomes possible.

また、要求されている把持物体の位置姿勢変更を行なうと、最先端ピッチ軸の可動域を外れ又は自己干渉を生じることが想定される。このような場合には、前記最先端ピッチ軸を現在位置に保ちながら、要求されている把持物体の位置姿勢を得るための腕部のその他の関節についてのインバースキネマティクス解を求めることにより対処することができる。   Further, when the required position / posture change of the gripping object is performed, it is assumed that the movable range of the most advanced pitch axis is out of the range or self-interference occurs. Such a case is dealt with by finding an inverse kinematics solution for the other joints of the arm to obtain the required position and orientation of the grasped object while keeping the most advanced pitch axis at the current position. be able to.

あるいは、最先端ピッチ軸のみを駆動するのではなく、双腕で物体を把持している期間中における物体の移動要求に応じて、最先端ピッチ軸を冗長軸として、腕部の他の関節自由度を用いて把持物体の姿勢維持しながら移動するという双腕把持動作を行なうこともできる。   Or, instead of driving only the most advanced pitch axis, the other joints of the arm can be freely used with the most advanced pitch axis as a redundant axis according to the movement demand of the object while holding the object with two arms. It is also possible to perform a double-arm gripping operation that moves while maintaining the posture of the gripping object using the degree.

このような場合、腕部の前記冗長軸以外の各関節のインバースキネマティクス解の余裕が最大となるように冗長軸の位置を決定することが好ましい。これによって、物体の運搬・移動の途中でインバースキネマティクス演算の求解が困難になりにくい(すなわち動作が破綻しにくい)双腕動作を実現することができる。   In such a case, it is preferable to determine the position of the redundant axis so that the margin of the inverse kinematics solution of each joint other than the redundant axis of the arm portion is maximized. As a result, it is possible to realize a double-arm operation in which it is difficult for the inverse kinematics calculation to be solved during the transportation and movement of the object (that is, the operation is difficult to fail).

上述したように、本発明に係るロボット装置は、双腕の最先端ピッチ軸のみを駆動して把持物体の姿勢を変更したり、あるいは最先端ピッチ軸を冗長軸として用いて、物体の姿勢を維持した運搬・移動を行なったりすることができる。そして、物体の設置場所の高さ若しくは奥行きの方向によっては、把持直前の接地面で物体を置くことが困難なこともあるが、設置が可能な設置面となるように最先端ピッチ軸の回転駆動により該把持物体の姿勢を適宜変更することにより、把持状態を解除することができる。   As described above, the robot apparatus according to the present invention changes the posture of the gripping object by driving only the leading-edge pitch axis of the two arms, or uses the leading-edge pitch axis as a redundant axis to change the posture of the object. It can be transported and moved. Depending on the height or depth direction of the installation location of the object, it may be difficult to place the object on the ground contact surface immediately before gripping, but the rotation of the leading-edge pitch axis to make the installation surface possible The gripping state can be released by appropriately changing the posture of the gripping object by driving.

また、ロボット装置は、最先端ピッチ軸を用いてさまざまな方法で双腕を用いて把持することができることから、床面にある物体を双腕で把持する際に、該物体の設置場所の高さ若しくは奥行きの方向に応じて決定される設置面を得易くなるような手先の姿勢となるように最先端ピッチ軸を回転駆動させてから、物体の把持を行なうようにしてもよい。   In addition, since the robot apparatus can be gripped with the double arms in various ways using the state-of-the-art pitch axis, when the object on the floor is gripped with the double arms, the installation location of the object is high. Alternatively, the object may be gripped after the most advanced pitch axis is rotationally driven so that the posture of the hand is easy to obtain an installation surface determined according to the direction of the depth or depth.

また、本発明に係るロボット装置は、双腕を用いて把持している物体の落下を検出する落下検出手段をさらに備えることができる。   In addition, the robot apparatus according to the present invention can further include a fall detection unit that detects the fall of the object being gripped using the two arms.

例えば、双腕の掌に設けられたタッチ・センサのオン/オフに基づいて把持物体の落下を検出することができる。   For example, it is possible to detect the fall of the grasped object based on on / off of a touch sensor provided on the palm of the double arm.

また、双腕の手首部に6軸力センサを設け、物体を把持した直後の当該センサの出力値を記憶しておき、センサ出力値が把持直後よりも下回ることにより把持物体の落下を検出することができる。手首部の6軸センサのY軸方向の値が閾値以下となったときには、さらにY軸の値が低下する直前にX方向又はZ方向に大きな力が加わったかどうかをチェックし、特に大きな力が加わっていないときには把持物体が下方へ落下したと推定し、掌が物体を把持する方向とは異なる向きに大きな力が加わった場合には把持物体が無理矢理落とされた可能性があると判断することができる。   Also, a 6-axis force sensor is provided on the wrist of the double arm, the output value of the sensor immediately after gripping the object is stored, and the fall of the gripped object is detected when the sensor output value is lower than immediately after gripping. be able to. When the value in the Y-axis direction of the 6-axis sensor at the wrist is below the threshold value, it is checked whether a large force has been applied in the X or Z direction immediately before the Y-axis value further decreases. Assume that the gripping object has fallen downward when not applied, and determine that the gripping object may have been forcibly dropped if a large force is applied in a direction different from the direction in which the palm grips the object Can do.

また、双腕のポテンションから計算される関節角度から両掌の間隔を得て、把持対象物体のモデル情報から得られる幅に対し掌の間隔が小さくなったときに把持物体の落下を検出することができる。   In addition, the distance between both palms is obtained from the joint angle calculated from the potentiometer of the two arms, and the fall of the grasped object is detected when the palm distance becomes smaller than the width obtained from the model information of the grasped object. be able to.

また、ステレオ・カメラの撮像画像により認識される物体位置が双腕の掌から大きくずれたとき、又は観察できなくなったときに、把持物体の落下を検出することができる。   In addition, when the object position recognized by the captured image of the stereo camera greatly deviates from the palms of the two arms, or when observation becomes impossible, it is possible to detect the fall of the grasped object.

また、可動脚を備え、ZMPを姿勢安定制御の規範に用いるロボット装置の場合、接地面において床面から受ける加重を検出する足底センサが取り付けられている。物体を把持した直後に足底センサから得られる加重を保持しておき、把持中に計測される加重から計算される値が一定値を下回ったときに、把持物体の落下を検出することができる。   In addition, in the case of a robot apparatus that includes movable legs and uses ZMP as a standard for posture stability control, a sole sensor that detects a load received from the floor surface on the ground surface is attached. The weight obtained from the sole sensor is held immediately after gripping the object, and the fall of the gripped object can be detected when the value calculated from the weight measured during gripping falls below a certain value. .

また、ロボット装置が音声認識などの目的で指向性が調整された複数のマイクを備えている場合、ロボットの腕部の下方から大きな音が感知されると、落下の可能性があると認識することができる。   Also, when the robot apparatus has a plurality of microphones whose directivities are adjusted for the purpose of voice recognition or the like, if a loud sound is detected from below the robot arm, it is recognized that there is a possibility of falling. be able to.

また、ロボット装置は、把持物体の落下が検出されたことに応答して、落下した物体を床面で探索するといった所定の対処処理を起動するようにしてもよい。   Further, the robot apparatus may activate a predetermined coping process such as searching for the dropped object on the floor surface in response to the detection of the fall of the gripped object.

また、ロボット装置は、把持物体を所望の設置場所に設置する際に、上述したような落下検出手段を用いて双腕把持状態の解除を確認することができる。   Also, the robot apparatus can confirm the cancellation of the double-arm gripping state using the drop detection means as described above when the gripping object is placed at a desired installation location.

また、ロボット装置が体幹、及び可動脚の自由度をさらに備え、双腕を含めた全身協調動作によって物体の運搬・移動を行なうことができる。この場合には、まず、双腕のみを用いてインバースキネマティクス演算を行なって所望する物体の位置及び姿勢を得ることができる解を検索する。そして、双腕のみによる解が見つからなかったときに、続いて、双腕に前記体幹の自由度を加えてインバースキネマティクス演算を行なって所望する物体の位置及び姿勢を得ることができる解を検索する。この場合も解が見つからなかったときに、さらに脚部に自由度を加えてインバースキネマティクス演算を行なって所望する物体の位置及び姿勢を得ることができる解を検索するようにする。   In addition, the robot apparatus further includes the degree of freedom of the trunk and movable legs, and the object can be transported and moved by the whole body cooperative operation including the two arms. In this case, first, an inverse kinematics operation is performed using only two arms to search for a solution that can obtain the position and orientation of a desired object. Then, when a solution using only two arms is not found, a solution that can obtain the position and posture of a desired object by performing inverse kinematics calculation by adding the degree of freedom of the trunk to the two arms. Search for. Also in this case, when a solution is not found, a solution that can obtain the position and posture of a desired object is obtained by performing an inverse kinematics calculation by adding a degree of freedom to the legs.

このような処理手順によれば、双腕のみを使って次の物体の位置及び姿勢が得られるときには双腕のみで解を求めるといった具合に、使用する自由度数を可能な限り抑えることで、双腕を用いて物体を積み上げるといった所望のモーションをより低コストで実現することができる。   According to such a processing procedure, when the position and orientation of the next object can be obtained using only two arms, a solution is obtained using only two arms, and the number of degrees of freedom to be used is suppressed as much as possible. A desired motion such as stacking objects using arms can be realized at a lower cost.

本発明によれば、双腕を協働的に用いることにより長大で重量のある物体の把持や運搬を好適に行なうことができる、優れたロボット装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the outstanding robot apparatus which can hold | grip and convey a long and heavy object suitably by using a double arm cooperatively can be provided.

また、本発明によれば、移動や運搬の対象となる物体の位置や姿勢を考慮しながら双腕を用いて好適に把持することができる、優れたロボット装置を提供することができる。   In addition, according to the present invention, it is possible to provide an excellent robot apparatus that can be suitably gripped using two arms while considering the position and posture of an object to be moved or transported.

また、本発明によれば、双腕を用いて、単腕では手首関節部分に過大なトルクが掛かるような長大で重量のある物体を把持し運搬することができる、優れたロボット装置を提供することができる。   In addition, according to the present invention, there is provided an excellent robot apparatus that can hold and carry a long and heavy object such that an excessive torque is applied to the wrist joint portion with a single arm using a double arm. be able to.

また、本発明によれば、双腕を用いて物体を把持するとともに、把持前から物体の設置面を適宜変更しながら物体を放すことにより、双腕、体幹や腰の高さの自由度の制限に拘わらず、広い範囲で物体の運搬や移動を行なうことができる、優れたロボット装置を提供することができる。   Further, according to the present invention, the degree of freedom of the height of the double arms, the trunk and the waist can be obtained by holding the object using the two arms and releasing the object while appropriately changing the installation surface of the object before the holding. It is possible to provide an excellent robot apparatus capable of transporting and moving an object over a wide range regardless of the limitation.

本発明のさらに他の目的、特徴や利点は、後述する本発明の実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。   Other objects, features, and advantages of the present invention will become apparent from more detailed description based on embodiments of the present invention described later and the accompanying drawings.

以下、図面を参照しながら本発明の実施形態について詳解する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

ロボット装置の構成:
図1には、本発明の一実施形態に係るロボット装置の外観構成を示している。図示のロボット装置は、いわゆる人間型ロボットであり、骨盤部には、移動手段としての2肢の脚体と、腰関節を介して上体が接続されている。上体には、2肢の腕部と、首関節を介して頭部が接続されている。
Robot device configuration:
FIG. 1 shows an external configuration of a robot apparatus according to an embodiment of the present invention. The robot apparatus shown in the figure is a so-called humanoid robot, and the upper body is connected to the pelvis through two legs as a moving means and a hip joint. The head is connected to the upper body through two limbs and a neck joint.

左右の脚体は、それぞれ股関節3自由度と、膝関節1自由度と、足首関節2自由度の、計6自由度を備えている。また、左右の腕部は、それぞれ肩関節3自由度と、肘関節1自由度と、手首関節2自由度及び掌関節1自由度(若しくは手首関節3自由度)の、計7自由度を備えている。首関節及び腰関節は、ともにX、Y、Z軸回りに3自由度を有するとする。また、手先に取り付けられた指部も関節自由度を持つが、本発明の要旨には直接関連しないので、以下では説明を省略する。   The left and right legs have a total of 6 degrees of freedom, 3 degrees of freedom for the hip joint, 1 degree of freedom for the knee joint, and 2 degrees of freedom for the ankle joint. The left and right arms have a total of 7 degrees of freedom: 3 degrees of freedom for the shoulder joint, 1 degree of freedom for the elbow joint, 2 degrees of freedom for the wrist joint and 1 degree of freedom for the palm joint (or 3 degrees of freedom for the wrist joint). ing. Both the neck joint and the waist joint are assumed to have three degrees of freedom around the X, Y, and Z axes. The finger attached to the hand also has a degree of freedom of joint, but since it is not directly related to the gist of the present invention, the description is omitted below.

図2には、図1に示したロボット装置における、各部の関節駆動用のアクチュエータ間を接続する結線トポロジの構成例を示している。また、図3には、図1に示したロボット装置の関節自由度モデルを示している。   FIG. 2 shows a configuration example of a connection topology for connecting the joint driving actuators of each part in the robot apparatus shown in FIG. FIG. 3 shows a joint degree of freedom model of the robot apparatus shown in FIG.

ロボット装置は、胴体部に、3軸の腰関節アクチュエータa1、a2、a3、及び3軸の首関節アクチュエータa16、a17、a18を持ち、これらは制御ユニットに対しシリアル接続されている。各関節アクチュエータは、シリアル・ケーブルを通じて、その位置制御目標値を受け取るとともに、現在の出力トルクや、関節角度、関節角速度を制御ユニットに送信する。   The robot apparatus has three-axis waist joint actuators a1, a2, and a3 and three-axis neck joint actuators a16, a17, and a18, and these are serially connected to the control unit. Each joint actuator receives the position control target value via a serial cable and transmits the current output torque, joint angle, and joint angular velocity to the control unit.

また、ロボット装置は、左腕部に、3軸の肩関節アクチュエータa4、a5、a6、1軸の肘関節アクチュエータa7、2軸の手首関節アクチュエータa8、a9、及び1軸の掌関節アクチュエータa31を持ち、これらは制御ユニットに対しシリアル接続されている。同様に、右腕部には、3軸の肩関節アクチュエータa10、a11、a12、1軸の肘関節アクチュエータa13、2軸の手首関節アクチュエータa14、a15、及び1軸の掌関節アクチュエータa32を持ち、これらは制御ユニットに対しシリアル接続されている。   In addition, the robot apparatus has three-axis shoulder joint actuators a4, a5, a6, one-axis elbow joint actuator a7, two-axis wrist joint actuators a8, a9, and one-axis palm joint actuator a31 on the left arm. These are serially connected to the control unit. Similarly, the right arm portion has three-axis shoulder joint actuators a10, a11, a12, one-axis elbow joint actuator a13, two-axis wrist joint actuators a14, a15, and one-axis palm joint actuator a32. Is serially connected to the control unit.

また、ロボット装置は、左脚部に、3軸の股関節アクチュエータa19、a20、a21、1軸の膝関節アクチュエータa22、及び2軸の足首関節アクチュエータa23、a24を持ち、これらは制御ユニットに対しシリアル接続されている。同様に、右脚部には、3軸の肩関節アクチュエータa25、a26、a27、1軸の肘関節アクチュエータa28、及び2軸の足首関節アクチュエータa29、a30を持ち、これらは制御ユニットに対しシリアル接続されている。   Further, the robot apparatus has three-axis hip joint actuators a19, a20, a21, a one-axis knee joint actuator a22, and two-axis ankle joint actuators a23, a24 on the left leg, which are serially connected to the control unit. It is connected. Similarly, the right leg has triaxial shoulder joint actuators a25, a26, a27, a monoaxial elbow joint actuator a28, and biaxial ankle joint actuators a29, a30, which are serially connected to the control unit. Has been.

各関節で使用されるアクチュエータa1〜a30は、例えばDCブラシレス・モータと減速機、並びに減速機の出力軸の回転位置を検出する位置センサで構成され、外部から与えられた位置制御目標値に従って回転駆動するとともに、現在の出力トルクや、関節角度、関節角速度を出力する。この種の関節アクチュエータについては、例えば本出願人に既に譲渡されている特開2004−181613号公報に記載されている。   The actuators a1 to a30 used in each joint are composed of, for example, a DC brushless motor, a speed reducer, and a position sensor that detects the rotational position of the output shaft of the speed reducer, and rotate according to a position control target value given from the outside. While driving, the current output torque, joint angle, and joint angular velocity are output. This type of joint actuator is described in, for example, Japanese Patent Application Laid-Open No. 2004-181613 already assigned to the present applicant.

図3から分るように、2足歩行の移動ロボットを、骨盤Bを基底とする開リンク木構造として表現することができる。移動ロボットの場合、ロボットがワールド空間中を自由に移動し、姿勢を変化させることができる。したがって、ロボット全体の状態を表すための状態変数として、骨盤Bのオイラー角α=(α,β,γ)Tとその位置p0(p0x,p0y,p0zTを導入する。すると、ロボットは複数の剛体が連なって構成されるリンク構造物として扱うことができるので、ロボットの運動方程式は、下式(1)のような形で表現することができる。 As can be seen from FIG. 3, the biped walking mobile robot can be expressed as an open link tree structure based on the pelvis B. In the case of a mobile robot, the robot can move freely in the world space and change its posture. Therefore, Euler angles α = (α, β, γ) T of the pelvis B and its position p 0 (p 0x , p 0y , p 0z ) T are introduced as state variables for representing the state of the entire robot. Then, since the robot can be handled as a link structure formed by connecting a plurality of rigid bodies, the motion equation of the robot can be expressed in the form of the following expression (1).

Figure 0004774964
Figure 0004774964

ここで、qはロボット全体の一般化変数であり、ロボットの運動状態としてのベースの姿勢α及び位置p0を並べたベクトルと、アクチュエータの現在状態としての全関節値を並べてできるベクトルθで構成される。すなわち、qは、リンク構造物としてのロボットの力学モデルに相当し、下式(2)のような形で表現される。 Here, q is a generalized variable for the entire robot, and is composed of a vector in which the base posture α and position p 0 as the robot's motion state are arranged and a vector θ that can be obtained by arranging all joint values as the current state of the actuator. Is done. That is, q corresponds to a dynamic model of a robot as a link structure, and is expressed in the form of the following equation (2).

Figure 0004774964
Figure 0004774964

また、上式(1)中で、τは、一般化変数qに対応した一般化力であり、αとp0に対応する成分は(力を発生するアクチュエータが存在しないため)0となり、θに対応する成分は各関節部を駆動するアクチュエータの発生力に等しい。Hは、ロボット全体の慣性行列、bは重力やコリオリ力などを表す。fは外力である。Jは、外力作用方向に発生する速度と、一般化変数qの時間微分である一般化速度とを対応付けるヤコビアンであり、下式(3)の通りとなる。 In the above formula (1), τ is a generalized force corresponding to the generalized variable q, and components corresponding to α and p 0 are 0 (because there is no actuator that generates force), and θ The component corresponding to is equal to the generated force of the actuator that drives each joint. H represents the inertia matrix of the entire robot, and b represents gravity, Coriolis force, and the like. f is an external force. J is a Jacobian that associates the speed generated in the direction of the external force with the generalized speed that is the time derivative of the generalized variable q, and is expressed by the following equation (3).

Figure 0004774964
Figure 0004774964

図4には、ロボット装置の可動脚による歩行や双腕を用いた物体の把持や運搬などの全身協調動作を実現するための制御システム構成を模式的に示している。同図に示すように、ロボット装置1は、各関節アクチュエータの駆動の統括的制御やその他のデータ処理を行なう制御ユニット20と、入出力部40と、駆動部50と、電源部60とで構成される。以下、各部について説明する。   FIG. 4 schematically shows a control system configuration for realizing a whole body cooperative operation such as walking with a movable leg of a robot apparatus or grasping or carrying an object using two arms. As shown in the figure, the robot apparatus 1 includes a control unit 20 that performs overall control of driving of each joint actuator and other data processing, an input / output unit 40, a drive unit 50, and a power supply unit 60. Is done. Hereinafter, each part will be described.

入出力部40は、入力部としてロボット装置1の目に相当するカメラ15や、耳に相当するマイクロフォン16、頭部や背中などの部位に配設されてユーザの接触を感知するタッチ・センサ18、あるいは五感に相当するその他の各種のセンサを含む。また、出力部として、口に相当するスピーカ17、あるいは点滅の組み合わせや点灯のタイミングにより顔の表情を形成するLEDインジケータ(目ランプ)19などを装備している。これら出力部は、音声やランプの点滅など、脚などによる機械運動パターン以外の形式でもロボット装置1からのユーザ・フィードバックを表現することができる。また、7個のマイクロフォンを、指向性を調整して頭部に搭載することにより、音源方向を検知することができる。   The input / output unit 40 is a camera 15 corresponding to the eyes of the robot apparatus 1 as an input unit, a microphone 16 corresponding to an ear, and a touch sensor 18 that is disposed on a part such as a head or a back to detect a user's contact. Or other various sensors corresponding to the five senses. Further, as an output unit, a speaker 17 corresponding to the mouth or an LED indicator (eye lamp) 19 for forming a facial expression by a combination of blinking and lighting timing is provided. These output units can express user feedback from the robot apparatus 1 in a format other than a mechanical motion pattern such as a leg or the like, such as sound or blinking of a lamp. Moreover, the sound source direction can be detected by mounting the seven microphones on the head with the directivity adjusted.

ここで、カメラ15は、所定の位置関係に保たれた異なる視点(投影中心)を持つ2台のカメラによりステレオ・カメラを構成し、撮像画像中の各点と投影中心との距離を3角測量の原理により測定することができる。   Here, the camera 15 is configured as a stereo camera by two cameras having different viewpoints (projection centers) maintained in a predetermined positional relationship, and the distance between each point in the captured image and the projection center is set to three angles. It can be measured by the principle of surveying.

駆動部50は、制御部20が指令する所定の運動パターンに従ってロボット装置1の機体動作を実現する機能ブロックであり、モーション実行時の制御対象である。駆動部50は、ロボット装置1の各関節における自由度を実現するための機能モジュールであり、それぞれの関節におけるロール、ピッチ、ヨーなど軸毎に設けられた複数の駆動ユニットで構成される。各駆動ユニットは、所定軸回りの回転動作を行なうモータ51並びに減速機(図示しない)と、モータ51の回転位置を検出するエンコーダ52と、エンコーダ52の出力に基づいてモータ51の回転位置や回転速度を適応的に制御するドライバ53の組み合わせで構成される。   The drive unit 50 is a functional block that realizes the body operation of the robot apparatus 1 in accordance with a predetermined motion pattern commanded by the control unit 20, and is a control target during motion execution. The drive unit 50 is a functional module for realizing a degree of freedom in each joint of the robot apparatus 1 and is configured by a plurality of drive units provided for each axis such as a roll, a pitch, and a yaw in each joint. Each drive unit includes a motor 51 and a speed reducer (not shown) that rotate around a predetermined axis, an encoder 52 that detects the rotational position of the motor 51, and the rotational position and rotation of the motor 51 based on the output of the encoder 52. It is comprised by the combination of the driver 53 which controls a speed adaptively.

電源部60は、ロボット装置1内の各電気回路などに対して給電を行なう機能モジュールである。充電バッテリ61は、例えば、複数本のリチウムイオン2次電池セルをカートリッジ式にパッケージ化した「バッテリ・パック」の形態で構成される。充放電制御部62は、バッテリ61の端子電圧や充電/放電電流量、バッテリ61の周囲温度などを測定することでバッテリ61の残存容量を把握し、充電の開始時期や終了時期などを決定する。充放電制御部62が決定する充電の開始及び終了時期は制御ユニット20に通知され、ロボット装置1が充電オペレーションを開始及び終了するためのトリガとなる。   The power supply unit 60 is a functional module that supplies power to each electric circuit in the robot apparatus 1. The rechargeable battery 61 is configured, for example, in the form of a “battery pack” in which a plurality of lithium ion secondary battery cells are packaged in a cartridge type. The charge / discharge control unit 62 grasps the remaining capacity of the battery 61 by measuring the terminal voltage of the battery 61, the amount of charging / discharging current, the ambient temperature of the battery 61, and the like, and determines the charging start timing and end timing. . The charging start / end timing determined by the charge / discharge control unit 62 is notified to the control unit 20 and serves as a trigger for the robot apparatus 1 to start and end the charging operation.

制御ユニット20は、「頭脳」に相当し、例えばロボット装置1の機体頭部あるいは胴体部に搭載されている。図5には、制御ユニット20の構成をさらに詳細に図解している。同図に示すように、制御ユニット20は、メイン・コントローラとしてのCPU21が、メモリやその他の各回路コンポーネントや周辺機器とバス接続された構成となっている。バス27は、データ・バス、アドレス・バス、コントロール・バスなどを含む共通信号伝送路である。バス27上の各装置にはそれぞれに固有のアドレス(メモリ・アドレス又はI/Oアドレス)が割り当てられている。CPU21は、アドレスを指定することによってバス28上の特定の装置と通信することができる。   The control unit 20 corresponds to a “brain”, and is mounted on, for example, the body head or the trunk of the robot apparatus 1. FIG. 5 illustrates the configuration of the control unit 20 in more detail. As shown in the figure, the control unit 20 has a configuration in which a CPU 21 as a main controller is connected to a memory, other circuit components, and peripheral devices via a bus. The bus 27 is a common signal transmission path including a data bus, an address bus, a control bus, and the like. Each device on the bus 27 is assigned a unique address (memory address or I / O address). The CPU 21 can communicate with a specific device on the bus 28 by specifying an address.

RAM22は、DRAMなどの揮発性メモリで構成された書き込み可能メモリであり、CPU21が実行するプログラム・コードをロードしたり、実行プログラムによる作業データの一時的な保存したりするために使用される。ROM23は、プログラムやデータを恒久的に格納する読み出し専用メモリである。ROM23に格納されるプログラム・コードには、ロボット装置1の電源投入時に実行する自己診断テスト・プログラムや、ロボット装置1の動作を規定する動作制御プログラムなどが挙げられる。不揮発性メモリ24は、例えばEEPROMのように電気的に消去再書き込みが可能なメモリ素子で構成され、暗号鍵やその他のセキュリティ情報、出荷後にインストールすべき装置制御プログラムなど、逐次更新すべきデータを不揮発的に保持するために使用される。   The RAM 22 is a writable memory composed of a volatile memory such as a DRAM, and is used for loading a program code to be executed by the CPU 21 and for temporarily storing work data by the execution program. The ROM 23 is a read-only memory that permanently stores programs and data. Examples of the program code stored in the ROM 23 include a self-diagnosis test program that is executed when the robot apparatus 1 is powered on, and an operation control program that defines the operation of the robot apparatus 1. The nonvolatile memory 24 is composed of an electrically erasable / rewritable memory element such as an EEPROM, for example, and stores data to be updated sequentially such as an encryption key, other security information, and a device control program to be installed after shipment. Used to hold in a non-volatile manner.

インターフェース25は、制御ユニット20外の機器と相互接続し、データ交換を可能にするための装置である。インターフェース25は、例えば、カメラ15やマイクロフォン16、スピーカ17との間でデータ入出力を行なう。また、インターフェース25は、駆動部50内の各ドライバ53−1…との間でデータやコマンドの入出力を行なう。   The interface 25 is a device for interconnecting with devices outside the control unit 20 and enabling data exchange. The interface 25 performs data input / output with the camera 15, the microphone 16, and the speaker 17, for example. The interface 25 inputs and outputs data and commands to and from the drivers 53-1.

また、インターフェース25は、RS−232Cなどのシリアル・インターフェース、IEEE1284などのパラレル・インターフェース、USBインターフェース、IEEE1394インターフェース、SCSIインターフェース、PCカードやメモリ・スティックを受容するカード・スロットなどのような、コンピュータの周辺機器接続用の汎用インターフェースを備え、ローカル接続された外部機器との間でプログラムやデータの移動を行なうようにしてもよい。   The interface 25 is a serial interface such as RS-232C, a parallel interface such as IEEE1284, a USB interface, an IEEE1394 interface, a SCSI interface, a card slot that accepts a PC card or a memory stick, and the like. A general-purpose interface for connecting peripheral devices may be provided, and programs and data may be moved between externally connected external devices.

さらに、制御ユニット20は、無線通信インターフェース26やネットワーク・インターフェース・カード27などを含み、Bluetoothのような近接無線データ通信や、IEEE802.11bのような無線ネットワーク、あるいはインターネットなどの広域ネットワークを経由して、外部ホスト装置とデータ通信を行なうことができる。   Further, the control unit 20 includes a wireless communication interface 26, a network interface card 27, and the like, via a proximity wireless data communication such as Bluetooth, a wireless network such as IEEE 802.11b, or a wide area network such as the Internet. Thus, data communication can be performed with the external host device.

双腕の自由度構成:
図6には、図1に示したロボット装置の右腕部の自由度構成を具体的に示している。双腕は左右対称なので、ここでは左腕部の自由度構成の図示を省略する。
Double-arm freedom configuration:
FIG. 6 specifically shows the configuration of the degree of freedom of the right arm part of the robot apparatus shown in FIG. Since the two arms are bilaterally symmetric, the illustration of the degree of freedom configuration of the left arm portion is omitted here.

肩部は、ロール、ピッチ、ヨーの各軸回りに回動する関節自由度を持ち、それぞれについて対応する肩関節アクチュエータa10、a11、a12が配設されている。また、肘部はピッチ軸回りに回動する肘ピッチ軸回転自由度を持ち、これに対応する肘ピッチ軸関節アクチュエータa13が配設されている。また、手首部には、ロール、ヨーの各軸回りに回動する関節自由度を持ち、それぞれについて対応する手首関節アクチュエータa14及びa15が配設されている。また、掌は手部に対してピッチ軸回りに回動する関節自由度を持ち、これに対応する掌関節ピッチ軸アクチュエータa32が配設されている。掌関節は、腕部の最先端ピッチ軸自由度を構成する。   The shoulder portion has joint degrees of freedom of rotation about the roll, pitch, and yaw axes, and corresponding shoulder joint actuators a10, a11, and a12 are disposed. Further, the elbow part has an elbow pitch axis rotation degree of freedom rotating around the pitch axis, and an elbow pitch axis joint actuator a13 corresponding to this is disposed. In addition, wrist joint actuators a14 and a15 having joint degrees of freedom of rotation about the roll and yaw axes are disposed on the wrist. Further, the palm has a degree of freedom of joint rotation around the pitch axis with respect to the hand portion, and a palm joint pitch axis actuator a32 corresponding thereto is disposed. The palm joint constitutes the most advanced pitch axis freedom of the arm.

また、図7には、図1に示したロボット装置の右腕部の自由度構成の変形例を示している。図6との相違点は、手部は掌ではなく手首においてピッチ軸回りの関節自由度が与えられており、この場合、アクチュエータa32は掌関節ピッチ軸ではなく手首関節ピッチ軸の回転駆動に用いられる。手首関節は、腕分最先端ピッチ軸自由度を構成する。   FIG. 7 shows a modification of the degree of freedom configuration of the right arm portion of the robot apparatus shown in FIG. The difference from FIG. 6 is that the wrist is given a degree of joint freedom around the pitch axis at the wrist, not at the palm. In this case, the actuator a32 is used for rotational driving of the wrist joint pitch axis instead of the palm joint pitch axis. It is done. The wrist joint constitutes the most advanced pitch axis freedom for the arm.

ロボット装置の左右の腕部が、肩部のロール、ピッチ、ヨー軸関節、肘部のピッチ軸関節、手首のロール及びヨー軸関節の6軸に加え、図6に示したように、エンドエフェクタである掌にピッチ軸の関節自由度を備えることにより、双腕で物体を把持するというアプリケーションにおいて以下のような2通りの動作が実現可能となる。   As shown in FIG. 6, the left and right arms of the robot apparatus are end effectors as shown in FIG. 6 in addition to the shoulder roll, pitch, yaw joint, elbow pitch joint, wrist roll and yaw joint. By providing the palm with a joint degree of freedom of the pitch axis, the following two operations can be realized in an application of grasping an object with two arms.

(1)腕部の6軸を固定し、掌ピッチ軸のみの駆動による把持物体の姿勢変更。
(2)掌ピッチ軸を冗長軸とし、腕部の他の6軸自由度を用い、把持物体の姿勢を固定した移動・運搬。
(1) The posture of the grasped object is changed by driving only the palm pitch axis while fixing the six axes of the arm.
(2) Movement / transportation with the palm pitch axis as the redundant axis and the other six-axis degrees of freedom of the arm portion, and the posture of the grasped object fixed.

掌ピッチ軸のみの駆動による把持物体の姿勢変更
図8〜図10には、図1に示したロボット装置の双腕を、掌ピッチ軸以外の6軸を固定した状態で、手先が手首に対して、水平、下向き、上向きとなるように掌ピッチ軸を駆動させた様子をそれぞれ示している。
FIG. 8 to FIG. 10 show the two arms of the robot apparatus shown in FIG. 1 in the state where the six arms other than the palm pitch axis are fixed and the hand moves with respect to the wrist. The state in which the palm pitch axis is driven so as to be horizontal, downward, and upward is shown.

ここで、ロボット装置が、立方体の対向する一組の側面を左右それぞれの掌との接触面として、双腕で挟み込むようにして立方体を把持している場合、上記の動作を行なうと、図11〜図13に示すように、立方体は掌ピッチ軸を中心に回転する。すなわち、左右の掌ピッチ軸が1直線上となるように物体を把持すれば、掌ピッチ軸の回転駆動のみによって、あたかも物体が回転軸を持つかのように姿勢が変化するので、腕部の他の6軸を姿勢制御することなく把持物体の姿勢を変更することができる。   Here, when the robot apparatus holds the cube so that the pair of side surfaces of the cube facing each other are used as contact surfaces with the left and right palms and is sandwiched between the two arms, when the above operation is performed, FIG. As shown in FIG. 13, the cube rotates around the palm pitch axis. In other words, if the object is gripped so that the left and right palm pitch axes are on a straight line, the posture changes as if the object has a rotation axis only by the rotational drive of the palm pitch axis. The posture of the grasped object can be changed without controlling the posture of the other six axes.

このとき、左右の掌ピッチ軸が一致する回転軸上若しくはその近傍に物体の重心が来るように把持を行なうようにすれば、物体の重心位置をほとんど変化させることなく、物体の姿勢を掌ピッチ軸の回転駆動のみにより変更することができる。   At this time, if gripping is performed so that the center of gravity of the object is on or near the rotation axis where the left and right palm pitch axes coincide, the posture of the object can be changed to the palm pitch without substantially changing the position of the center of gravity of the object. It can be changed only by rotating the shaft.

また、腕部最先端のピッチ軸を、図6に示すように掌の内側すなわちエンドエフェクタ内に設けることにより、把持物体の重心位置と回転軸を一致させ易くなり安定した把持が可能になる。   Further, by providing the most advanced pitch axis of the arm portion inside the palm, that is, in the end effector as shown in FIG. 6, it is easy to make the center of gravity position of the gripping object coincide with the rotation axis, and stable gripping becomes possible.

例えば、q=(q1,q2,q3,q4,q5,q6,q7)という7軸の関節自由度を持つ腕部のエンドエフェクタ(手先)位置rを指定すると、各関節軸への回転指令はrからインバースキネマティクス演算により求まる。qとrの間には以下の式(4)に示す関係がある。但し、Jはヤコビアンである。   For example, when an end effector (hand) position r of an arm having seven joint degrees of freedom of q = (q1, q2, q3, q4, q5, q6, q7) is designated, the rotation command to each joint axis is r is obtained from inverse kinematics calculation. There is a relationship represented by the following formula (4) between q and r. Where J is Jacobian.

Figure 0004774964
Figure 0004774964

q7をエンドエフェクタ内側のピッチ軸とすると、左右の掌ピッチ軸が一致する回転軸上若しくはその近傍に物体の重心が来るようにして一旦把持し、その後物体の姿勢のみを変更したい場合には、q7のみの回転を行なえば済むので、インバースキネマティクス演算を繰り返す必要はない。   If q7 is the pitch axis inside the end effector, if you want to change the posture of the object only once after holding it so that the center of gravity of the object is on or near the rotation axis where the left and right palm pitch axes match, Since only q7 needs to be rotated, it is not necessary to repeat the inverse kinematics operation.

これに対し、図7に示したように腕部最先端のピッチ軸が手首などエンドエフェクタ外にある場合、あるいは最先端の関節軸がピッチ軸以外の方向を向いている場合には、図11〜図13に示したような把持物体の回転を行なうと、その回転とともにエンドエフェクタ位置が変化してしまう。このため、把持物体の姿勢のみを変更するには、腕部のインバースキネマティクス演算を解き直し、腕部全体の関節角度を変更する必要がある。   On the other hand, as shown in FIG. 7, when the most advanced pitch axis of the arm is outside the end effector such as the wrist, or when the most advanced joint axis is directed in a direction other than the pitch axis, FIG. When the gripping object is rotated as shown in FIG. 13, the end effector position changes with the rotation. For this reason, in order to change only the posture of the grasped object, it is necessary to solve the inverse kinematics calculation of the arm part and change the joint angle of the entire arm part.

勿論、図6に示したように腕部最先端の自由度がエンドエフェクタ内側のピッチ軸である場合であっても、把持物体の姿勢を変更する際に当該ピッチ軸の可動範囲を外れるときには、腕部の他の6軸を用いて所望の位置・姿勢となるようにインバースキネマティクス演算を解き直せばよい。   Of course, as shown in FIG. 6, even when the degree of freedom at the tip of the arm is the pitch axis inside the end effector, when the posture of the gripped object is changed and the pitch axis moves out of the movable range, The inverse kinematics calculation may be solved again using the other six axes of the arm so as to obtain a desired position / posture.

図14には、左右の掌ピッチ軸が一致する回転軸上若しくはその近傍に物体の重心が来るように物体を把持したときの、把持物体の姿勢を変更するための処理手順をフローチャートの形式で示している。   FIG. 14 is a flowchart showing a processing procedure for changing the posture of the grasped object when the object is grasped so that the center of gravity of the object is on or near the rotation axis where the left and right palm pitch axes coincide. Show.

ロボット装置は、初期姿勢として、双腕の掌で、左右の掌ピッチ軸が1直線上となるように物体を把持しているとする。物体の位置・姿勢の変更要求がなければ、物体の現在位置及び姿勢を保持したまま待機する(ステップS8)。   Assume that the robot apparatus grips an object so that the left and right palm pitch axes are on one straight line with the two-arm palm as an initial posture. If there is no request for changing the position / orientation of the object, the apparatus stands by while maintaining the current position and orientation of the object (step S8).

ここで、物体の位置・姿勢の変更要求があると(ステップS1のYes)、要求されている位置・姿勢を掌ピッチの回転駆動のみで実現可能かどうかを判別する(ステップS2)。   Here, if there is a request for changing the position / posture of the object (Yes in step S1), it is determined whether or not the requested position / posture can be realized only by the rotational drive of the palm pitch (step S2).

要求されている位置・姿勢を掌ピッチの回転駆動のみで実現可能であれば(ステップS2のYes)、掌ピッチ軸を要求された回転量だけ変更する(ステップS3)。掌ピッチ軸のみの回転駆動は、他の6軸のインバースキネマティクス演算を行なう場合に比べ、計算コストの面で極めて有利である。   If the requested position / posture can be realized only by rotational driving of the palm pitch (Yes in step S2), the palm pitch axis is changed by the requested amount of rotation (step S3). Rotational driving using only the palm pitch axis is extremely advantageous in terms of calculation cost compared to the case of performing the inverse kinematics calculation of the other six axes.

次いで、掌ピッチ軸が可動域内かどうかを判別し(ステップS4)、可動域内に収まっていれば、新しい関節角度として設定し(ステップS7)、ステップS1に戻る。   Next, it is determined whether or not the palm pitch axis is within the movable range (step S4). If the palm pitch axis is within the movable range, a new joint angle is set (step S7), and the process returns to step S1.

一方、要求されている位置・姿勢を掌ピッチの回転駆動のみで実現可能でないとき(ステップS2のNo)、並びに、掌ピッチ軸を要求された回転量だけ変更すると可動域から外れるときには(ステップS4のNo)、掌ピッチ軸は現在値を保持し、それ以外の6軸についてインバースキネマティクス演算により求解する(ステップS5)。   On the other hand, when the requested position / posture cannot be realized only by the rotational drive of the palm pitch (No in Step S2), and when the palm pitch axis is changed by the requested amount of rotation, it is out of the movable range (Step S4). No), the palm pitch axis holds the current value, and the other six axes are solved by inverse kinematics calculation (step S5).

そして、得られた6軸の各関節が可動域内であるかどうか、及び腕部方の部位と衝突する自己干渉を生じないか、チェックを行なう(ステップS6)。6軸の関節が可動域内であり、且つ自己干渉を生じない場合には、新しい関節角度として設定し(ステップS7)、ステップS1に戻る。また、いずれかの関節軸が可動域を外れ、又は自己干渉を生じるときには、物体の現在位置及び姿勢を保持し(ステップS8)、ステップS1に戻る。   Then, it is checked whether or not each of the obtained 6-axis joints is within the movable range, and whether or not self-interference that collides with the arm portion will occur (step S6). If the 6-axis joint is within the range of motion and no self-interference occurs, a new joint angle is set (step S7), and the process returns to step S1. When any joint axis is out of the movable range or causes self-interference, the current position and posture of the object are maintained (step S8), and the process returns to step S1.

掌ピッチ軸を冗長軸とし、把持物体の姿勢を固定した移動・運搬
図15〜図16には、図1に示したロボット装置の双腕を、エンドエフェクタとしての手先の位置・姿勢を固定させたまま肩部から手首部までの6軸を変更させる様子を示している。
Movement / transportation with the palm pitch axis as the redundant axis and the posture of the gripped object fixed. FIGS. 15 to 16 show the two arms of the robot apparatus shown in FIG. It shows how the six axes from the shoulder to the wrist are changed.

これは、把持した物体をある特定の位置及び姿勢にするために、第7軸となる最先端の掌ピッチ軸を備えることにより、肩部から手首部までの6軸が持つインバースキネマティクスの解空間が拡大したことを意味する。図42に示すように、冗長軸を除く腕部の6軸のIKの解が冗長軸の可動範囲内であれば、7軸でのエンドエフェクタの姿勢を維持することができるから、冗長軸により6軸のIKの解空間が拡大されるという訳である。これにより、肩部から手首部までの6軸からなる腕部では、インバースキネマティクス演算で破壊が見つからない(若しくは所定回数の再帰演算では解が収束しない)場合であっても、第7軸の駆動により解を得易くなる。   This is a solution to the inverse kinematics of the six axes from the shoulder to the wrist by providing the most advanced palm pitch axis, which is the seventh axis, in order to bring the gripped object into a specific position and posture. It means that the space has expanded. As shown in FIG. 42, if the solution of the IK of the six axes of the arms excluding the redundant axis is within the movable range of the redundant axis, the posture of the end effector on the seven axes can be maintained. The 6-axis IK solution space is expanded. As a result, in the arm portion consisting of six axes from the shoulder portion to the wrist portion, even if the destruction is not found by the inverse kinematics operation (or the solution does not converge by the predetermined number of recursive operations), It becomes easier to obtain a solution by driving.

例えば、ロボット装置が双腕で挟み込むようにして物体を把持し、その姿勢を維持しながら物体を持ち上げていくような場合、まず7軸のうちより少ない関節自由度数を用いてインバースキネマティクス演算を行ない、解の導出が困難になった時点で使用する関節自由度数を順次増やしていくことで、少ないコストで動作を実現することができる。また、把持物体(すなわちエンドエフェクタ)の同じ位置及び姿勢に関するインバースキネマティクスの解空間において、エンドエフェクタ(すなわち掌若しくは手首のピッチ軸)を冗長軸とし、それ以外の6軸のインバースキネマティクス解の余裕が最大となる(すなわち可動範囲に余裕がある)ように冗長軸の位置を決定することにより、物体の運搬・移動の途中でインバースキネマティクス演算の求解が困難になりにくい(すなわち動作が破綻しにくい)双腕動作を実現することができる。   For example, when the robot device grips an object with two arms and lifts the object while maintaining its posture, the inverse kinematics calculation is first performed using a smaller number of joint degrees of freedom among the seven axes. In this case, the number of degrees of freedom of joints to be used when the solution derivation becomes difficult can be increased at a low cost. In addition, in the inverse kinematics solution space for the same position and posture of the grasped object (ie, end effector), the end effector (ie, the pitch axis of the palm or wrist) is the redundant axis, and the other six axis inverse kinematics solutions By determining the position of the redundant axis so that the margin is maximized (ie, there is a margin in the movable range), it is difficult to find the inverse kinematics calculation during the transportation and movement of the object (ie, the operation fails) It is possible to realize a double-arm operation.

図17には、ロボット装置がインバースキネマティクス演算の解空間を最大化しながら双腕を用いて把持物体を運搬するための処理手順をフローチャートの形式で示している。以下では、ロボット装置は、両腕の最先端自由度として掌若しくは手首のピッチ軸回りの関節を持ち、且つこれが冗長軸に設定されているとする。   FIG. 17 shows a processing procedure in the form of a flowchart for the robot apparatus to carry the grasped object using the two arms while maximizing the solution space of the inverse kinematics operation. In the following, it is assumed that the robot apparatus has joints around the pitch axis of the palm or wrist as the most advanced degree of freedom of both arms, and this is set as a redundant axis.

ロボット装置は物体を把持しており、物体の位置・姿勢の変更要求が発生したとする。この場合、物体の位置・姿勢を実現するために、双腕の位置・姿勢を変更する必要がある。   It is assumed that the robot apparatus holds an object and a request for changing the position / orientation of the object is generated. In this case, it is necessary to change the position / posture of the two arms in order to realize the position / posture of the object.

この場合、まず、冗長軸を動かさずに物体の位置・姿勢の変更を実現できる双腕のインバースキネマティクス解を得る(ステップS11)。ここでは、説明の便宜上、インバースキネマティクス解が求まらない状況は想定しないことにする。   In this case, first, a double-arm inverse kinematics solution capable of realizing the change of the position / posture of the object without moving the redundant axis is obtained (step S11). Here, for convenience of explanation, it is assumed that a situation where an inverse kinematics solution cannot be obtained is not assumed.

次いで、冗長軸以外の6軸について、その双腕姿勢において冗長軸をプラス方向へ動かした場合に、可動角リミットから遠のく関節群Aとその逆の関節群Bに分ける(ステップS12)。   Next, regarding the six axes other than the redundant axis, when the redundant axis is moved in the plus direction in the dual-arm posture, it is divided into the joint group A far from the movable angle limit and the opposite joint group B (step S12).

ここで、他の6軸がすべてA群又はB群のみとなった場合(若しくは一方の関節群に集中した場合)には(ステップS13)、次の物体の位置・姿勢変更指令次第では、関節軸が可動角リミットに到達し易く、動作が破綻する可能性が高くなる。そこで、A群若しくはB群の関節のいずれかが他方の関節群となるように冗長軸を動かして、インバースキネマティクス演算の解空間の拡大を試みる(ステップS14)。そして、把持物体の位置・姿勢が変更後の物体の位置・姿勢Pを維持できるような双腕のインバースキネマティクス解を得る。   Here, when all the other six axes are only group A or group B (or when concentrated on one joint group) (step S13), depending on the next object position / posture change command, the joint The axis tends to reach the movable angle limit, and the possibility that the operation will fail increases. Therefore, the redundant axis is moved so that one of the joints of the A group or the B group becomes the other joint group, and an attempt is made to expand the solution space of the inverse kinematics calculation (step S14). Then, a double-arm inverse kinematics solution is obtained so that the position / posture P of the object after the change of the position / posture of the grasped object can be maintained.

次いで、A群及びB群のそれぞれから、最も可動角リミットに近い関節を1つずつ選び(ステップS15)、可動角リミットにより近いのはいずれであるかを判別する(ステップS16)。   Next, one joint that is closest to the movable angle limit is selected from each of the A group and the B group (step S15), and it is determined which is closer to the movable angle limit (step S16).

ここで、A群の方が可動角リミットにより近い関節軸を持つ場合には、冗長軸をプラス方向に動かして、可動範囲をA群とB群とで均等化した後、把持物体の位置・姿勢が変更後の位置・姿勢Pを維持できるような双腕のインバースキネマティクス解を得て(ステップS17)、ステップS15に戻る。   Here, when the group A has a joint axis closer to the movable angle limit, the redundant axis is moved in the plus direction to equalize the movable range between the group A and the group B, A double-arm inverse kinematics solution that can maintain the post-change position / posture P is obtained (step S17), and the process returns to step S15.

また、B群の方が可動角リミットにより近い関節軸を持つ場合には、冗長軸をマイナス方向に動かして、可動範囲をA群とB群とで均等化した後、把持物体の位置・姿勢が変更後の位置・姿勢Pを維持できるような双腕のインバースキネマティクス解を得て(ステップS18)、ステップS15に戻る。   In addition, when the group B has a joint axis closer to the movable angle limit, the redundant axis is moved in the minus direction to equalize the movable range between the group A and the group B, and then the position / posture of the gripped object Obtains a double-arm inverse kinematics solution that can maintain the changed position / posture P (step S18), and returns to step S15.

また、A群とB群で、可動角リミットまでの余裕がほぼ均等である場合には、本処理ルーチン全体を終了する。   Further, when the allowances up to the movable angle limit are approximately equal between the A group and the B group, the entire processing routine is terminated.

双腕を用いた物体の運搬
ここでは、散在する立方体をロボットが1つずつ持ち運んで、特定の回収場所に積み上げていくという具体例を採り上げて、ロボット装置の双腕を用いた物体の運搬作業について説明する。
Conveying objects using two arms Here, we take a concrete example where a robot carries scattered cubes one by one and piles them up in a specific collection location, and the object is transported using the two arms of a robotic device. Will be described.

各立方体の表面にはそれぞれ別の色が塗られ、視覚的あるいはその他の手段でロボット装置は個々の立方体を識別可能であるとする。そして、物体の置き方、すなわち立方体を積み上げる順序はあらかじめ決められているものとする(図18を参照のこと)。したがって、置く順番により、各立方体を積み上げる高さは異なる。   It is assumed that the surface of each cube is painted with a different color so that the robot apparatus can identify individual cubes by visual or other means. It is assumed that how to place objects, that is, the order in which cubes are stacked is determined in advance (see FIG. 18). Therefore, the height at which the cubes are stacked differs depending on the order of placement.

図6並びに図7に示したように、ロボット装置の双腕がエンドエフェクタに近い部位にピッチ軸回りの関節自由度を備えている場合、床面に置かれている立方体に対し、さまざまな方法で双腕を用いて把持することができる(図19を参照のこと)。また、立方体の底面ではなく、対向する1組の側面を接触面として挟持するので、床面から持ち上げ易く、且つ設置面を開放していることから、設置場所で置き易い。   As shown in FIG. 6 and FIG. 7, when the robot arm has two degrees of freedom of joint around the pitch axis at a portion close to the end effector, various methods can be applied to a cube placed on the floor surface. Can be gripped by using two arms (see FIG. 19). Further, since a pair of opposing side surfaces are held as contact surfaces instead of the bottom surface of the cube, it is easy to lift from the floor surface and the installation surface is open, so that it can be easily placed at the installation location.

一方、置く順番により、積み上げるときの立方体の高さは相違するから(図20を参照のこと)、指定された高さで置き易くなるような手先の位置を選んで、床面にあるそれぞれの立方体を把持する必要がある(図21を参照のこと)。   On the other hand, the height of the cubes to be stacked differs depending on the order of placement (see FIG. 20). Therefore, the position of the hand that makes it easy to place at the specified height is selected, and each cube on the floor surface is selected. It is necessary to grip the cube (see FIG. 21).

ある高さ若しくは奥行きの方向へ立方体を移動する場合は、把持する前すなわち床面上の立方体の底面をそのまま移動先での設置面とすることができる(図22を参照のこと)。また、移動先での設置面が双腕だけでは到達できない高さや奥行きであっても、体幹の姿勢や腰の高さなどを加味し、全身を協調した運搬を行なうことで、立方体の移動は可能である。   When the cube is moved in a certain height or depth direction, the bottom surface of the cube on the floor surface before gripping, that is, the floor surface can be used as the installation surface at the destination (see FIG. 22). In addition, even if the installation surface at the destination is a height or depth that cannot be reached with just two arms, the movement of the cube can be achieved by transporting the whole body in a coordinated manner, taking into consideration the posture of the trunk and the height of the waist. Is possible.

他方、双腕の動作で形成できる姿勢には限界があることから、より高い、あるいはより奥行き方向への遠い位置へ立方体を移動する場合には、把持する前すなわち床面上の立方体の底面をそのまま移動先での設置面とすることができなくなることがある(図23を参照のこと)。また、体幹の姿勢や腰の高さなどを加味し、全身を強調した運搬を行なうとしても、立方体の移動には限界がある。   On the other hand, there is a limit to the posture that can be formed by the movement of the double arm, so when moving the cube to a higher or farther position in the depth direction, the bottom surface of the cube on the floor surface before gripping, i.e. In some cases, the installation surface cannot be used as it is (see FIG. 23). In addition, there is a limit to the movement of the cube even if transport is performed with the whole body emphasized, taking into account the posture of the trunk and the height of the waist.

本実施形態に係るロボット装置は、双腕がエンドエフェクタに近い部位にピッチ軸回りの関節自由度を備えているので、図19に示したように、さまざまな方法で双腕を用いて把持することができるので、移動した先での設置面を考慮した移動を行なうことで、上記の問題を解決した移動・運搬を行なうことができる。   The robot apparatus according to the present embodiment has a degree of freedom of joint around the pitch axis in a portion where the double arms are close to the end effector, and as shown in FIG. Therefore, by moving in consideration of the installation surface at the destination, it can be moved and transported with the above problems solved.

立方体であれば、図24に示すように、すべての側面T1〜T6を設置面にすることができる。双腕把持面を右面T5と左面T6とした場合、把持する直前では床面に接地していない前面T1を、エンドエフェクタに近い部位にピッチ軸回りの関節自由度を利用して、移動先では設置面となるように立方体の姿勢を変更することができる。この結果、設置面を変えないでは立方体を移動できないような高い位置であっても、図25に示すように設置面の変更により移動が可能となる。   If it is a cube, as shown in FIG. 24, all the side surfaces T1-T6 can be used as an installation surface. When the dual-arm gripping surfaces are the right surface T5 and the left surface T6, the front surface T1 that is not grounded immediately before gripping is used, and the degree of joint freedom around the pitch axis is used near the end effector at the destination. The posture of the cube can be changed to be the installation surface. As a result, even if the cube cannot be moved without changing the installation surface, it can be moved by changing the installation surface as shown in FIG.

図26には、把持対象物体の許容姿勢を考慮した移動可能性の判断を行なうための処理手順をフローチャートの形式で示している。   FIG. 26 shows a processing procedure for determining the possibility of movement in consideration of the allowable posture of the gripping target object in the form of a flowchart.

把持対象物体Tを位置P1からP2へ移動する際、まず、物体Tの位置P2における姿勢が指定されているかどうかをチェックする(ステップS21)。   When the gripping target object T is moved from the position P1 to P2, it is first checked whether or not the posture of the object T at the position P2 is designated (step S21).

物体Tの移動先の位置P2における姿勢が指定されていない場合には、物体Tの姿勢を変更せずに位置P1からP2へ移動することができるかどうかを、例えば位置P2における設置面の高さと双腕並びに体幹及び腰の高さの自由度を比較して、判断する(ステップS22)。   If the posture at the position P2 of the movement destination of the object T is not specified, whether the object T can be moved from the position P1 to P2 without changing the posture of the object T, for example, the height of the installation surface at the position P2 Judgment is made by comparing the degrees of freedom of the arms and the height of the trunk and waist (step S22).

物体Tの姿勢を変更せずに位置P1からP2へ移動することができるときには、移動可能と判定して、本処理ルーチンを終了する。   When the object T can be moved from the position P1 to P2 without changing the posture of the object T, it is determined that the object is movable, and this processing routine is ended.

また、物体Tの姿勢を変更せずに位置P1からP2へ移動することができないときには、続いて、物体Tの位置P2における姿勢に、現在位置P1における姿勢以外の候補があるかどうかをチェックする(ステップS23)。例えば、上述したように、物体Tの設置面を変更して位置P2におくことができるかどうかを判別する。物体Tの設置面を変更して位置P2におくことができるときには、その面を設置面とする姿勢を物体Tの姿勢候補として出力する。また、姿勢候補を決定することができないときには、移動不可能と判定して、本処理ルーチンを終了する。   Further, when the posture of the object T cannot be moved from the position P1 to P2 without changing the posture, subsequently, it is checked whether or not there is a candidate other than the posture at the current position P1 in the posture at the position P2 of the object T. (Step S23). For example, as described above, it is determined whether or not the installation surface of the object T can be changed and placed at the position P2. When the installation surface of the object T can be changed and placed at the position P2, the posture with the surface as the installation surface is output as the posture candidate of the object T. Further, when the posture candidate cannot be determined, it is determined that the movement is impossible, and this processing routine is ended.

そして、物体Tについて位置P2であらかじめ指定されている姿勢、又はステップS23で決定された姿勢候補によって物体Tを移動することができるかどうかをチェックする(ステップS24)。指定された姿勢で移動することができる、若しくは姿勢候補の中に移動することができるものがあるときには、移動可能と判定して本処理ルーチン全体を終了する。また、指定された姿勢では移動できない、若しくは移動可能となる姿勢がないときには、移動不可能と判定して、本処理ルーチン全体を終了する。   Then, it is checked whether or not the object T can be moved according to the posture specified in advance at the position P2 for the object T or the posture candidate determined in step S23 (step S24). When there is something that can be moved in the designated posture or among the posture candidates, it is determined that the movement is possible, and this entire processing routine is ended. Further, when the designated posture cannot be moved or there is no posture that can be moved, it is determined that the movement is impossible, and the entire processing routine is ended.

以下では、図22並びに図25に示したような、ロボット装置が物体の双腕把持、及び移動・運搬を行なうための動作について説明する。但し、その前提として、ロボット装置は、把持対象物体の積み方、把持対象物体の把持の仕方、把持対象物体のモデル情報、並びにロボット自体のモデル情報を把握しているものとする(図27を参照のこと)。把持対象物体のモデル情報には、形状、大きさ、重さ、表面素材(摩擦係数)といった、把持対象物体について既知の情報が含まれる。また、ロボット自体のモデル情報には、双腕の7軸インバースキネマティクス解の範囲、体幹及び腰の高さの自由度に関する情報が含まれる。   In the following, an operation for the robot apparatus to hold the object with two arms and move / carry as shown in FIGS. 22 and 25 will be described. However, it is assumed that the robot apparatus knows how to stack the gripping target objects, how to grip the gripping target object, model information of the gripping target object, and model information of the robot itself (see FIG. 27). See The model information of the gripping target object includes information known about the gripping target object such as shape, size, weight, and surface material (friction coefficient). The model information of the robot itself includes information on the range of the double-armed 7-axis inverse kinematics solution and the degrees of freedom of the trunk and waist height.

図28には、ロボット装置が把持対象物体を把持していない状態から把持して歩行可能な状態になるまでの処理手順をフローチャートの形式で示している。   FIG. 28 shows a processing procedure from a state where the robot apparatus is not gripping the gripping target object to a state where the robot apparatus can grip and walk, in the form of a flowchart.

まず、把持対象物体及び把持対象物体の積み先を、カメラ映像の画像認識などの方法により認識する(ステップS31)。   First, the grip target object and the stack destination of the grip target object are recognized by a method such as image recognition of a camera video (step S31).

次いで、把持対象物体の積み方を探索する(ステップS32)。把持対象物体を目的の位置姿勢へ積むために、以下のことを先に決定する。   Next, the method of stacking the gripping target objects is searched (step S32). In order to load the gripping target object to the target position and orientation, the following is determined first.

・把持対象物体のどこを把持するか。
・両掌をどのような姿勢で把持するか。
・どのくらいの把持圧で把持するか。
・取るときと置くときの体幹の姿勢及び腰の高さ。
・ Where to grasp the object to be grasped.
・ In what kind of posture should you hold both palms?
・ How much gripping pressure is used for gripping?
-Trunk posture and waist height when taking and placing.

把持対象物体のどこを把持するかは、図26に示した処理手順に従って決定することができる。   Where to grasp the object to be grasped can be determined according to the processing procedure shown in FIG.

次いで、把持対象物体へ正対するように、歩行しながら近づいて(ステップS33)、把持対象物体を把持できる位置姿勢へ両掌を持っていける位置に立つ。   Next, approaching while walking so as to face the gripping target object (step S33), it stands at a position where both palms can be brought to a position and orientation where the gripping target object can be gripped.

次いで、双腕が把持対象物体を把持できる状況にする(ステップS34)。具体的には、把持対象物体の接地状態とロボット自体の接地状態を考慮して、以下のような動作を行なう。ここでは、把持対象物体の接地状態やロボット装置自体の接地状態を考慮する。   Next, a situation where the two arms can grip the object to be gripped is set (step S34). Specifically, the following operation is performed in consideration of the grounding state of the object to be grasped and the grounding state of the robot itself. Here, the grounding state of the object to be grasped and the grounding state of the robot apparatus itself are considered.

・把持対象物体の幅以上に両掌間を広げる。
・体幹を起こす(若しくは屈める)。
・腰を上げる(若しくは下げる)。
・指を開く。
・置き方を想定した把持ができる位置姿勢へ両掌を持っていく。
・ Expand the gap between both palms beyond the width of the object to be grasped.
・ Raise (or bend) the trunk.
・ Raise (or lower) your waist.
・ Open your finger.
・ Take both palms to a position and posture where you can hold the handset.

次いで、把持対象物体を把持する(ステップS35)。具体的には、前ステップS34において双腕で把持対象物体を把持できる状況から、把持対象物体の幅まで両掌間を狭めていく。そして、把持対象物体の運搬(持ち上げ)に必要な把持圧が加わるまで、両掌を狭めるような双腕の動作制御を行なう。また、両掌の把持面が把持対象物体面へ密着するように微調整する。十分な把持圧に到達したら、指でロックする。   Next, the object to be grasped is grasped (step S35). Specifically, the space between both palms is narrowed from the situation in which the object to be grasped can be grasped with two arms in the previous step S34 to the width of the object to be grasped. Then, the movement control of the two arms is performed so that both palms are narrowed until a gripping pressure necessary for transporting (lifting) the object to be gripped is applied. Further, fine adjustment is performed so that the gripping surfaces of both palms are in close contact with the object surface to be gripped. When sufficient gripping pressure is reached, lock with your finger.

次いで、把持状態継続処理を開始する(ステップS36)。すなわち、双腕の動作や、脚部を用いた歩行などの他の動作制御と並行処理により、把持物体が両掌の間に固定させ続けるように、双腕の力制御若しくは各関節アクチュエータのゲイン制御を行なう。   Next, the gripping state continuation process is started (step S36). In other words, double arm force control or gain of each joint actuator so that the grasped object is kept fixed between both palms by parallel processing with other motion control such as double arm motion and walking using legs. Take control.

把持対象物体の把持とともに、当該把持物体の落下検出処理を開始し(ステップS37)、並列処理にて、落下しないかを監視し続ける。落下の検知方法や、物体が落下したときの対処方法の詳細については、後述に譲る。   Along with the gripping of the object to be gripped, a drop detection process of the gripped object is started (step S37), and it is continuously monitored whether it is dropped by the parallel processing. Details of the fall detection method and the handling method when an object falls will be described later.

また、把持物体を解放する(すなわち、所望の設置位置で手放す)までの間、並列処理にて、把持物体を把持できているかを確かめる(ステップS38)。例えば、微小高さだけ(もし取り落としていても把持対象物体が大きく転がらない程度に)手先を持ち上げてみて、落下検出に引っかかったら、正しく把持できていないと判断する。   In addition, it is confirmed whether the grasped object can be grasped by parallel processing until the grasped object is released (that is, released at a desired installation position) (step S38). For example, if the hand is lifted by a minute height (so that the object to be grasped does not roll greatly even if it is removed), and it is caught by the drop detection, it is determined that the object cannot be grasped correctly.

そして、ロボット装置自体と把持対象物体の位置姿勢を、把持して歩行するのに支障がない状態にする。具体的には、ステップS34において把持できる状況にするために変更した体幹や腰の位置姿勢を元に戻す、把持対象物体を状態へ引き戻すといった動作を行なう。   Then, the position and orientation of the robot apparatus itself and the object to be grasped are set in a state where there is no hindrance for grasping and walking. Specifically, an operation is performed such as returning the position / posture of the trunk or waist changed so as to be able to be gripped in step S34 to the original state, and returning the gripping target object to the state.

また、把持対象物体を解放する(すなわち、所望の設置位置で手放す)までの間、物体の位置姿勢の変更要求があると、図17に示した処理手順に従って、双腕のインバースキネマティクス演算の解空間が最大となるように動作する。   Also, if there is a request to change the position and orientation of the object until the object to be grasped is released (that is, released at the desired installation position), the double-arm inverse kinematics calculation is performed according to the processing procedure shown in FIG. It works to maximize the solution space.

ステップS31では、ロボット装置の頭部に搭載されたステレオ・カメラの映像を画像処理することによって、把持対象物体を認識することができる。図29には、その際の処理手順をフローチャートの形式で示している。但し、把持対象物体は立方体とし、そのモデル情報(図27を参照のこと)は既知であるとする。   In step S31, the object to be grasped can be recognized by performing image processing on the image of the stereo camera mounted on the head of the robot apparatus. FIG. 29 shows the processing procedure at that time in the form of a flowchart. However, it is assumed that the object to be grasped is a cube and its model information (see FIG. 27) is already known.

把持対象物体の撮像画像が図30である場合、まずカラー画像に対して色による閾値でラベリング処理を行なって、図31に示すような、把持対象物体の領域が抽出されたラベリング画像を得る(ステップS41)。   When the captured image of the gripping target object is shown in FIG. 30, first, a color image is subjected to a labeling process with a color threshold value to obtain a labeling image from which the gripping target object region is extracted as shown in FIG. Step S41).

そして、ラベリング画像に対して膨張及び収縮処理を施してノイズ除去した後(ステップS42)、エッジ抽出処理を適用して、ラベリング画像のエッジ部分のみを抽出する(ステップS43)。図32には、図31に示すラベリング画像から得られるエッジ画像を示している。   Then, after performing dilation and contraction processing on the labeling image to remove noise (step S42), the edge extraction processing is applied to extract only the edge portion of the labeling image (step S43). FIG. 32 shows an edge image obtained from the labeling image shown in FIG.

次いで、エッジ画像に対してハフ変換(ステップS44)と逆ハフ変換(ステップS45)を施すことにより、エッジに関する直線検出を行なう。図33には、図32に示したエッジ画像から得られる直線を示している。   Next, the edge image is subjected to a Hough transform (step S44) and an inverse Hough transform (step S45) to detect a straight line related to the edge. FIG. 33 shows a straight line obtained from the edge image shown in FIG.

次いで、得られた直線群の中から、有効線分を検索し(ステップS46)、さらに既知立方体のモデル情報を加味して、有効線分や点の検出を行なう(ステップS47)。図34には、ハフ変換により得られた直線群から検出される立方体の頂点を示している。   Next, an effective line segment is searched from the obtained straight line group (step S46), and an effective line segment and a point are detected by adding model information of a known cube (step S47). FIG. 34 shows the vertices of a cube detected from the straight line group obtained by the Hough transform.

そして、有効な点とステレオ視の情報とのマッチングを行なうことで3次元情報を持つ点に変換し、3次元情報から立方体の位置と傾きを求める。有効線分上にない、エッジ画像内の頂点位置を、立方体のモデル情報に基づいて補間して、立方体として認識する(ステップS48)。   Then, by matching the effective point and stereo vision information, the point is converted into a point having three-dimensional information, and the position and inclination of the cube are obtained from the three-dimensional information. The vertex positions in the edge image that are not on the effective line segment are interpolated based on the cube model information and recognized as a cube (step S48).

ステップS33では、このような物体の認識結果を利用して、把持対象物体へ正対するように近づく。立方体を双腕で把持するためには、両掌で接触しようとする立方体の側面とそれぞれ平行になる必要がある。言い換えれば、ロボット装置の前面が立方体の1つの側面と対峙するように近づけば、その両端の側面が両掌に対しほぼ平行に向き合うことになる。   In step S33, the object recognition result is used to approach the gripping target object. In order to hold a cube with two arms, it is necessary to be parallel to the side surfaces of the cube to be contacted with both palms. In other words, when the front surface of the robot apparatus is brought close to one side surface of the cube, the side surfaces at both ends face each other substantially parallel to both palms.

図35には、ロボット装置が立方体に近づく様子を示している。図示の例では、床面に対し直交する4つの側面A〜DのうちAが最もロボット装置に近いので、Aに正対するように、歩行して立方体に近づく。これによって、Aの両端となるB及びDが両掌による把持面となる。   FIG. 35 shows how the robot apparatus approaches a cube. In the illustrated example, among the four side surfaces A to D orthogonal to the floor surface, A is closest to the robot apparatus, so that it walks and approaches a cube so as to face A. As a result, B and D which are both ends of A become gripping surfaces by both palms.

また、ロボット装置は、双腕による双腕把持動作において、把持対象物体の把持とともに、ステップS37において当該把持物体の落下検出処理を開始し、並列処理にて、落下しないかを監視し続ける。この落下検出処理のため、ロボット装置は、例えば以下に示すセンサのうち少なくとも1つ又は2以上の組み合わせを利用することができる。   In addition, in the two-arm gripping operation with two arms, the robot apparatus starts the fall detection process of the gripped object in step S37 together with the gripping target object, and continues to monitor whether or not it falls in parallel processing. For this drop detection processing, the robot apparatus can use at least one of the following sensors or a combination of two or more.

(1)掌のタッチ・センサ
(2)手首の6軸力センサ
(3)関節角
(4)カメラによる把持対象物体の観察映像の画像認識
(5)足底センサ
(6)音
(1) Palm touch sensor (2) Wrist six-axis force sensor (3) Joint angle (4) Image recognition of object to be grasped by camera (5) Sole sensor (6) Sound

図36に示すように掌に物体(外界)との接触が判るスイッチを設け、このスイッチのオン/オフ出力に基づいて落下検知を行なうことができる。把持物体が落下するとスイッチが解放され、スイッチはオフとなる。   As shown in FIG. 36, a switch for detecting contact with an object (external world) is provided on the palm, and drop detection can be performed based on the on / off output of the switch. When the gripping object falls, the switch is released and the switch is turned off.

手首部に6軸力センサを設けて落下検出を行なう場合、ステップS35において物体を把持した直後の当該センサの出力値を記憶しておく。そして、落下検出処理中に、センサ出力値が把持直後よりもn%(nは任意の閾値)を下回ると、両掌で十分な力で物体を挟持できていない、すなわち落下したと判断することができる。ここでは、6軸力センサ出力のうち、掌すなわち把持面に垂直な成分のみを使用するものとする。また、把持直後のセンサ値として、両掌のセンサ値の和を用いることで、物体の姿勢を変更した際の把持圧の相違を加味することができる。   When drop detection is performed by providing a wrist sensor with a six-axis force sensor, the output value of the sensor immediately after gripping an object is stored in step S35. When the sensor output value falls below n% (n is an arbitrary threshold value) immediately after gripping during the fall detection process, it is determined that the object cannot be pinched with sufficient force with both palms, that is, it has fallen. Can do. Here, it is assumed that only the component perpendicular to the palm, that is, the grip surface, is used from the 6-axis force sensor output. Further, by using the sum of the sensor values of both palms as the sensor value immediately after gripping, the difference in gripping pressure when the posture of the object is changed can be taken into account.

また、ロボット装置の双腕のポテンションから計算される関節角度から、両掌の間隔を得ることができる。把持対象物体のモデル情報から得られる幅に対し、掌の間隔が小さくなったときには、もはや物体を挟持していないと想定されることから、落下したと判断することができる。   Further, the distance between both palms can be obtained from the joint angle calculated from the potentiometers of the two arms of the robot apparatus. When the interval between the palms becomes smaller than the width obtained from the model information of the object to be grasped, it is assumed that the object is no longer sandwiched, so it can be determined that the object has fallen.

また、ロボット装置は、物体の把持動作を行なっている最中は、例えば定期的に、把持対象物体をカメラで観察するようにしてもよい。そして、画像認識により処理したときの物体位置が、両掌から大きくずれたときや、もはや観察できなくなったときには、物体が落下したと判断することができる。   Further, the robot apparatus may observe the object to be grasped with a camera periodically, for example, during the object grasping operation. Then, when the position of the object when processed by image recognition deviates greatly from both palms, or when it can no longer be observed, it can be determined that the object has fallen.

また、ロボット装置がZMP(Zero Moment Point)を安定度判別規範として歩行やその他の立脚作業を行なう場合、足底接地点と路面の形成する支持多角形の内側にピッチ軸及びロール軸モーメントがゼロとなる点を求めるために、足底センサを設けることが多い。このような場合、物体を把持した直後に足底センサから得られる加重を保持しておき、把持中に計測される加重から計算される値が一定値を下回ったときには、もはや物体を指示していないことになるので、物体が落下したと判断することができる。   In addition, when the robot device performs walking or other stance work using ZMP (Zero Moment Point) as a stability criterion, the pitch axis and roll axis moments are zero inside the support polygon formed by the ground contact point and the road surface. In many cases, a sole sensor is provided to obtain a point. In such a case, the weight obtained from the sole sensor is held immediately after gripping the object, and when the value calculated from the weight measured during gripping falls below a certain value, the object is no longer indicated. Therefore, it can be determined that the object has fallen.

また、図4にも示したように、本実施形態に係るロボット装置はマイクを備えている。例えば、指向性を調整して7個のマイクを頭部に搭載することにより、音源方向を検知することができる。この7個のマイクを用いて、ロボットの腕部の下方から大きな音が感知されると、落下の可能性があると認識することができる。但し、落下以外の原因も考えられることから、音の感知だけで物体の落下と断定することは難しく、例えば、音の鳴った方向をカメラ映像で観察するなど(図37を参照のこと)、他のセンサ出力と組み合わせることが好ましい。   In addition, as shown in FIG. 4, the robot apparatus according to this embodiment includes a microphone. For example, the direction of the sound source can be detected by adjusting the directivity and mounting seven microphones on the head. If a loud sound is detected from below the robot arm using these seven microphones, it can be recognized that there is a possibility of falling. However, it is difficult to conclude that the object is falling only by sensing the sound because there may be causes other than the fall. For example, observing the direction in which the sound was produced with a camera image (see FIG. 37), Preferably combined with other sensor outputs.

図38には、ロボット装置が上述したセンサ検出結果に基づいて落下検出を行なうための処理手順をフローチャートの形式で示している。   FIG. 38 shows a processing procedure in the form of a flowchart for the robot apparatus to perform the drop detection based on the sensor detection result described above.

掌の下方で大きな音が発生したとき(ステップS51)、カメラ映像からは把持物体が掌位置に見えなくなったとき(ステップS52)、足底センサにより計測される加重が閾値以下となったとき(ステップS53)、双腕の関節角度から算出される掌の間隔が閾値以下となったとき(ステップS54)、又は掌のタッチ・センサがオフとなったときには(ステップS55)、両掌から物体が離れ、その下方に落下した(すなわち、通常の落下)と推定される(ステップS58)。   When a loud sound is generated below the palm (step S51), when the grasped object is no longer visible at the palm position from the camera image (step S52), when the weight measured by the sole sensor is equal to or less than the threshold value (step S52) In step S53), when the palm interval calculated from the joint angles of the two arms is equal to or smaller than the threshold value (step S54), or when the palm touch sensor is turned off (step S55), an object is moved from both palms. It is presumed that it has left and dropped below (ie, normal fall) (step S58).

また、手首部の6軸センサのY軸方向(若しくは把持面と垂直の方向)の値が閾値以下となったときには(ステップS56)、さらに、Y軸の値が低下する直前にX方向又はZ方向に大きな力が加わったかどうかをチェックする(ステップS57)。ここで、特に大きな力が加わっていないときには、上述と同様に把持物体は下方へ落下した(すなわち、通常の落下)と推定することができる(ステップS58)。これに対し、掌が物体を把持する方向とは異なる向きに大きな力が加わった場合には、把持物体は無理矢理落とされた可能性がある(ステップS59)。   Further, when the value in the Y-axis direction (or the direction perpendicular to the gripping surface) of the 6-axis sensor at the wrist is equal to or less than the threshold value (step S56), the X-direction or Z-axis immediately before the Y-axis value decreases. It is checked whether or not a large force is applied in the direction (step S57). Here, when a particularly large force is not applied, it can be estimated that the gripped object has dropped downward (that is, a normal drop) as described above (step S58). On the other hand, if a large force is applied in a direction different from the direction in which the palm grips the object, the gripped object may have been forcibly dropped (step S59).

このようにしてロボット装置が把持物体の落下を検知すると、続いてその対処処理を起動する。図39には把持物体落下時の対処処理の手順をフローチャートの形式で示している。   When the robot apparatus detects the fall of the grasped object in this way, the countermeasure processing is subsequently started. FIG. 39 shows the procedure of the handling process when the gripping object is dropped in the form of a flowchart.

まず、検知された落下が通常の落下かどうかを判別する(ステップS61)。通常の落下であれば、掌の下方を中心に地面上で落下した物体を探索する(ステップS62)。また、通常の落下でない、すなわち把持物体が無理矢理落とされたときには、落下する直前に検知された、Z軸及びX軸の力に基づいて落下方向、落下位置を推定し、その地点から物体の探索を開始する(ステップS63)。   First, it is determined whether or not the detected fall is a normal fall (step S61). If it is a normal fall, the object which fell on the ground centering on the downward direction of a palm is searched (step S62). In addition, when it is not a normal drop, that is, when the grasped object is forcibly dropped, the drop direction and the drop position are estimated based on the Z-axis and X-axis forces detected immediately before dropping, and the object is searched from that point. Is started (step S63).

そして、落下した物体を発見することができた場合には(ステップS64のYes)、ステップS33〜S35と同様の手順に従って、当該物体に接近して把持する(ステップS65)。   If the fallen object can be found (Yes in step S64), the object is approached and grasped according to the same procedure as in steps S33 to S35 (step S65).

一方、推定された落下位置では物体を発見することができない場合には(ステップS64のNo)、地面全体にわたって物体の探索を行なう(ステップS66)。   On the other hand, when an object cannot be found at the estimated fall position (No in step S64), the object is searched over the entire ground (step S66).

ロボット装置は、図28に示した処理手順に従って、立方体を双腕で把持して、歩行可能な状態をとると、続いて、把持した立方体を所定の設置位置まで運搬するための処理動作に移行する。運搬作業は、ロボット装置の全身協調運動により実現する。   When the robot apparatus grips the cube with two arms and takes a walking state in accordance with the processing procedure shown in FIG. 28, the robot apparatus then shifts to a processing operation for transporting the gripped cube to a predetermined installation position. To do. The carrying work is realized by the whole body cooperative movement of the robot apparatus.

ロボット装置のモーション・データは、例えば、時系列的に並んだ姿勢データという形式で構成される。そして、インバースキネマティクス演算を実行して姿勢データから各関節の回転角、角速度、角加速度などを算出して、アクチュエータに指示値を送るという処理を所定の制御周期毎に繰り返すことによって、モーションが実現する。図40には、ロボット装置が、全身協調動作により把持物体を運搬するための処理手順をフローチャートの形式で示している。この処理手順を制御周期毎に行なうことで、把持対象物体の位置及び姿勢を変更しながら運搬することができる。   The motion data of the robot apparatus is configured in the form of posture data arranged in time series, for example. Then, the inverse kinematics calculation is executed to calculate the rotation angle, angular velocity, angular acceleration, etc. of each joint from the posture data, and the process of sending the instruction value to the actuator is repeated every predetermined control cycle, so that the motion is Realize. FIG. 40 shows a processing procedure for the robot apparatus to carry the grasped object by the whole body cooperative operation in the form of a flowchart. By performing this processing procedure for each control cycle, the object can be transported while changing the position and orientation of the object to be grasped.

まず、双腕のみを用いてインバースキネマティクス演算を行ない、所望する物体の位置及び姿勢を得ることができる解を検索する(ステップS71)。ここでは、図17に示した処理手順に従って、双腕のインバースキネマティクス演算の解空間が最大となるような解を求める。   First, inverse kinematics calculation is performed using only two arms, and a solution that can obtain the position and orientation of a desired object is searched (step S71). Here, according to the processing procedure shown in FIG. 17, a solution that maximizes the solution space of the double-arm inverse kinematics operation is obtained.

そして、所望する物体の位置姿勢が得られたときには(ステップS72)、当該制御周期の処理は成功したものとする。また、所望する物体の位置姿勢が得られないときには、双腕に体幹並びに腰部の自由度を加えて、インバースキネマティクス演算を行ない、所望する物体の位置及び姿勢を得ることができる解を検索する(ステップS73)。   When the desired position / orientation of the object is obtained (step S72), it is assumed that the processing of the control cycle is successful. In addition, when the position and orientation of the desired object cannot be obtained, the inverse kinematics operation is performed by adding degrees of freedom of the trunk and waist to the two arms, and a solution that can obtain the position and orientation of the desired object is searched. (Step S73).

そして、所望する物体の位置姿勢が得られたときには(ステップS74)、当該制御周期の処理は成功したものとする。また、所望する物体の位置姿勢が得られないときには、双腕と体幹に腰(及び脚部)の自由度を加えて、インバースキネマティクス演算を行ない、所望する物体の位置及び姿勢を得ることができる解を検索する(ステップS75)。   When the desired position and orientation of the object are obtained (step S74), it is assumed that the processing of the control cycle is successful. In addition, when the desired object position and orientation cannot be obtained, the inverse kinematics calculation is performed by adding the freedom degree of the hips (and legs) to the two arms and the trunk, and the desired object position and orientation are obtained. A solution that can be obtained is searched (step S75).

そして、所望する物体の位置姿勢が得られたときには(ステップS76)、当該制御周期の処理は成功したものとし、解が得られなかったときには当該制御周期は失敗した旨の値を返す。   Then, when the desired position and orientation of the object are obtained (step S76), the processing of the control cycle is assumed to be successful, and when the solution is not obtained, a value indicating that the control cycle has failed is returned.

図40に示した処理手順によれば、双腕のみを使って次の物体の位置及び姿勢が得られるときには双腕のみで解を求めるといった具合に、使用する自由度数を可能な限り抑えることで、より低コストで所望の物体積み上げモーションを実現するようになっている。   According to the processing procedure shown in FIG. 40, when the position and orientation of the next object can be obtained using only two arms, a solution is obtained using only two arms, and the number of degrees of freedom to be used is suppressed as much as possible. The desired object stacking motion is realized at a lower cost.

そして、ロボット装置は、所望の設置位置まで立方体の運搬を行なうと、目標の位置へ立方体を積み上げて、立方体を解放し、積んだ場所から退避する。図41には、ロボット装置が目的の位置へ物体を積み上げて作業を終えるまでの処理手順をフローチャートの形式で示している。   When the robot apparatus transports the cube to a desired installation position, the robot apparatus stacks the cube to a target position, releases the cube, and retreats from the stacked position. FIG. 41 shows a processing procedure in the form of a flowchart until the robot apparatus stacks objects at a target position and finishes the work.

まず、把持対象物体を積み上げ可能な高さ及び姿勢へ運搬(変更)する(ステップS81)。具体的には、体幹を起こす(若しくは屈める)、腰を上げる(若しくは下げる)、把持対象物体の姿勢を積む姿勢へ変更する(図25、図26を参照のこと)、把持対象物体の位置を積める高さへと変更する、といった動作を行なう。ここで、高さは積む場所へ歩いて近づいたときに支障がない高さである。また、双腕の姿勢は、例えば図17に示すようにインバースキネマティクス解空間の最大化処理を取り入れて、積むときに支障がない姿勢を選択するようにする。   First, the object to be grasped is transported (changed) to a height and posture that can be stacked (step S81). Specifically, the trunk is raised (or bent), the waist is raised (or lowered), and the posture of the object to be grasped is changed to a posture for accumulation (see FIGS. 25 and 26). An operation such as changing to a height at which the position can be stacked is performed. Here, the height is a height that does not hinder the user when he / she approaches the place to be piled up. Further, as the posture of the two arms, for example, as shown in FIG. 17, an inverse kinematics solution space maximization process is adopted, and a posture that does not hinder the loading is selected.

次いで、把持対象物体を所定の場所で積める位置まで歩く(ステップS82)。   Next, the robot walks to a position where a gripping target object can be stacked at a predetermined location (step S82).

次いで、把持対象物体の設置状態及びロボット装置自体の接地状態を考慮し、積む場所の上へ把持対象物体を微調整しながら運搬する(ステップS83)。   Next, in consideration of the installation state of the gripping target object and the grounding state of the robot apparatus itself, the gripping target object is transported to the place where it is stacked while being finely adjusted (step S83).

把持対象物体を積み終わると、双腕による把持状態を解除する(ステップS84)。具体的には、ステップS36で起動した把持状態継続処理を停止し、両掌の指を開くとともに、両掌間を把持対象物体の幅以上には広げる。   When the gripping target objects are stacked, the gripping state by the two arms is released (step S84). Specifically, the gripping state continuation process started in step S36 is stopped, the fingers of both palms are opened, and the gap between both palms is expanded beyond the width of the gripping target object.

そして、把持状態の解除を確認する(ステップS85)。この確認処理には、掌タッチ・センサのオフなど、上述した把持物体の検出処理を適用することができる。すなわち、把持状態継続処理の停止後も、ステップS37で起動した落下検出処理を継続しておくことで、把持対象物体が確実に双腕把持状態から解除されたことを検出することができる。   Then, the release of the gripping state is confirmed (step S85). For this confirmation processing, the above-described gripping object detection processing such as palm touch sensor off can be applied. That is, by continuing the drop detection process activated in step S37 even after the gripping state continuing process is stopped, it can be detected that the gripping target object has been reliably released from the double-armed gripping state.

次いで、物体を積んだ場所から退避する(ステップS86)。このとき、積んである物体に影響がないように、双腕を対比させるとともに、積んである物体へ影響が内容に歩いてその場所から退避する。   Next, the object is retreated from the place where the object is loaded (step S86). At this time, the two arms are compared so that there is no influence on the stacked object, and the influence on the stacked object is walked to the contents and evacuated from the place.

そして、ロボット装置を所定の姿勢に戻して(ステップS87)、本処理ルーチン全体を終了する。   Then, the robot apparatus is returned to a predetermined posture (step S87), and the entire processing routine is ended.

以上、特定の実施形態を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。   The present invention has been described in detail above with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiment without departing from the gist of the present invention.

本発明の要旨は、必ずしも「ロボット」と称される製品には限定されない。すなわち、電気的若しくは磁気的な作用を用いて人間の双腕を用いた動作に似せた運動を行なう機械装置あるいはその他一般的な移動体装置であるならば、例えば玩具などのような他の産業分野に属する製品であっても、同様に本発明を適用することができる。   The gist of the present invention is not necessarily limited to a product called a “robot”. That is, if it is a mechanical device or other general mobile device that performs an action similar to that of a human using two arms using electric or magnetic action, other industries such as toys, etc. The present invention can be similarly applied to products belonging to the field.

要するに、例示という形態で本発明を開示してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本発明の要旨を判断するためには、特許請求の範囲を参酌すべきである。   In short, the present invention has been disclosed in the form of exemplification, and the description of the present specification should not be interpreted in a limited manner. In order to determine the gist of the present invention, the claims should be taken into consideration.

図1は、本発明の一実施形態に係るロボット装置の外観構成を示した図である。FIG. 1 is a diagram showing an external configuration of a robot apparatus according to an embodiment of the present invention. 図2は、図1に示したロボット装置における、各部の関節駆動用のアクチュエータ間を接続する結線トポロジの構成例を示した図である。FIG. 2 is a diagram illustrating a configuration example of a connection topology for connecting the joint driving actuators of each unit in the robot apparatus illustrated in FIG. 1. 図3は、図1に示したロボット装置の自由度構成を示した図である。FIG. 3 is a diagram showing a configuration of the degree of freedom of the robot apparatus shown in FIG. 図4は、ロボット装置の可動脚による歩行や双腕を用いた物体の把持や運搬などの全身協調動作を実現するための制御システム構成を模式的に示した図である。FIG. 4 is a diagram schematically showing a control system configuration for realizing a whole body cooperative operation such as walking with a movable leg of the robot apparatus or grasping or carrying an object using two arms. 図5は、制御ユニット20の構成をさらに詳細に示した図である。FIG. 5 is a diagram showing the configuration of the control unit 20 in more detail. 図6は、図1に示したロボット装置の右腕部の自由度構成を具体的に示した図である。FIG. 6 is a diagram specifically showing the configuration of the degree of freedom of the right arm portion of the robot apparatus shown in FIG. 図7は、図1に示したロボット装置の右腕部の自由度構成の変形例を示した図である。FIG. 7 is a view showing a modification of the configuration of the degree of freedom of the right arm portion of the robot apparatus shown in FIG. 図8Aは、図1に示したロボット装置の双腕を、掌ピッチ軸以外の6軸を固定した状態で、手先が手首に対して水平となるように掌ピッチ軸を駆動させた様子を示した図である。FIG. 8A shows a state where the palm pitch axis is driven so that the tip of the robot apparatus shown in FIG. 1 is horizontal with respect to the wrist with six axes other than the palm pitch axis fixed. It is a figure. 図8Bは、図1に示したロボット装置の双腕を、掌ピッチ軸以外の6軸を固定した状態で、手先が手首に対して水平となるように掌ピッチ軸を駆動させた様子を示した図である。FIG. 8B shows a state in which the palm pitch axis is driven so that the hand is level with respect to the wrist with the two arms of the robot apparatus shown in FIG. 1 fixed with six axes other than the palm pitch axis. It is a figure. 図9Aは、図1に示したロボット装置の双腕を、掌ピッチ軸以外の6軸を固定した状態で、手先が手首に対して下向きとなるように掌ピッチ軸を駆動させた様子を示した図である。FIG. 9A shows a state in which the palm pitch axis is driven so that the tip of the robot apparatus shown in FIG. 1 is directed downward with respect to the wrist while the six arms other than the palm pitch axis are fixed. It is a figure. 図9Bは、図1に示したロボット装置の双腕を、掌ピッチ軸以外の6軸を固定した状態で、手先が手首に対して下向きとなるように掌ピッチ軸を駆動させた様子を示した図である。FIG. 9B shows a state in which the palm pitch axis is driven so that the hand is directed downward with respect to the wrist with the six arms other than the palm pitch axis fixed with the two arms of the robot apparatus shown in FIG. 1. It is a figure. 図10Aは、図1に示したロボット装置の双腕を、掌ピッチ軸以外の6軸を固定した状態で、手先が手首に対して上向きとなるように掌ピッチ軸を駆動させた様子を示した図である。FIG. 10A shows a state in which the palm pitch axis is driven so that the tip of the robot apparatus shown in FIG. 1 is directed upward with respect to the wrist while the six arms other than the palm pitch axis are fixed. It is a figure. 図10Bは、図1に示したロボット装置の双腕を、掌ピッチ軸以外の6軸を固定した状態で、手先が手首に対して上向きとなるように掌ピッチ軸を駆動させた様子を示した図である。FIG. 10B shows a state in which the palm pitch axis is driven so that the tip of the robot apparatus shown in FIG. 1 is directed upward with respect to the wrist in a state where six axes other than the palm pitch axis are fixed. It is a figure. 図11は、図1に示したロボット装置の双腕を、掌ピッチ軸以外の6軸を固定した状態で掌ピッチ軸を駆動させることにより、把持物体の姿勢を変更する様子を示した図である。FIG. 11 is a diagram illustrating a state in which the posture of the grasped object is changed by driving the palm pitch axis while the six arms other than the palm pitch axis are fixed with the two arms of the robot apparatus illustrated in FIG. 1. is there. 図12は、図1に示したロボット装置の双腕を、掌ピッチ軸以外の6軸を固定した状態で掌ピッチ軸を駆動させることにより、把持物体の姿勢を変更する様子を示した図である。FIG. 12 is a diagram showing a state in which the posture of the grasped object is changed by driving the palm pitch axis with the two arms of the robot apparatus shown in FIG. 1 fixed with six axes other than the palm pitch axis. is there. 図13は、図1に示したロボット装置の双腕を、掌ピッチ軸以外の6軸を固定した状態で掌ピッチ軸を駆動させることにより、把持物体の姿勢を変更する様子を示した図である。FIG. 13 is a diagram showing a state in which the posture of the grasped object is changed by driving the palm pitch axis with the two arms of the robot apparatus shown in FIG. 1 fixed with six axes other than the palm pitch axis. is there. 図14は、左右の掌ピッチ軸が一致する回転軸上若しくはその近傍に物体の重心が来るように物体を把持したときの、把持物体の姿勢を変更するための処理手順を示したフローチャートである。FIG. 14 is a flowchart showing a processing procedure for changing the posture of the grasped object when the object is grasped so that the center of gravity of the object comes on or near the rotation axis where the left and right palm pitch axes coincide. . 図15Aは、図1に示したロボット装置の双腕を、エンドエフェクタとしての手先の位置・姿勢を固定させたまま肩部から手首部までの6軸を変更させる様子を示した図である。FIG. 15A is a diagram showing a state in which the six arms from the shoulder to the wrist are changed with the two arms of the robot apparatus shown in FIG. 1 while fixing the position and posture of the hand as an end effector. 図15Bは、図1に示したロボット装置の双腕を、エンドエフェクタとしての手先の位置・姿勢を固定させたまま肩部から手首部までの6軸を変更させる様子を示した図である。FIG. 15B is a diagram showing a state in which the six arms from the shoulder to the wrist are changed with the two arms of the robot apparatus shown in FIG. 1 while fixing the position and posture of the hand as an end effector. 図15Cは、図1に示したロボット装置の双腕を、エンドエフェクタとしての手先の位置・姿勢を固定させたまま肩部から手首部までの6軸を変更させる様子を示した図である。FIG. 15C is a diagram showing a state in which the six arms from the shoulder to the wrist are changed with the two arms of the robot apparatus shown in FIG. 1 while fixing the position / posture of the hand as an end effector. 図15Dは、図1に示したロボット装置の双腕を、エンドエフェクタとしての手先の位置・姿勢を固定させたまま肩部から手首部までの6軸を変更させる様子を示した図である。FIG. 15D is a diagram illustrating a state in which the six arms from the shoulder to the wrist are changed while the position and posture of the hand as an end effector are fixed in the two arms of the robot apparatus illustrated in FIG. 1. 図16Aは、図1に示したロボット装置の双腕を、エンドエフェクタとしての手先の位置・姿勢を固定させたまま肩部から手首部までの6軸を変更させる様子を示した図である。FIG. 16A is a diagram showing a state in which the six arms from the shoulder to the wrist are changed with the two arms of the robot apparatus shown in FIG. 1 while fixing the position and posture of the hand as an end effector. 図16Bは、図1に示したロボット装置の双腕を、エンドエフェクタとしての手先の位置・姿勢を固定させたまま肩部から手首部までの6軸を変更させる様子を示した図である。FIG. 16B is a diagram showing a state in which the six arms from the shoulder to the wrist are changed with the two arms of the robot apparatus shown in FIG. 1 while the position and posture of the hand as an end effector are fixed. 図16Cは、図1に示したロボット装置の双腕を、エンドエフェクタとしての手先の位置・姿勢を固定させたまま肩部から手首部までの6軸を変更させる様子を示した図である。FIG. 16C is a diagram showing a state in which the six arms from the shoulder to the wrist are changed with the two arms of the robot apparatus shown in FIG. 1 while the position and posture of the hand as an end effector are fixed. 図16Dは、図1に示したロボット装置の双腕を、エンドエフェクタとしての手先の位置・姿勢を固定させたまま肩部から手首部までの6軸を変更させる様子を示した図である。FIG. 16D is a diagram showing a state in which the six arms from the shoulder to the wrist are changed with the two arms of the robot apparatus shown in FIG. 1 while fixing the position / posture of the hand as an end effector. 図17は、ロボット装置がインバースキネマティクス演算の解空間を最大化しながら双腕を用いて把持物体を運搬するための処理手順を示したフローチャートである。FIG. 17 is a flowchart showing a processing procedure for the robot apparatus to carry the grasped object using the two arms while maximizing the solution space of the inverse kinematics operation. 図18は、ロボット装置が複数の立方体を積み上げる手順を説明するための図である。FIG. 18 is a diagram for explaining a procedure in which the robot apparatus stacks a plurality of cubes. 図19は、双腕がエンドエフェクタに近い部位にピッチ軸回りの関節自由度を備えているロボット装置が、床面におかれている立方体に対し、さまざまな方法で双腕を用いて把持する様子を示した図である。FIG. 19 shows that a robot apparatus having joint degrees of freedom around the pitch axis at a position where the two arms are close to the end effector grips a cube placed on the floor surface using the two arms in various ways. It is the figure which showed a mode. 図20は、置く順番により、積み上げるときの立方体の高さが相違する様子を示した図である。FIG. 20 is a diagram illustrating a state in which the heights of cubes when stacked are different depending on the order of placing. 図21は、指定された高さで置き易くなるような手先の位置を選んで、床面にあるそれぞれの立方体を把持する様子を示した図である。FIG. 21 is a diagram illustrating a state in which a hand position that makes it easy to place at a specified height is selected and each cube on the floor surface is gripped. 図22は、ある高さ若しくは奥行きの方向へ立方体を移動する場合は、把持する前すなわち床面上の立方体の底面をそのまま移動先での設置面とすることを説明するための図である。FIG. 22 is a diagram for explaining that when a cube is moved in a certain height or depth direction, the bottom surface of the cube on the floor surface is used as it is as the installation surface at the movement destination before gripping. 図23は、双腕の動作で形成できる姿勢の限界により、床面上の立方体の底面をそのまま移動先での設置面とすることができなくなる様子を示した図である。FIG. 23 is a diagram showing a state in which the bottom surface of the cube on the floor surface cannot be used as the installation surface at the moving destination as it is due to the limit of the posture that can be formed by the double-arm operation. 図24は、立方体のすべての側面T1〜T6を設置面にできる様子を示した図である。FIG. 24 is a diagram illustrating a state in which all side surfaces T1 to T6 of the cube can be set as installation surfaces. 図25は、設置面の変更によりロボット装置が立方体の移動が可能となる様子を示した図である。FIG. 25 is a diagram illustrating a state in which the robot apparatus can move the cube by changing the installation surface. 図26は、把持対象物体の許容姿勢を考慮した移動可能性の判断を行なうための処理手順を示したフローチャートである。FIG. 26 is a flowchart illustrating a processing procedure for determining the possibility of movement in consideration of the allowable posture of the gripping target object. 図27は、ロボット装置が物体の双腕把持、及び移動・運搬を行なう動作を行なう際に把握している情報を示した図である。FIG. 27 is a diagram illustrating information that is grasped when the robot apparatus performs an operation of gripping, moving, and transporting an object with two arms. 図28は、ロボット装置が把持対象物体を把持していない状態から把持して歩行可能な状態になるまでの処理手順を示したフローチャートである。FIG. 28 is a flowchart showing a processing procedure from when the robot apparatus is not gripping the gripping target object to when the robot apparatus is gripped and can be walked. 図29は、ロボット装置の頭部に搭載されたステレオ・カメラの映像を画像処理することによって、把持対象物体を認識する処理手順を示したフローチャートである。FIG. 29 is a flowchart illustrating a processing procedure for recognizing a gripping target object by performing image processing on a video image of a stereo camera mounted on the head of the robot apparatus. 図30は、把持対象物体の撮像画像を示した図である。FIG. 30 is a diagram illustrating a captured image of a gripping target object. 図31は、図30に示した把持対象物体の撮像画像から得られたラベリング画像を示した図である。FIG. 31 is a diagram illustrating a labeling image obtained from the captured image of the gripping target object illustrated in FIG. 30. 図32は、図31に示したラベリング画像から抽出されたエッジ画像を示した図である。FIG. 32 is a diagram showing an edge image extracted from the labeling image shown in FIG. 図33は、図32に示したエッジ画像から得られる直線を示した図である。FIG. 33 is a diagram showing a straight line obtained from the edge image shown in FIG. 図34は、直線群から検出される立方体の頂点を示した図である。FIG. 34 is a diagram showing the vertices of a cube detected from the straight line group. 図35は、ロボット装置が立方体に近づく様子を示した図である。FIG. 35 is a diagram illustrating a state in which the robot apparatus approaches a cube. 図36は、掌に物体(外界)との接触が判るスイッチを設けた様子を示した図である。FIG. 36 is a diagram illustrating a state in which a switch is provided on the palm so that contact with an object (the outside world) can be recognized. 図37は、ロボット装置が音のなった方向をカメラ映像で観察する様子を示した図である。FIG. 37 is a diagram illustrating a state in which the robot apparatus observes the direction in which the sound is generated with a camera image. 図38は、ロボット装置がセンサ検出結果に基づいて落下検出を行なうための処理手順を示したフローチャートである。FIG. 38 is a flowchart showing a processing procedure for the robot apparatus to perform drop detection based on the sensor detection result. 図39は、把持物体落下時の対処処理の手順を示したフローチャートである。FIG. 39 is a flowchart showing the procedure of the coping process when the gripping object is dropped. 図40は、ロボット装置が全身協調動作により把持物体を運搬するための処理手順を示したフローチャートである。FIG. 40 is a flowchart showing a processing procedure for the robot apparatus to carry the gripped object by the whole body cooperative operation. 図41は、ロボット装置が目的の位置へ物体を積み上げて作業を終えるまでの処理手順を示したフローチャートである。FIG. 41 is a flowchart showing a processing procedure until the robot apparatus stacks objects at a target position and finishes the work. 図42は、冗長軸を除く腕部の6軸のIKの解が冗長軸の可動範囲内であれば、7軸でのエンドエフェクタの姿勢が維持される様子を示した図である。FIG. 42 is a diagram illustrating a state in which the posture of the end effector on the seven axes is maintained if the solution of the six axes IK of the arms excluding the redundant axes is within the movable range of the redundant axes.

符号の説明Explanation of symbols

1…ロボット装置
15…CCDカメラ
16…マイクロフォン
17…スピーカ
18…タッチ・センサ
19…LEDインジケータ
20…制御部
21…CPU
22…RAM
23…ROM
24…不揮発メモリ
25…インターフェース
26…無線通信インターフェース
27…ネットワーク・インターフェース・カード
28…バス
29…キーボード
40…入出力部
50…駆動部
51…モータ
52…エンコーダ
53…ドライバ
DESCRIPTION OF SYMBOLS 1 ... Robot apparatus 15 ... CCD camera 16 ... Microphone 17 ... Speaker 18 ... Touch sensor 19 ... LED indicator 20 ... Control part 21 ... CPU
22 ... RAM
23 ... ROM
24 ... Nonvolatile memory 25 ... Interface 26 ... Wireless communication interface 27 ... Network interface card 28 ... Bus 29 ... Keyboard 40 ... Input / output unit 50 ... Drive unit 51 ... Motor 52 ... Encoder 53 ... Driver

Claims (11)

少なくとも胴体と、
肩部のロール、ピッチ、ヨーの各軸回りの関節自由度と、肘部のピッチ軸回りの関節自由度と、手首のロール及びヨーの各軸回りの関節自由度と、手先に近い部位に設けられたピッチ軸回りの自由度を持つ最先端ピッチ軸関節をそれぞれ備え、前記最先端ピッチ軸関節は、手部の掌の内側、又は手首部のいずれかに配設されている、前記胴体に連結された左右の双腕と、
把持対象となる物体の位置姿勢を認識する物体認識手段と、
前記双腕を含む各部の関節駆動を制御する制御部と、
を備え、
前記制御部は、前記双腕それぞれの前記最先端ピッチ軸関節のピッチ軸がほぼ一直線上にあり、且つ該直線上に把持対象物体の重心が来るようにして、前記双腕を把持対象物体の幅を徐々に狭めて左右の手部で挟み込むようにして把持する、
ことを特徴とするロボット装置。
At least with the torso,
The degree of joint freedom around the shoulder roll, pitch, and yaw axes, the degree of joint freedom around the elbow pitch axis, the degree of joint freedom around the wrist roll and yaw axes, The torso having a leading-edge pitch axis joint having a degree of freedom around the provided pitch axis, the leading-edge pitch axis joint being disposed either on the inner side of the palm of the hand or on the wrist The left and right arms connected to
Object recognition means for recognizing the position and orientation of the object to be grasped;
A control unit for controlling joint driving of each unit including the two arms;
With
The control unit is configured so that the pitch arms of the most advanced pitch axis joints of each of the two arms are substantially in a straight line, and the center of gravity of the object to be grasped is on the straight line, so that the two arms are positioned on the object to be grasped. Gradually narrow the width and hold it between your left and right hands.
A robot apparatus characterized by that.
前記制御部は、双腕で物体を把持している期間中における物体の位置姿勢変更要求に応じて、腕部のその他の関節を固定させたまま、前記最先端ピッチ軸のみを駆動して、把持物体の姿勢を変更する、
ことを特徴とする請求項1に記載のロボット装置。
The control unit drives only the most advanced pitch axis while fixing other joints of the arm according to the position and orientation change request of the object while holding the object with two arms, Change the posture of the gripping object,
The robot apparatus according to claim 1.
前記制御部は、要求されている把持物体の位置姿勢変更を行なうと、前記最先端ピッチ軸の可動域を外れ又は自己干渉を生じるときには、前記最先端ピッチ軸を現在位置に保ちながら、要求されている把持物体の位置姿勢を得るための腕部のその他の関節についてのインバースキネマティクス解を求める、
ことを特徴とする請求項に記載のロボット装置。
When the required position / orientation change of the gripping object is performed, the control unit is requested while keeping the most advanced pitch axis at the current position when the movable range of the most advanced pitch axis is deviated or self-interference occurs. Find inverse kinematics solutions for other joints of the arm to obtain the position and orientation of the gripping object
The robot apparatus according to claim 2 .
前記制御部は、双腕で物体を把持している期間中における物体の移動要求に応じて、前記最先端ピッチ軸を冗長軸として、腕部の他の関節自由度を用いて把持物体の姿勢を維持しながら移動する、
ことを特徴とする請求項に記載のロボット装置。
In response to an object movement request while holding an object with two arms, the control unit uses the most advanced pitch axis as a redundant axis and uses the other joint degrees of freedom of the arm to hold the posture of the object Keep moving,
The robot apparatus according to claim 1 .
前記制御部は、複数の側面を設置面とすることができる物体を移動する際に、該物体の設置場所の高さ若しくは奥行きの方向に応じた設置面となるように、該設置場所において前記最先端ピッチ軸の回転駆動により該把持物体の姿勢を変更する、
ことを特徴とする請求項に記載のロボット装置。
The control unit, when moving an object having a plurality of side surfaces as installation surfaces, allows the installation surface to have an installation surface corresponding to the height or depth direction of the installation site of the object. Changing the posture of the grasped object by rotational driving of the most advanced pitch axis;
The robot apparatus according to claim 1 .
前記双腕を用いて把持している物体の落下を検出する落下検出手段をさらに備える、
ことを特徴とする請求項に記載のロボット装置。
It further comprises a fall detection means for detecting the fall of the object gripped using the two arms.
The robot apparatus according to claim 1 .
前記双腕の手首部に6軸力センサが設けられており、
記落下検出手段は、物体を把持した直後の当該センサの出力値を記憶しておき、該センサの出力値が把持直後よりも下回ることにより把持物体の落下を検出する、
ことを特徴とする請求項に記載のロボット装置。
A six-axis force sensor is provided on the wrist of the double arm;
Before Symbol drop detecting means may store the output value of the sensor immediately after the object is gripped, the output value of the sensor detects a drop of the gripping object by falls below immediately gripped,
The robot apparatus according to claim 6 .
前記落下検出手段は、前記物体認識手段により認識される物体位置が前記双腕の掌から大きくずれたとき、又は観察できなくなったときに、把持物体の落下を検出する、
ことを特徴とする請求項に記載のロボット装置。
The drop detection means detects the fall of the gripped object when the object position recognized by the object recognition means is greatly deviated from the palms of the two arms, or when it can no longer be observed.
The robot apparatus according to claim 6 .
前記落下検出手段は、手首部の6軸センサのY軸方向の値が閾値以下となったときには、さらにY軸の値が低下する直前にX方向又はZ方向に大きな力が加わったかどうかをチェックし、特に大きな力が加わっていないときには把持物体が下方へ落下したと推定し、掌が物体を把持する方向とは異なる向きに大きな力が加わった場合には把持物体が無理矢理落とされた可能性があると判断する、
ことを特徴とする請求項に記載のロボット装置。
The drop detection means checks whether a large force is applied in the X direction or the Z direction immediately before the Y axis value decreases when the value in the Y axis direction of the 6-axis sensor at the wrist is below the threshold value. However, when a large force is not applied, it is estimated that the grasped object has fallen downward. Judge that there is,
The robot apparatus according to claim 7 .
前記制御部は、把持物体を所望の設置場所に設置する際に、前記落下検出手段を用いて双腕把持状態の解除を確認する、
ことを特徴とする請求項に記載のロボット装置。
The control unit confirms the release of the double-arm gripping state using the drop detection means when installing the gripping object at a desired installation location.
The robot apparatus according to claim 6 .
体幹、及び可動脚の自由度をさらに備え、
前記制御部は、把持対象物体の位置及び姿勢を変更しながら運搬する際に、
まず、前記双腕のみを用いてインバースキネマティクス演算を行なって所望する物体の位置及び姿勢を得ることができる解を検索し、
前記双腕のみによる解が見つからなかったときに、続いて、前記双腕に前記体幹の自由度を加えてインバースキネマティクス演算を行なって所望する物体の位置及び姿勢を得ることができる解を検索し、
解が見つからなかったときに、さらに脚部に自由度を加えてインバースキネマティクス演算を行なって所望する物体の位置及び姿勢を得ることができる解を検索する、
ことを特徴とする請求項に記載のロボット装置。
It further comprises the flexibility of the trunk and movable legs,
When carrying the controller while changing the position and orientation of the object to be gripped,
First, the inverse kinematics calculation is performed using only the two arms to search for a solution that can obtain the position and posture of the desired object,
When a solution using only the two arms is not found, a solution that can obtain the position and posture of a desired object by performing inverse kinematics calculation by adding the degree of freedom of the trunk to the two arms. Search and
When a solution is not found, search for a solution that can obtain the position and orientation of a desired object by performing inverse kinematics calculation with a degree of freedom added to the legs.
The robot apparatus according to claim 1 .
JP2005352352A 2005-12-06 2005-12-06 Robot equipment Expired - Fee Related JP4774964B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005352352A JP4774964B2 (en) 2005-12-06 2005-12-06 Robot equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005352352A JP4774964B2 (en) 2005-12-06 2005-12-06 Robot equipment

Publications (3)

Publication Number Publication Date
JP2007222951A JP2007222951A (en) 2007-09-06
JP2007222951A5 JP2007222951A5 (en) 2008-12-25
JP4774964B2 true JP4774964B2 (en) 2011-09-21

Family

ID=38545231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005352352A Expired - Fee Related JP4774964B2 (en) 2005-12-06 2005-12-06 Robot equipment

Country Status (1)

Country Link
JP (1) JP4774964B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10399238B2 (en) 2015-02-17 2019-09-03 Honda Motor Co., Ltd. Robot having a base body, a shoulder joint mechanism assembly, and a movable link coupled to the base body through the shoulder joint mechanism assembly

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2930905B1 (en) * 2008-05-09 2010-10-01 Bia ANKLE FOR HUMANOIDE ROBOT
FR2931718B1 (en) * 2008-05-29 2011-02-11 Bia HIP FOR HUMANOID ROBOT
CN101372096B (en) * 2008-08-05 2010-12-08 东南大学 Multiple-joint service robot arm capable of implementing translational decoupling at Z direction
JP6541397B2 (en) * 2015-04-06 2019-07-10 キヤノン株式会社 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP6363294B1 (en) 2017-04-04 2018-07-25 株式会社Mujin Information processing apparatus, picking system, distribution system, program, and information processing method
DE112017007397B4 (en) 2017-04-04 2021-09-30 Mujin, Inc. Control device, gripping system, distribution system, program, control method and manufacturing method
JP6258557B1 (en) 2017-04-04 2018-01-10 株式会社Mujin Control device, picking system, distribution system, program, control method, and production method
CN110494258B (en) 2017-04-04 2022-08-09 牧今科技 Control device, pickup system, logistics system, program, control method, and production method
CN110520259B (en) * 2017-04-04 2021-09-21 牧今科技 Control device, pickup system, logistics system, storage medium, and control method
WO2019039006A1 (en) 2017-08-23 2019-02-28 ソニー株式会社 Robot
CN108670415A (en) * 2018-06-11 2018-10-19 沈阳尚贤微创医疗器械股份有限公司 Endoscopic surgery tow-armed robot and robot system
JP7141288B2 (en) * 2018-09-25 2022-09-22 川崎重工業株式会社 robot system
JP7223655B2 (en) * 2019-07-05 2023-02-16 川崎重工業株式会社 Conveyor robot
CN114474066B (en) * 2022-03-04 2024-02-20 全爱科技(上海)有限公司 Intelligent humanoid robot control system and method
JP2023169034A (en) * 2022-05-16 2023-11-29 株式会社デンソー Transportation processing system, transportation processing device, autonomous transport vehicle, transportation processing method, transportation processing program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4001105B2 (en) * 2003-12-11 2007-10-31 トヨタ自動車株式会社 Grasping method of arbitrarily shaped object by robot
JP4461797B2 (en) * 2003-12-19 2010-05-12 株式会社安川電機 Mobile robot
JP2007007797A (en) * 2005-07-01 2007-01-18 Toyota Motor Corp Walking robot

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10399238B2 (en) 2015-02-17 2019-09-03 Honda Motor Co., Ltd. Robot having a base body, a shoulder joint mechanism assembly, and a movable link coupled to the base body through the shoulder joint mechanism assembly

Also Published As

Publication number Publication date
JP2007222951A (en) 2007-09-06

Similar Documents

Publication Publication Date Title
JP4774964B2 (en) Robot equipment
Stasse et al. TALOS: A new humanoid research platform targeted for industrial applications
Asfour et al. Armar-6: A high-performance humanoid for human-robot collaboration in real-world scenarios
KR101743926B1 (en) Robot and control method thereof
Herzog et al. Template-based learning of grasp selection
CN114728417B (en) Method and apparatus for autonomous object learning by remote operator triggered robots
Brooks et al. Sensing and manipulating built-for-human environments
US9014854B2 (en) Robot and control method thereof
Katyal et al. Approaches to robotic teleoperation in a disaster scenario: From supervised autonomy to direct control
US20170348858A1 (en) Multiaxial motion control device and method, in particular control device and method for a robot arm
Ruppel et al. Cost functions to specify full-body motion and multi-goal manipulation tasks
Xu et al. Development of a hybrid motion capture method using MYO armband with application to teleoperation
Patidar et al. Survey of robotic arm and parameters
JP7230128B2 (en) LEARNING METHOD FOR ROBOT WORK AND ROBOT SYSTEM
Hermann et al. Hardware and software architecture of the bimanual mobile manipulation robot HoLLiE and its actuated upper body
Zhou et al. Topp-mpc-based dual-arm dynamic collaborative manipulation for multi-object nonprehensile transportation
WO2019239562A1 (en) Machine learning device and robot system provided with same
Musić et al. Robot team teleoperation for cooperative manipulation using wearable haptics
JP4715296B2 (en) Robot hand holding and gripping control method.
Hoffman et al. Upper limb compliant strategy exploiting external physical constraints for humanoid fall avoidance
CN211806133U (en) Two fingers grab demonstrator and teaching system of robot
WO2022014133A1 (en) Mobile manipulator, method for controlling same, program
CN105965508B (en) A kind of robot astronaut stabilization climbing control method
Mellmann et al. Dynamic motion control: Adaptive bimanual grasping for a humanoid robot
Shauri et al. Sensor integration and fusion for autonomous screwing task by dual-manipulator hand robot

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081110

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110613

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees