JP2017052073A - Robot system, robot and robot control device - Google Patents
Robot system, robot and robot control device Download PDFInfo
- Publication number
- JP2017052073A JP2017052073A JP2015179849A JP2015179849A JP2017052073A JP 2017052073 A JP2017052073 A JP 2017052073A JP 2015179849 A JP2015179849 A JP 2015179849A JP 2015179849 A JP2015179849 A JP 2015179849A JP 2017052073 A JP2017052073 A JP 2017052073A
- Authority
- JP
- Japan
- Prior art keywords
- hand
- robot
- evaluation value
- state
- gripping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
この発明は、ロボットシステム、ロボット、及びロボット制御装置に関する。 The present invention relates to a robot system, a robot, and a robot control apparatus.
対象物が撮像された撮像画像に基づいてロボットに対象物を把持させる技術の研究や開発が行われている。 Research and development have been conducted on techniques for causing a robot to hold an object based on a captured image obtained by imaging the object.
これに関し、ロボットが対象物を把持するパターンである把持パターンのうち、ロボットによる対象物の把持がどれだけしっかりと対象物体を把持できるかを示すスカラ値である把持品質評点が高い把持パターンを選択する方法が知られている(特許文献1参照)。 In this regard, a grip pattern with a high gripping quality score, which is a scalar value indicating how firmly the target can be gripped by the robot, is selected from grip patterns that are patterns that the robot grips the target. There is a known method (see Patent Document 1).
しかしながら、上記の特許文献1には、ロボットのハンドの状態に適した把持パターンを選択する具体的な方法が示されておらず、ロボットのハンドの状態に適した把持パターンによって対象物を把持することが困難な場合があった。 However, the above-mentioned Patent Document 1 does not show a specific method for selecting a grip pattern suitable for the state of the robot hand, and grips an object using the grip pattern suitable for the state of the robot hand. It was sometimes difficult.
上記課題の少なくとも一つを解決するために本発明の一態様は、ハンドを備えるロボットと、対象物の位置及び姿勢と、当該位置及び姿勢の誤差情報と、前記ハンドの状態とに基づき前記ハンドの状態を決定するロボット制御装置と、を備えるロボットシステムである。
この構成により、ロボットシステムは、対象物の位置及び姿勢と、当該位置及び姿勢の誤差情報と、ハンドの状態とに基づきハンドの状態を決定する。これにより、ロボットシステムは、ハンドに対象物を把持させる際に適したハンドの状態によって対象物をハンドに把持させることができる。
In order to solve at least one of the above problems, an embodiment of the present invention provides a robot including a hand, the position and orientation of an object, error information on the position and orientation, and the state of the hand. A robot control device that determines the state of the robot.
With this configuration, the robot system determines the hand state based on the position and posture of the object, error information on the position and posture, and the hand state. Accordingly, the robot system can cause the hand to hold the object according to the state of the hand suitable for causing the hand to hold the object.
また、本発明の他の態様は、ロボットシステムにおいて、ロボット制御装置は、前記対象物の位置及び姿勢を画像から検出する、構成が用いられてもよい。
この構成により、ロボットシステムは、対象物の位置及び姿勢を画像から検出する。これにより、ロボットシステムは、画像から検出した対象物の位置及び姿勢に基づいて決定されたハンドの状態によって対象物をハンドに把持させることができる。
In another aspect of the present invention, in the robot system, a configuration may be used in which the robot control device detects the position and orientation of the object from the image.
With this configuration, the robot system detects the position and orientation of the object from the image. As a result, the robot system can cause the hand to hold the object according to the hand state determined based on the position and orientation of the object detected from the image.
また、本発明の他の態様は、ロボットシステムにおいて、前記ロボット制御装置は、前記対象物の位置及び姿勢と、前記誤差情報と、前記ハンドの状態とに基づく前記ハンドの状態を評価する評価値に応じて前記ハンドの状態を決定する、構成が用いられてもよい。
この構成により、ロボットシステムは、対象物の位置及び姿勢と、誤差情報と、ハンドの状態とに基づくハンドの状態を評価する評価値に応じてハンドの状態を決定する。これにより、ロボットシステム1は、ハンドの状態を評価する評価値に応じて決定されたハンドの状態によって対象物をハンドに把持させることができる。
According to another aspect of the present invention, in the robot system, the robot control device evaluates the hand state based on the position and orientation of the object, the error information, and the hand state. A configuration may be used in which the state of the hand is determined according to.
With this configuration, the robot system determines the hand state according to the evaluation value for evaluating the hand state based on the position and orientation of the object, error information, and the hand state. Thereby, the robot system 1 can make a hand hold | grip a target object with the state of the hand determined according to the evaluation value which evaluates the state of a hand.
また、本発明の他の態様は、ロボットシステムにおいて、前記評価値は、前記ハンドにより前記対象物が把持された際に、前記ハンドと前記対象物との相対的な位置及び姿勢の変化のし難さを示す値である、構成が用いられてもよい。
この構成により、ロボットシステムは、ハンドにより対象物が把持された際に、ハンドと対象物との相対的な位置及び姿勢の変化のし難さを示す値である評価値に応じてハンドの状態を決定する。これにより、ロボットシステムは、ハンドにより対象物が把持された際に、ハンドと対象物との相対的な位置及び姿勢の変化のし難さを示す値である評価値に応じて決定されたハンドの状態によって対象物を把持することができる。
According to another aspect of the present invention, in the robot system, the evaluation value is a change in a relative position and posture of the hand and the object when the object is gripped by the hand. A configuration that is a value indicating difficulty may be used.
With this configuration, when the object is gripped by the hand, the robot system determines the state of the hand according to the evaluation value, which is a value indicating the difficulty of changing the relative position and posture between the hand and the object. To decide. Thereby, when the object is gripped by the hand, the robot system determines the hand determined according to the evaluation value, which is a value indicating the difficulty of changing the relative position and posture between the hand and the object. The object can be gripped depending on the state.
また、本発明の他の態様は、ロボットシステムにおいて、前記評価値には、前記ハンドにより前記対象物が把持された際に、前記ハンドに対する前記対象物の並進のし難さを示す値が含まれる、構成が用いられてもよい。
この構成により、ロボットシステムは、ハンドにより対象物が把持された際に、ハンドに対する対象物の並進のし難さを示す値を含む評価値に基づいてハンドの状態を決定する。これにより、ロボットシステムは、ハンドにより対象物が把持された際に、ハンドに対する対象物の並進のし難さを示す値を含む評価値に応じて決定されたハンドの状態によって対象物を把持することができる。
In another aspect of the present invention, in the robot system, the evaluation value includes a value indicating difficulty in translation of the object relative to the hand when the object is gripped by the hand. A configuration may be used.
With this configuration, when the object is gripped by the hand, the robot system determines the state of the hand based on an evaluation value including a value indicating the difficulty of translation of the object with respect to the hand. Thus, when the object is grasped by the hand, the robot system grasps the object according to the state of the hand determined according to the evaluation value including the value indicating the difficulty of translation of the object with respect to the hand. be able to.
また、本発明の他の態様は、ロボットシステムにおいて、前記評価値には、前記ハンドにより前記対象物が把持された際に、前記ハンドに対する前記対象物の回転のし難さを示す値が含まれる、構成が用いられてもよい。
この構成により、ロボットシステムは、ハンドにより対象物が把持された際に、ハンドに対する対象物の回転のし難さを示す値を含む評価値に基づいてハンドの状態を決定する。これにより、ロボットシステムは、ハンドにより対象物が把持された際に、ハンドに対する対象物の回転のし難さを示す値を含む評価値に基づいて決定されたハンドの状態によって対象物を把持することができる。
In another aspect of the present invention, in the robot system, the evaluation value includes a value indicating difficulty in rotation of the object relative to the hand when the object is gripped by the hand. A configuration may be used.
With this configuration, when the object is gripped by the hand, the robot system determines the state of the hand based on an evaluation value including a value indicating the difficulty of rotating the object with respect to the hand. Thus, when the object is grasped by the hand, the robot system grasps the object according to the state of the hand determined based on the evaluation value including the value indicating the difficulty of rotation of the object with respect to the hand. be able to.
また、本発明の他の態様は、ロボットシステムにおいて、前記ハンドの状態には、前記ハンドと前記対象物との相対的な位置及び姿勢が含まれる、構成が用いられてもよい。
この構成により、ロボットシステムは、対象物の位置及び姿勢と、当該位置及び姿勢の誤差情報と、ハンドと対象物との相対的な位置及び姿勢を含むハンドの状態とに基づきハンドの状態を決定する。これにより、ロボットシステムは、ハンドと対象物との相対的な位置及び姿勢を含むハンドの状態に基づいて決定されたハンドの状態によって対象物を把持することができる。
According to another aspect of the present invention, in the robot system, a configuration in which the state of the hand includes a relative position and posture of the hand and the target object may be used.
With this configuration, the robot system determines the state of the hand based on the position and orientation of the object, error information on the position and orientation, and the state of the hand including the relative position and orientation of the hand and the object. To do. Thereby, the robot system can hold the object according to the hand state determined based on the hand state including the relative position and posture between the hand and the object.
また、本発明の他の態様は、ロボットシステムにおいて、前記ハンドの状態には、前記ハンドが備える把持部位間の角度が含まれる、構成が用いられてもよい。
この構成により、ロボットシステムは、対象物の位置及び姿勢と、当該位置及び姿勢の誤差情報と、ハンドが備える把持部位間の角度を含むハンドの状態とに基づきハンドの状態を決定する。これにより、ロボットシステムは、ハンドが備える把持部位間の角度を含むハンドの状態に基づいて決定されたハンドの状態によって対象物を把持することができる。
Further, according to another aspect of the present invention, in the robot system, a configuration may be used in which the state of the hand includes an angle between gripping parts included in the hand.
With this configuration, the robot system determines the state of the hand based on the position and posture of the object, error information on the position and posture, and the state of the hand including the angle between the gripping parts included in the hand. Thereby, the robot system can hold the object according to the state of the hand determined based on the state of the hand including the angle between the holding parts included in the hand.
また、本発明の他の態様は、ロボットシステムにおいて、前記誤差情報は、確率分布を示す情報である、構成が用いられてもよい。
この構成により、ロボットシステムは、対象物の位置及び姿勢と、確率分布を示す情報である誤差情報と、ハンドの状態とに基づきハンドの状態を決定する。これにより、ロボットシステムは、対象物の位置及び姿勢と、確率分布を示す情報と、ハンドの状態とに基づいて決定されたハンドの状態によって対象物を把持することができる。
According to another aspect of the present invention, in the robot system, the error information may be information indicating a probability distribution.
With this configuration, the robot system determines the hand state based on the position and orientation of the object, error information that is information indicating the probability distribution, and the hand state. As a result, the robot system can grip the target object according to the hand state determined based on the position and orientation of the target object, information indicating the probability distribution, and the hand state.
また、本発明の他の態様は、ロボットシステムにおいて、前記誤差情報は、誤差の範囲を示す情報である、構成が用いられてもよい。
この構成により、ロボットシステムは、対象物の位置及び姿勢と、誤差の範囲を示す情報である誤差情報と、ハンドの状態とに基づきハンドの状態を決定する。これにより、ロボットシステムは、対象物の位置及び姿勢と、誤差の範囲を示す情報と、ハンドの状態とに基づいて決定されたハンドの状態によって対象物を把持することができる。
According to another aspect of the present invention, in the robot system, a configuration may be used in which the error information is information indicating an error range.
With this configuration, the robot system determines the state of the hand based on the position and orientation of the object, error information that is information indicating an error range, and the state of the hand. As a result, the robot system can hold the target object according to the hand state determined based on the position and orientation of the target object, the information indicating the error range, and the hand state.
また、本発明の他の態様は、ハンドを備え、対象物の位置及び姿勢と、当該位置及び姿勢の誤差情報と、前記ハンドの状態とに基づき前記ハンドの状態を決定する、ロボットである。
この構成により、ロボットは、対象物の位置及び姿勢と、当該位置及び姿勢の誤差情報と、ハンドの状態とに基づきハンドの状態を決定する。これにより、ロボットは、ハンドに対象物を把持させる際に適したハンドの状態によって対象物をハンドに把持させることができる。
Another aspect of the present invention is a robot that includes a hand and determines the state of the hand based on the position and orientation of an object, error information on the position and orientation, and the state of the hand.
With this configuration, the robot determines the hand state based on the position and posture of the target object, error information on the position and posture, and the hand state. Accordingly, the robot can cause the hand to hold the object according to the state of the hand suitable for causing the hand to hold the object.
また、本発明の他の態様は、対象物の位置及び姿勢と、当該位置及び姿勢の誤差情報と、ロボットが備えるハンドの状態とに基づき前記ハンドの状態を決定する、ロボット制御装置である。
この構成により、ロボット制御装置は、対象物の位置及び姿勢と、当該位置及び姿勢の誤差情報と、ハンドの状態とに基づきハンドの状態を決定する。これにより、ロボット制御装置は、ハンドに対象物を把持させる際に適したハンドの状態によって対象物をハンドに把持させることができる。
Another aspect of the present invention is a robot control device that determines the state of the hand based on the position and posture of the object, error information on the position and posture, and the state of the hand included in the robot.
With this configuration, the robot control apparatus determines the hand state based on the position and posture of the object, error information on the position and posture, and the hand state. Thereby, the robot control apparatus can make a hand hold | grip a target object with the state of a hand suitable when making a hand hold | grip a target object.
以上により、ロボットシステム、ロボット、及びロボット制御装置は、対象物の位置及び姿勢と、当該位置及び姿勢の誤差情報と、ハンドの状態とに基づきハンドの状態を決定する。これにより、ロボットシステム、ロボット、及びロボット制御装置は、ハンドに対象物を把持させる際に適したハンドの状態によって対象物をハンドに把持させることができる。 As described above, the robot system, the robot, and the robot control device determine the hand state based on the position and posture of the object, the error information on the position and posture, and the hand state. Thereby, the robot system, the robot, and the robot control apparatus can cause the hand to hold the object according to the state of the hand suitable for causing the hand to hold the object.
<実施形態>
以下、本発明の実施形態について、図面を参照して説明する。図1は、本実施形態に係るロボット20の一例を示す構成図である。
まず、ロボット20の構成について説明する。
<Embodiment>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a configuration diagram illustrating an example of a
First, the configuration of the
ロボット20は、第1アームと第2アームを備える双腕ロボットである。双腕ロボットは、この一例における第1アームと第2アームのような2本のアーム(腕)を備えるロボットである。なお、ロボット20は、双腕ロボットに代えて、単腕ロボットであってもよい。単腕ロボットは、1本のアームを備えるロボットである。例えば、単腕ロボットは、この一例における第1アームと第2アームのいずれか一方を備える。
また、ロボット20は、第1撮像部21と、第2撮像部22と、第3撮像部23と、第4撮像部24と、ロボット制御装置30を備える。
The
The
第1アームは、第1エンドエフェクターE1と、第1マニピュレーターM1と、第1力検出部11と、第1撮像部21を備える。
The first arm includes a first end effector E1, a first manipulator M1, a
第1エンドエフェクターE1は、物体を把持可能な2以上の把持部位と、図示しない複数のアクチュエーターを備える。以下では、一例として、第1エンドエフェクターE1が、把持部位C11と、把持部位C12と、把持部位C13の3つの把持部位を備える場合について説明する。 The first end effector E1 includes two or more gripping parts capable of gripping an object and a plurality of actuators (not shown). Hereinafter, as an example, a case will be described in which the first end effector E1 includes three gripping parts including a gripping part C11, a gripping part C12, and a gripping part C13.
第1エンドエフェクターE1が備える複数のアクチュエーターはそれぞれ、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、当該アクチュエーターは、ロボット制御装置30から取得される制御信号に基づいて、把持部位C11と、把持部位C12と、把持部位C13のそれぞれを動作させる。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。なお、当該アクチュエーターは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
Each of the plurality of actuators included in the first end effector E1 is connected to the
第1マニピュレーターM1は、7つの関節と、第1撮像部21と、図示しない複数のアクチュエーターとを備える7軸垂直多関節型のマニピュレーターである。従って、第1アームは、支持台と、第1エンドエフェクターE1と、第1マニピュレーターM1が当該アクチュエーターによる連携した動作によって7軸の自由度の動作を行う。なお、第1アームは、6軸以下の自由度で動作する構成であってもよく、8軸以上の自由度で動作する構成であってもよい。
The first manipulator M1 is a seven-axis vertical articulated manipulator including seven joints, a
第1アームが7軸の自由度で動作する場合、第1アームは、6軸以下の自由度で動作する場合と比較して取り得る姿勢が増える。これにより第1アームは、例えば、動作が滑らかになり、更に第1アームの周辺に存在する物体との干渉を容易に回避することができる。また、第1アームが7軸の自由度で動作する場合、第1アームの制御は、第1アームが8軸以上の自由度で動作する場合と比較して計算量が少なく容易である。このような理由から、第1アームは、7軸の自由度で動作することが望ましい。 When the first arm operates with a degree of freedom of seven axes, the posture that the first arm can take is increased as compared with a case where the first arm operates with a degree of freedom of six axes or less. Thereby, for example, the first arm can be smoothly operated, and interference with an object existing around the first arm can be easily avoided. In addition, when the first arm operates with a degree of freedom of 7 axes, the control of the first arm is easy and requires a smaller amount of calculation than when the first arm operates with a degree of freedom of 8 axes or more. For this reason, it is desirable for the first arm to operate with seven axes of freedom.
第1マニピュレーターM1が備える複数のアクチュエーターはそれぞれ、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、当該アクチュエーターは、ロボット制御装置30から取得される制御信号に基づいて、第1マニピュレーターM1を動作させる。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、当該アクチュエーターのうちの一部又は全部は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
The plurality of actuators included in the first manipulator M1 are each connected to the
第1力検出部11は、第1エンドエフェクターE1と第1マニピュレーターM1の間に備えられる。第1力検出部11は、第1エンドエフェクターE1に作用した力やモーメントの大きさを示す値を検出する。第1力検出部11は、検出した力やモーメントの大きさを示す値を出力値として含む第1力検出情報を通信によりロボット制御装置30へ出力する。第1力検出情報は、ロボット制御装置30による第1アームの第1力検出情報に基づく制御に用いられる。第1力検出情報に基づく制御は、例えば、インピーダンス制御等のコンプライアンス制御のことである。なお、第1力検出部11は、トルクセンサー等の第1エンドエフェクターE1に加わる力やモーメントの大きさを示す値を検出する他のセンサーであってもよい。
The
第1力検出部11は、ケーブルによってロボット制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、第1力検出部11は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
The first
第1撮像部21は、例えば、集光された光を電気信号に変換する撮像素子であるCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を備えたカメラである。この一例において、第1撮像部21は、第1マニピュレーターM1の一部に備えられる。このため、第1撮像部21は、第1アームの動きに応じて移動する。また、第1撮像部21が撮像可能な範囲は、第1アームの動きに応じて変化する。第1撮像部21は、当該範囲の静止画像を撮像してもよく、当該範囲の動画像を撮像してもよい。
The
また、第1撮像部21は、ケーブルによってロボット制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、第1撮像部21は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
The
第2アームは、第2エンドエフェクターE2と、第2マニピュレーターM2と、第2力検出部12と、第2撮像部22を備える。
The second arm includes a second end effector E2, a second manipulator M2, a second
第2エンドエフェクターE2は、物体を把持可能な2以上の把持部位と、図示しない複数のアクチュエーターを備える。以下では、一例として、第2エンドエフェクターE2が、把持部位C21と、把持部位C22と、把持部位C23の3つの把持部位を備える場合について説明する。 The second end effector E2 includes two or more gripping portions that can grip an object and a plurality of actuators (not shown). Hereinafter, as an example, a case will be described in which the second end effector E2 includes three gripping parts including a gripping part C21, a gripping part C22, and a gripping part C23.
第2エンドエフェクターE2が備える複数のアクチュエーターはそれぞれ、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、当該アクチュエーターは、ロボット制御装置30から取得される制御信号に基づいて、把持部位C21と、把持部位C22と、把持部位C23のそれぞれを動作させる。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、当該アクチュエーターは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
Each of the plurality of actuators provided in the second end effector E2 is connected to the
第2マニピュレーターM2は、7つの関節と、第2撮像部22と、図示しない複数のアクチュエーターとを備える7軸垂直多関節型のマニピュレーターである。従って、第2アームは、支持台と、第2エンドエフェクターE2と、第2マニピュレーターM2が当該アクチュエーターによる連携した動作によって7軸の自由度の動作を行う。第2アームは、第1アームが7軸の自由度で動作することが望ましい理由と同様の理由により、7軸の自由度で動作することが望ましい。なお、第2アームは、6軸以下の自由度で動作する構成であってもよく、8軸以上の自由度で動作する構成であってもよい。
The second manipulator M2 is a seven-axis vertical articulated manipulator including seven joints, a
第2マニピュレーターM2が備える複数のアクチュエーターはそれぞれ、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、当該アクチュエーターは、ロボット制御装置30から取得される制御信号に基づいて、第2マニピュレーターM2を動作させる。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、当該アクチュエーターのうちの一部又は全部は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
The plurality of actuators provided in the second manipulator M2 are each connected to the
第2力検出部12は、第2エンドエフェクターE2と第2マニピュレーターM2の間に備えられる。第2力検出部12は、第2エンドエフェクターE2に作用した力やモーメントの大きさを示す値を検出する。第2力検出部12は、検出した力やモーメントの大きさを示す値を出力値として含む第2力検出情報を通信によりロボット制御装置30へ出力する。第2力検出情報は、ロボット制御装置30による第2アームの第2力検出情報に基づく制御に用いられる。第2力検出情報に基づく制御は、例えば、インピーダンス制御等のコンプライアンス制御のことである。なお、第2力検出部12は、トルクセンサー等の第2エンドエフェクターE2に加わる力やモーメントの大きさを示す値を検出する他のセンサーであってもよい。
The
第2力検出部12は、ケーブルによってロボット制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、第2力検出部12は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
The 2nd
第2撮像部22は、例えば、集光された光を電気信号に変換する撮像素子であるCCDやCMOS等を備えたカメラである。この一例において、第2撮像部22は、第2マニピュレーターM2の一部に備えられる。このため、第2撮像部22は、第2アームの動きに応じて移動する。また、第2撮像部22が撮像可能な範囲は、第2アームの動きに応じて変化する。第2撮像部22は、当該範囲の静止画像を撮像してもよく、当該範囲の動画像を撮像してもよい。
The
また、第2撮像部22は、ケーブルによってロボット制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、第2撮像部22は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
The
第3撮像部23は、例えば、集光された光を電気信号に変換する撮像素子であるCCDやCMOS等を備えたカメラである。第3撮像部23は、作業台TBの上面に載置された対象物Oを含む範囲である撮像範囲を撮像可能な位置に設置される。なお、第3撮像部23は、撮像範囲の静止画像を撮像してもよく、撮像範囲の動画像を撮像してもよい。
The
また、第3撮像部23は、ケーブルによってロボット制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、第3撮像部23は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
The
第4撮像部24は、例えば、集光された光を電気信号に変換する撮像素子であるCCDやCMOS等を備えたカメラである。第4撮像部24は、第3撮像部23が撮像可能な撮像範囲を第3撮像部23とともにステレオ撮像可能な位置に設置される。なお、第4撮像部24は、撮像範囲の静止画像を撮像してもよく、撮像範囲の動画像を撮像してもよい。
The
また、第4撮像部24は、ケーブルによってロボット制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、第4撮像部24は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
Further, the
上記で説明したロボット20が備えるこれらの各機能部は、この一例において、ロボット20に内蔵されたロボット制御装置30から制御信号を取得する。そして、当該各機能部は、取得した制御信号に基づいた動作を行う。なお、ロボット20は、ロボット制御装置30を内蔵する構成に代えて、外部に設置されたロボット制御装置30により制御される構成(ロボットシステム)であってもよい。
Each of these functional units included in the
ロボット制御装置30は、ロボット20に制御信号を送信することにより、ロボット20を動作させる。これにより、ロボット制御装置30は、ロボット20に所定の作業を行わせる。
The
以下、ロボット20が行う所定の作業について説明する。
図1に示した作業台TBは、例えば、テーブルである。作業台TBの上面には、対象物Oが載置されている。なお、作業台TBは、テーブルに変えて、対象物Oを載置することが可能な床面等の物体であれば他の物体であってもよい。
Hereinafter, predetermined work performed by the
The work table TB illustrated in FIG. 1 is, for example, a table. An object O is placed on the upper surface of the work table TB. The work table TB may be another object as long as it is an object such as a floor surface on which the object O can be placed instead of the table.
対象物Oは、例えば、製品に組み付けるプレート、ネジ、ボルト等の産業用の部品や部材である。以下では、一例として、対象物Oが、図1に示したように六角柱形状の物体である場合について説明する。なお、対象物Oは、産業用の部品や部材に代えて、産業用の製品であってもよく、日用品や生体等の他の物体であってもよい。また、対象物Oの形状は、六角柱形状に代えて、他の形状であってもよい。 The object O is, for example, an industrial part or member such as a plate, screw, or bolt that is assembled to a product. Below, the case where the target object O is a hexagonal prism-shaped object as shown in FIG. 1 is demonstrated as an example. The object O may be an industrial product instead of an industrial part or member, or may be another object such as a daily necessities or a living body. Further, the shape of the object O may be another shape instead of the hexagonal column shape.
ロボット20は、例えば、所定の作業として、作業台TBの上面に載置された対象物Oを第1エンドエフェクターE1により把持する。そして、ロボット20は、把持した対象物Oを、図1に示した作業台TBの上面における給材領域Aに給材(配置)する。なお、所定の作業は、他の作業であってもよい。また、ロボット20は、所定の作業において対象物Oを第1エンドエフェクターE1により把持する構成に代えて、対象物Oを第2エンドエフェクターE2により把持する構成であってもよく、第1エンドエフェクターE1と第2エンドエフェクターE2の両方により対象物Oを把持する構成であってもよい。例えば、所定の作業においてロボット20が第2エンドエフェクターE2により対象物Oを把持する場合、ロボット20は、以下の説明における第1エンドエフェクターE1を第2エンドエフェクターE2に読み替えた場合と同様の動作を行う。
For example, the
以下、ロボット20に所定の作業を行わせるためにロボット制御装置30が行う処理の概要について説明する。
ロボット制御装置30は、対象物Oの位置及び姿勢と、当該位置及び姿勢の誤差情報と、第1エンドエフェクターE1の状態とに基づき第1エンドエフェクターE1の状態を決定する。この一例として、本実施形態では、ロボット制御装置30は、撮像画像から検出した対象物Oの位置及び姿勢と、当該位置及び姿勢の誤差情報と、第1エンドエフェクターE1の状態とに基づく把持品質評価値に応じて第1エンドエフェクターE1の状態を決定する。なお、ロボット制御装置30は、対象物Oの位置及び姿勢を撮像画像から検出する構成に代えて、対象物Oの位置及び姿勢を示す情報を他の装置や記憶媒体から取得する構成や、ユーザーから入力された対象物Oの位置及び姿勢を示す情報を取得する構成等の他の構成であってもよい。
Hereinafter, an outline of processing performed by the
The
ハンドは、ロボット20における物体を把持可能な部位、すなわち第1エンドエフェクターE1と第2エンドエフェクターE2のうちいずれか一方又は両方のことである。この一例では、対象物Oが第1エンドエフェクターE1によって把持される場合を説明するため、ハンドは、第1エンドエフェクターE1のことであり、ハンドの状態は、第1エンドエフェクターE1の状態のことである。第1エンドエフェクターE1の状態は、この一例において、対象物Oに対する第1エンドエフェクターE1の相対的な位置及び姿勢によって表される。
The hand is a part of the
対象物Oの位置及び姿勢の誤差情報は、撮像画像から検出した対象物Oの位置及び姿勢を中心値とした場合の誤差の分布(確率分布)を示す情報である。換言すると、当該誤差情報は、誤差の範囲を示す情報である。例えば、当該誤差情報は、正規分布を示す情報である。なお、当該誤差情報は、正規分布を示す情報に代えて、対象物Oを検出する実験の結果を再現する確率分布を示す情報等の他の確率分布を示す情報であってもよい。なお、撮像画像は、画像の一例である。 The error information on the position and orientation of the object O is information indicating an error distribution (probability distribution) when the position and orientation of the object O detected from the captured image are used as the center value. In other words, the error information is information indicating an error range. For example, the error information is information indicating a normal distribution. Note that the error information may be information indicating another probability distribution such as information indicating a probability distribution reproducing the result of the experiment for detecting the object O, instead of the information indicating the normal distribution. The captured image is an example of an image.
ロボット制御装置30が行う処理をより具体的に説明すると、ロボット制御装置30は、撮像画像から検出した対象物Oの位置及び姿勢と、当該位置及び姿勢の誤差情報と、第1エンドエフェクターE1の状態とに基づいて、第1エンドエフェクターE1の状態毎に、第1エンドエフェクターE1が対象物Oを把持した際に第1エンドエフェクターE1の状態(すなわち、第1エンドエフェクターE1と対象物Oの相対的な位置及び姿勢)の変化のし難さ(把持品質)を評価した値である把持品質評価値を算出する。
The processing performed by the
ロボット制御装置30は、算出した把持品質評価値に基づいて、第1エンドエフェクターE1に対象物Oを把持させる際に適した第1エンドエフェクターE1の状態を決定する。これにより、ロボット制御装置30は、把持品質評価値に応じて決定された第1エンドエフェクターE1の状態、すなわち第1エンドエフェクターE1に対象物Oを把持させる際に適した第1エンドエフェクターE1の状態によって対象物Oをロボット20に把持させることができる。ロボット制御装置30は、第1エンドエフェクターE1に対象物Oを把持させる際に適した第1エンドエフェクターE1の状態によって対象物Oをロボット20に把持させ、当該対象物Oを給材領域Aへロボット20に給材させる。
The
以下では、ロボット制御装置30が、撮像画像から検出した対象物Oの位置及び姿勢と、当該位置及び姿勢の誤差情報と、第1エンドエフェクターE1の状態とに基づく把持品質評価値に応じて第1エンドエフェクターE1の状態を決定する処理について詳しく説明する。
In the following, the
また、以下では、説明を簡略化するため、ロボット制御装置30が撮像画像から検出する対象物Oの位置及び姿勢が、対象物Oの二次元ロボット座標系における位置及び姿勢であり、ロボット制御装置30が把持品質評価値に応じて決定する第1エンドエフェクターE1の状態が、二次元ロボット座標系における第1エンドエフェクターE1の状態である場合について説明する。
In the following, for the sake of simplicity, the position and orientation of the object O detected by the
また、以下では、説明を簡略化するため、二次元ロボット座標系の2つの座標軸が、地面に対して水平であり且つ互いに直交する方向を向いており、対象物Oが載置された作業台TBの上面が、当該地面に対して水平である場合について説明する。なお、ロボット制御装置30は、撮像画像から対象物Oの三次元ロボット座標系における位置及び姿勢を検出し、当該把持品質評価値に応じて三次元ロボット座標系における第1エンドエフェクターE1の状態を決定する構成であってもよい。なお、把持品質評価値は、ハンドの状態を評価する評価値の一例である。
In the following, for the sake of simplicity of explanation, the two coordinate axes of the two-dimensional robot coordinate system are horizontal with respect to the ground and are oriented in directions orthogonal to each other, and the work table on which the object O is placed. The case where the upper surface of TB is horizontal with respect to the ground will be described. The
次に、図2を参照し、ロボット制御装置30のハードウェア構成について説明する。図2は、ロボット制御装置30のハードウェア構成の一例を示す図である。ロボット制御装置30は、例えば、CPU(Central Processing Unit)31と、記憶部32と、入力受付部33と、通信部34と、表示部35を備える。また、ロボット制御装置30は、通信部34を介してロボット20と通信を行う。これらの構成要素は、バスBusを介して相互に通信可能に接続されている。
Next, the hardware configuration of the
CPU31は、記憶部32に格納された各種プログラムを実行する。
記憶部32は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、ROM(Read−Only Memory)、RAM(Random Access Memory)等を含む。なお、記憶部32は、ロボット制御装置30に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置であってもよい。
The
The
記憶部32は、ロボット制御装置30が処理する各種情報や画像、プログラム、誤差情報、給材領域Aの位置を示す情報等を格納する。以下では、一例として、記憶部32が、誤差情報と給材領域Aの位置を示す情報とを予め記憶している場合について説明する。なお、記憶部32は、ユーザーから受け付けられた操作に基づいて、誤差情報と給材領域Aの位置を示す情報とのうちいずれか一方又は両方を記憶する構成であってもよい。
The
入力受付部33は、例えば、キーボードやマウス、タッチパッド等を備えたティーチングペンダントや、その他の入力装置である。なお、入力受付部33は、タッチパネルとして表示部35と一体に構成されてもよい。
通信部34は、例えば、USB等のデジタル入出力ポートやイーサネット(登録商標)ポート等を含んで構成される。
表示部35は、例えば、液晶ディスプレイパネル、あるいは、有機EL(ElectroLuminescence)ディスプレイパネルである。
The
The
The
次に、図3を参照し、ロボット制御装置30の機能構成について説明する。図3は、ロボット制御装置30の機能構成の一例を示す図である。ロボット制御装置30は、記憶部32と、制御部36を備える。
Next, the functional configuration of the
制御部36は、ロボット制御装置30の全体を制御する。制御部36は、力検出情報取得部40と、撮像制御部41と、画像取得部42と、位置姿勢検出部44と、把持品質評価値算出部46と、ハンド状態決定部47と、ロボット制御部48を備える。制御部36が備えるこれらの機能部は、例えば、CPU31が、記憶部32に記憶された各種プログラムを実行することにより実現される。また、これらの機能部のうちの一部又は全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。
The
力検出情報取得部40は、第1力検出部11が検出した力やモーメントの大きさを示す値を出力値として含む第1力検出情報を第1力検出部11から取得する。また、力検出情報取得部40は、第2力検出部12が検出した力やモーメントの大きさを示す値を出力値として含む第2力検出情報を第2力検出部12から取得する。
The force detection
撮像制御部41は、作業台TBの上面に載置された対象物Oを含む撮像範囲を、第1撮像部21と、第2撮像部22と、第3撮像部23と、第4撮像部24のうちの一部又は全部に撮像させる。以下では、一例として、撮像制御部41が、当該撮像範囲を第3撮像部23に撮像させる場合について説明する。なお、ロボット制御装置30が、撮像画像から対象物Oの三次元ロボット座標系における位置及び姿勢を検出し、当該把持品質評価値に応じて三次元ロボット座標系における第1エンドエフェクターE1の状態を決定する構成の場合、撮像制御部41は、第1撮像部21と、第2撮像部22と、第3撮像部23と、第4撮像部24のうちの少なくとも2つ以上の撮像部に当該撮像範囲をステレオ撮像させる。
The
画像取得部42は、第3撮像部23が撮像した撮像画像を、第3撮像部23から取得する。
位置姿勢検出部44は、画像取得部42が取得した撮像画像に基づいて、当該撮像画像から対象物Oの位置及び姿勢を検出する。
The
The position /
把持品質評価値算出部46は、記憶部32から誤差情報を読み出す。また、把持品質評価値算出部46は、読み出した誤差情報と、位置姿勢検出部44が撮像画像から検出した対象物Oの位置及び姿勢と、第1エンドエフェクターE1の状態とに基づいて、第1エンドエフェクターE1の状態毎に、把持品質評価値を算出する。
The gripping quality evaluation
ハンド状態決定部47は、把持品質評価値算出部46が算出した把持品質評価値に基づいて、把持品質評価値を最大にする第1エンドエフェクターE1の状態を、第1エンドエフェクターE1に対象物Oを把持させる際に適した第1エンドエフェクターE1の状態として決定する。なお、ハンド状態決定部47は、把持品質評価値を最大にする第1エンドエフェクターE1の状態を、第1エンドエフェクターE1に対象物Oを把持させる際に適した第1エンドエフェクターE1の状態として決定する構成に代えて、所定の閾値の把持品質評価値にする第1エンドエフェクターE1の状態等の把持品質評価値が最大ではない他の値の第1エンドエフェクターE1の状態を、第1エンドエフェクターE1に対象物Oを把持させる際に適した第1エンドエフェクターE1の状態として決定する構成であってもよい。
Based on the grip quality evaluation value calculated by the grip quality evaluation
ロボット制御部48は、ハンド状態決定部47が決定した第1エンドエフェクターE1の状態によって対象物Oをロボット20に把持させ、当該対象物Oを給材領域Aへロボット20に給材させる。
The
以下、図4を参照し、制御部36が行う処理について説明する。図4は、制御部36が行う処理の流れの一例を示すフローチャートである。
撮像制御部41は、作業台TBの上面に載置された対象物Oを含む撮像範囲を第3撮像部23に撮像させる(ステップS100)。次に、画像取得部42は、ステップS100において第3撮像部23が撮像した撮像画像を第3撮像部23から取得する(ステップS110)。次に、位置姿勢検出部44は、ステップS110において画像取得部42が取得した撮像画像に基づいて、当該撮像画像から対象物Oの位置及び姿勢を検出位置姿勢として検出する(ステップS120)。
Hereinafter, the process performed by the
The
ここで、ステップS120の処理について説明する。例えば、位置姿勢検出部44は、ステップS110において画像取得部42が取得した撮像画像に基づいて、当該撮像画像から対象物Oの輪郭を検出する。位置姿勢検出部44は、検出した輪郭の重心の位置を、対象物Oの位置として検出する。ここで、撮像画像における各点が表わす位置と、二次元ロボット座標系における位置とは、予めキャリブレーションによって対応付けられている。
Here, the process of step S120 will be described. For example, the position and
また、位置姿勢検出部44は、検出した輪郭の重心の位置を原点とした対象物Oの姿勢を表す二次元局所座標系を対象物Oに設定する。当該二次元局所座標系の2つの座標軸の方向は、互いに直交していれば、撮像画像上において如何なる方向を向いていてもよい。この一例では、位置姿勢検出部44は、当該二次元局所座標系のX軸の方向を第3撮像部23の撮像素子のX軸の方向に設定し、当該二次元局所座標系のY軸の方向を第3撮像部23の撮像素子のY軸の方向に設定する。位置姿勢検出部44は、当該二次元局所座標系の2つの座標軸の方向を、対象物Oの姿勢として特定(検出)する。なお、位置姿勢検出部44は、当該二次元局所座標系の2つの座標軸のうちの一方の方向を基準として、当該基準からの傾きの角度によって対象物Oの姿勢を表す構成であってもよい。
In addition, the position /
ステップS120において検出位置姿勢が検出された後、把持品質評価値算出部46は、ハンドの状態毎、すなわち第1エンドエフェクターE1の状態毎にステップS125の処理を繰り返し行う(ステップS123)。ここで、第1エンドエフェクターE1の状態について説明する。
After the detected position and orientation are detected in step S120, the gripping quality evaluation
図5は、第1エンドエフェクターE1の状態を説明するための図である。図5には、位置及び姿勢が検出位置姿勢と一致している場合の対象物Oが示されている。また、図5には、対象物Oを把持する直前の第1エンドエフェクターE1が示されている。ただし、図5では、第1エンドエフェクターE1が備える把持部位C11と、把持部位C12と、把持部位C13と、対象物Oとの相対的な位置及び姿勢を明確に示すため、把持部位C11、把持部位C12、及び把持部位C13以外の第1エンドエフェクターE1の部位を省略している。また、図5では、図の簡略化のため、把持部位C11と、把持部位C12と、把持部位C13がそれぞれ、黒丸によって描かれているが、これら3つの把持部位それぞれの実際の形状が黒丸であるわけではない。 FIG. 5 is a view for explaining the state of the first end effector E1. FIG. 5 shows the object O in the case where the position and orientation match the detected position and orientation. Further, FIG. 5 shows the first end effector E1 immediately before gripping the object O. However, in FIG. 5, in order to clearly show the relative positions and postures of the gripping part C11, the gripping part C12, the gripping part C13, and the object O included in the first end effector E1, Parts of the first end effector E1 other than the part C12 and the gripping part C13 are omitted. In FIG. 5, for simplification of the drawing, the gripping part C11, the gripping part C12, and the gripping part C13 are each drawn by a black circle, but the actual shape of each of these three gripping parts is a black circle. There is no reason.
前述したように、第1エンドエフェクターE1の状態は、第1エンドエフェクターE1と対象物Oの相対的な位置及び姿勢によって表される。より具体的には、この一例において、第1エンドエフェクターE1の位置は、図5に示した把持部位C11の可動方向CA1へ伸びる補助線と、把持部位C12の可動方向CA2へ伸びる補助線と、把持部位C13の可動方向CA3へ伸びる補助線とが1点で交わる点の位置である把持位置Gによって表される。なお、把持位置Gは、当該1点で交わる点の位置に代えて、例えば、TCP(Tool Center Point)等の第1エンドエフェクターE1に対応付けられた位置であって第1エンドエフェクターE1とともに移動する位置であれば他の位置であってもよい。 As described above, the state of the first end effector E1 is represented by the relative position and posture of the first end effector E1 and the object O. More specifically, in this example, the position of the first end effector E1 includes an auxiliary line extending in the movable direction CA1 of the gripping part C11 and an auxiliary line extending in the movable direction CA2 of the gripping part C12 shown in FIG. It is represented by a gripping position G that is the position of a point where the auxiliary line extending in the movable direction CA3 of the gripping part C13 intersects at one point. Note that the gripping position G is a position associated with the first end effector E1 such as TCP (Tool Center Point) instead of the position of the point where the one point intersects and moves together with the first end effector E1. Other positions may be used as long as they are positions.
以上のことから、第1エンドエフェクターE1と対象物Oの相対的な位置は、対象物Oの位置に対する把持位置Gによって表される。以下の説明では、第1エンドエフェクターE1と対象物Oの相対的な位置を、対象物Oの輪郭内に描かれた把持位置Gによって表す。 From the above, the relative position between the first end effector E1 and the object O is represented by the grip position G with respect to the position of the object O. In the following description, the relative position between the first end effector E1 and the object O is represented by a gripping position G drawn in the outline of the object O.
また、第1エンドエフェクターE1と対象物Oの相対的な姿勢は、この一例において、対象物Oの姿勢を表す二次元局所座標系のX軸と可動方向CA1へ伸びる補助線との間の角度φと、可動方向CA1へ伸びる補助線と可動方向CA2へ伸びる補助線との間の角度θ1と、可動方向CA1へ伸びる補助線と可動方向CA3へ伸びる補助線との間の角度θ2との3つの角度によって表される。なお、図5では、角度φを明確に示すため、対象物Oの姿勢を表す二次元局所座標系SOの原点を把持位置Gに移動させている。 In this example, the relative posture between the first end effector E1 and the object O is an angle between the X axis of the two-dimensional local coordinate system representing the posture of the object O and an auxiliary line extending in the movable direction CA1. φ, an angle θ1 between an auxiliary line extending in the movable direction CA1 and an auxiliary line extending in the movable direction CA2, and an angle θ2 between an auxiliary line extending in the movable direction CA1 and an auxiliary line extending in the movable direction CA3. Represented by two angles. In FIG. 5, the origin of the two-dimensional local coordinate system SO representing the posture of the object O is moved to the gripping position G in order to clearly show the angle φ.
すなわち、第1エンドエフェクターE1の状態は、把持位置Gと、角度φと、角度θ1と、角度θ2との4つの値を成分として有するベクトルである状態ベクトルによって表される。第1エンドエフェクターE1の状態は、状態ベクトルの各成分を変化させる毎に変化する。把持品質評価値算出部46は、ステップS120において位置姿勢検出部44が検出した検出位置姿勢と、状態ベクトルの各成分を変化させる場合に把持品質評価値算出部46が従う所定の規則とに基づいて、状態ベクトルの各成分のうちの少なくとも1つの成分が互いに異なる複数のベクトル、すなわち複数の第1エンドエフェクターE1の状態を算出する。そして、把持品質評価値算出部46は、算出した複数の第1エンドエフェクターE1の状態のそれぞれ毎に、ステップS125の処理を行う。
That is, the state of the first end effector E1 is represented by a state vector that is a vector having four values of the gripping position G, the angle φ, the angle θ1, and the angle θ2. The state of the first end effector E1 changes every time each component of the state vector is changed. The gripping quality evaluation
ここで、把持品質評価値算出部46が状態ベクトルの各成分を変化させる場合に従う所定の規則について説明する。把持品質評価値算出部46は、状態ベクトルの4つの成分のうちの把持位置Gを変化させる場合、例えば、対象物Oの輪郭内を所定幅の正方格子に区切り、当該正方格子の格子点のうちの未選択の格子点の位置をランダム、又は所定の選択規則に従って選択する。そして、把持品質評価値算出部46は、選択した格子点の位置に把持位置Gを変化させる。
Here, a predetermined rule according to the case where the gripping quality evaluation
また、把持品質評価値算出部46は、状態ベクトルの4つの成分のうちの角度φを変化させる場合、第1所定角度毎に0°〜360°まで変化させる。第1所定角度は、例えば、1°である。なお、第1所定角度は、他の角度であってもよい。また、把持品質評価値算出部46は、状態ベクトルの4つの成分のうちの角度θ1を変化させる際、第2所定角度毎に0°〜360°まで変化させる。第2所定角度は、例えば、1°である。なお、第2所定角度は、他の角度であってもよい。また、把持品質評価値算出部46は、状態ベクトルの4つの成分のうちの角度θ2を変化させる際、第3所定角度毎に0°〜360°まで変化させる。第3所定角度は、例えば、1°である。なお、第3所定角度は、他の角度であってもよい。
Further, when changing the angle φ of the four components of the state vector, the gripping quality evaluation
このような所定の規則に基づいて、把持品質評価値算出部46は、ステップS123において、把持位置Gと、角度φと、角度θ1と、角度θ2とのうちの少なくとも1つが互いに異なる複数の状態ベクトルを算出し、算出した状態ベクトルが表わす第1エンドエフェクターE1の状態毎にステップS125の処理を行う。
Based on such a predetermined rule, in step S123, the grip quality evaluation
ステップS123において第1エンドエフェクターE1の状態が選択された後、把持品質評価値算出部46は、当該状態に基づいて把持品質評価値を算出する(ステップS125)。より具体的には、把持品質評価値算出部46は、記憶部32から誤差情報を読み出し、読み出した誤差情報と、検出位置姿勢と、ステップS123において選択した第1エンドエフェクターE1の状態とに基づいて把持品質評価値を算出する。
After the state of the first end effector E1 is selected in step S123, the gripping quality evaluation
ここで、ステップS125の処理について説明する。把持品質評価値算出部46は、記憶部32から誤差情報を読み出す。把持品質評価値算出部46は、読み出した誤差情報と、ステップS120において位置姿勢検出部44が検出した検出位置姿勢とに基づいて、検出位置姿勢の誤差であって大きさの異なる複数の誤差を算出する。そして、把持品質評価値算出部46は、算出した複数の誤差のそれぞれ毎に、検出位置姿勢に当該誤差を加算した位置及び姿勢を算出位置姿勢として算出する。
Here, the process of step S125 will be described. The gripping quality evaluation
例えば、把持品質評価値算出部46は、ステップS120において位置姿勢検出部44が検出した検出位置姿勢の誤差の分布を、誤差情報が示す確率分布であると決定する。この一例において、誤差情報が正規分布を示す情報であるため、把持品質評価値算出部46は、当該検出位置姿勢の誤差の分布が正規分布であると決定する。そして、把持品質評価値算出部46は、検出位置姿勢と正規分布とに基づいて、検出位置姿勢が±0.1標準偏差、±0.3標準偏差、±0.5標準偏差。±0.7標準偏差、±1標準偏差の計10の互いに大きさの異なる誤差を算出する。そして、把持品質評価値算出部46は、これらの誤差のそれぞれ毎に、検出位置姿勢に当該誤差を加算した位置及び姿勢を算出位置姿勢として算出する。なお、把持品質評価値算出部46は、これらの誤差に代えて、他の誤差を用いて算出位置姿勢を算出する構成であってもよい。また、把持品質評価値算出部46は、10の誤差を算出する構成に代えて、10未満の誤差を算出する構成であってもよく、11以上の誤差を算出する構成であってもよい。
For example, the grip quality evaluation
また、この一例において、把持品質評価値算出部46は、算出位置姿勢を算出する際、対象物Oの位置と対象物Oの姿勢との両方がそれぞれ誤差によってずれた場合の算出位置姿勢を算出する。なお、把持品質評価値算出部46は、算出位置姿勢を算出する際、対象物Oの位置のみが誤差によってずれた場合の算出位置姿勢と、対象物Oの姿勢のみが誤差によってずれた場合の算出位置姿勢とのいずれか一方又は両方を算出する構成であってもよい。以下では、説明の便宜上、複数の算出位置姿勢と、検出位置姿勢とをまとめて対象物位置姿勢と称して説明する。
In this example, the gripping quality evaluation
図6は、対象物位置姿勢のそれぞれを視覚的に示した図である。図6において最も太い線で描かれた輪郭COは、対象物位置姿勢に含まれる検出位置姿勢の対象物Oの輪郭を示している。輪郭CO以外の輪郭は、対象物位置姿勢に含まれる複数の算出位置姿勢それぞれの対象物Oの輪郭を示している。なお、図6では、各対象物位置姿勢の対象物Oの輪郭を明確に示すため、対象物Oの重心の位置を原点としたX軸及びY軸を示した(この一例では、単位はピクセル)。また、当該X軸の方向は、ステップS120において位置姿勢検出部44が特定した対象物Oの姿勢を表す2つの座標軸のうちのX軸の方向と一致する。また、当該Y軸の方向は、ステップS120において位置姿勢検出部44が特定した対象物Oの姿勢を表す2つの座標軸のうちのY軸の方向と一致する。また、図6に示した複数の輪郭のそれぞれは、重なり合った輪郭同士を明確に示すため、互いに僅かに歪ませて描いている。また、図6に示した複数の把持位置Gは、把持品質評価値算出部46が第1エンドエフェクターE1の状態を表す状態ベクトルを算出する際に、この一例における所定の規則に従って把持位置Gを変化させることが可能な複数の格子点である。
FIG. 6 is a diagram visually showing each of the object positions and orientations. In FIG. 6, a contour CO drawn by the thickest line indicates the contour of the object O in the detected position and orientation included in the object position and orientation. Contours other than the contour CO indicate the contours of the object O in each of a plurality of calculated positions and orientations included in the object position and orientation. In FIG. 6, in order to clearly show the outline of the object O at each object position and orientation, the X axis and the Y axis with the position of the center of gravity of the object O as the origin are shown (in this example, the unit is a pixel) ). Further, the direction of the X axis coincides with the direction of the X axis of the two coordinate axes representing the posture of the object O identified by the position and
把持品質評価値算出部46は、このような算出位置姿勢を算出した後、読み出した誤差情報に基づいて、対象物位置姿勢それぞれの出現確率を算出する。前述したように、この一例では、誤差情報は、正規分布を示す情報である。また、検出位置姿勢と算出位置姿勢との関係から分かる通り、検出位置姿勢は、正規分布における中心値として扱われる。このため、検出位置姿勢の出現確率は、最大となる。また、検出位置姿勢に±1標準偏差の誤差を加算した算出位置姿勢の出現確率はそれぞれ、最小となる。図6に示した各対象物位置姿勢の対象物Oの輪郭の太さは、それぞれの輪郭が示す対象物位置姿勢の出現確率を表している。
After calculating such a calculated position and orientation, the gripping quality evaluation
このように出現確率を算出した後、把持品質評価値算出部46は、対象物位置姿勢のそれぞれ毎に、ステップS123において選択した第1エンドエフェクターE1の状態によって対象物Oを把持した場合の、第1エンドエフェクターE1と対象物Oの相対的な位置及び姿勢の変化のし難さを示す評価値を算出する。例えば、検出位置姿勢を第1位置姿勢、10の算出位置姿勢を第2位置姿勢〜第11位置姿勢とした場合、第1位置姿勢〜第11位置姿勢のそれぞれ毎に、ステップS123において選択した第1エンドエフェクターE1の状態によって対象物Oを把持した場合の、第1エンドエフェクターE1と対象物Oの相対的な位置及び姿勢の変化のし難さを示す評価値を算出する。そして、把持品質評価値算出部46は、算出された複数の評価値(この一例において、11の評価値)に基づいて把持品質評価値を算出する。この一例において、把持品質評価値算出部46は、算出位置姿勢毎に算出された評価値の総和を把持品質評価値として算出する。
After calculating the appearance probability in this way, the gripping quality evaluation
ここで、把持品質評価値を算出する処理について説明する。把持品質評価値算出部46は、以下に示す式(1)に基づいて把持品質評価値を算出する。なお、以下では、A_Bと記載した場合、BはAの後に付く下付き添え字であるとして説明する。すなわち、Aはベクトルであり、BはベクトルであるAの各成分を表す変数である。また、A_BCと記載した場合、B及びCは、Aの後に付く下付き添え字であるとして説明する。すなわち、Aはテンソルであり、B及びCは、テンソルであるAの各成分を表す変数である。また、B^Aと記載した場合、Bは、Aの前に付く上付き添え字であるとして説明する。Aの前に付く上付き添え字は、複数のAを区別するためのラベルとして用いられる。
Here, the process of calculating the grip quality evaluation value will be described. The gripping quality evaluation
Q_ijは、把持品質評価値を示す。iは、第1エンドエフェクターE1の状態に含まれる第1エンドエフェクターE1と対象物Oの相対的な姿勢を区別するためのラベルとして用いる変数である。jは、対象物位置姿勢のそれぞれを区別するためのラベルとして用いられる変数である。Nは、対象物位置姿勢の数の総和であり、この一例において、11である。 Q_ij indicates a grip quality evaluation value. i is a variable used as a label for distinguishing the relative posture between the first end effector E1 and the object O included in the state of the first end effector E1. j is a variable used as a label for distinguishing each of the object positions and orientations. N is the total number of object positions and postures, and is 11 in this example.
P_jは、jが示す対象物位置姿勢の出現確率である。G_iは、iが示す第1エンドエフェクターE1と対象物Oの相対的な姿勢を示す。kは、第1エンドエフェクターE1の状態に含まれる第1エンドエフェクターE1と対象物Oの相対的な位置(例えば、図6に示した複数の把持位置Gのそれぞれ)を区別するためのラベルとして用いる変数である。q_jk(G_i)は、iが示す第1エンドエフェクターE1と対象物Oの相対的な姿勢G_iが実現した場合に、jが示す対象物位置姿勢の対象物Oをkが示す把持位置Gにおいて把持した場合の評価値である。 P_j is the appearance probability of the object position / posture indicated by j. G_i indicates the relative posture of the first end effector E1 and the object O indicated by i. k is a label for distinguishing the relative positions of the first end effector E1 and the object O included in the state of the first end effector E1 (for example, each of the plurality of gripping positions G shown in FIG. 6). The variable to use. q_jk (G_i) holds the object O in the object position and posture indicated by j at the holding position G indicated by k when the relative posture G_i of the first end effector E1 and the object O indicated by i is realized. This is the evaluation value when
上記の式(1)が示すように、把持品質評価値Q_ikは、jが示す対象物位置姿勢毎に、当該対象物位置姿勢の出現確率を重みとして乗算した評価値q_jk(G_i)を算出し、算出した対象位置姿勢毎の評価値q_jk(G_i)を全て足し合わせたΣq_jk(G_i)を対象位置姿勢の総数Nで除算した平均値である。ここで、Σは、jについての和の記号である。また、評価値q_jk(G_i)は、この一例において、2種類の評価値の和である。2種類の評価値の1つ目は、第1エンドエフェクターE1と対象物Oの相対的な位置の変化のし難さ(並進のし難さ)を表す並進評価値r_ijk(=r_jk(G_i))である。2種類の評価値の2つ目は、第1エンドエフェクターE1と対象物Oの相対的な姿勢の変化のし難さ(回転のし難さ)を表す回転評価値τ_ijk(τ_jk(G_i))である。並進評価値r_jk(G_i)によって算出される把持品質評価値を並進把持品質評価値1^Q_ikとし、回転評価値τ_jk(G_i)によって算出される把持品質評価値を回転把持品質評価値2^Q_ikとすると、これらはそれぞれ以下に示した式(2)、式(3)のように表される。 As shown in the above equation (1), the gripping quality evaluation value Q_ik calculates an evaluation value q_jk (G_i) obtained by multiplying the appearance probability of the target object position / posture by the weight for each target object position / posture indicated by j. The average value obtained by dividing Σq_jk (G_i), which is the sum of all the calculated evaluation values q_jk (G_i) for each target position and orientation, by the total number N of target positions and orientations. Here, Σ is a sum symbol for j. The evaluation value q_jk (G_i) is the sum of two types of evaluation values in this example. The first of the two types of evaluation values is a translation evaluation value r_ijk (= r_jk (G_i)) indicating the difficulty in changing the relative position between the first end effector E1 and the object O (difficulty in translation). ). The second of the two types of evaluation values is a rotation evaluation value τ_ijk (τ_jk (G_i)) that represents the difficulty in changing the relative posture of the first end effector E1 and the object O (difficulty in rotation). It is. The grip quality evaluation value calculated by the translation evaluation value r_jk (G_i) is taken as the translation grip quality evaluation value 1 ^ Q_ik, and the grip quality evaluation value calculated by the rotation evaluation value τ_jk (G_i) is the rotation grip quality evaluation value 2 ^ Q_ik. Then, these are respectively expressed as the following expressions (2) and (3).
把持品質評価値算出部46は、並進評価値r_ijkと、回転評価値τ_ijkとをそれぞれ算出する。把持品質評価値算出部46は、算出した並進評価値r_ijkに基づいて並進把持品質評価値1^Q_ikを算出し、算出した回転評価値τ_ijkに基づいて回転把持品質評価値2^Q_ikを算出する。そして、把持品質評価値算出部46は、前述の把持品質評価値Q_ikを、並進把持品質評価値1^Q_ikと回転把持品質評価値2^Q_ikの和として算出する。なお、把持品質評価値算出部46は、並進評価値r_ijkと、回転評価値τ_ijkとのいずれか一方のみを算出する構成であってもよい。この場合、把持品質評価値Q_ikは、並進把持品質評価値1^Q_ikと、回転把持品質評価値2^Q_ikとのいずれか一方のみのことである。
The gripping quality evaluation
以下、対象物位置姿勢毎の評価値q_jk(G_i)の算出方法について説明する。まず、対象物位置姿勢毎の並進評価値r_ijkを算出する処理について説明する。ステップS123において選択した第1エンドエフェクターE1の状態によって把持された対象物Oに対して対象物Oを並進させようとする力が加えられた場合、把持部位C11と、把持部位C12と、把持部位C13とのそれぞれに対しては、対象物Oから垂直抗力と摩擦力が加わる。 Hereinafter, a method for calculating the evaluation value q_jk (G_i) for each object position and orientation will be described. First, a process for calculating the translation evaluation value r_ijk for each object position and orientation will be described. When a force to translate the object O is applied to the object O grasped according to the state of the first end effector E1 selected in step S123, the grasping part C11, the grasping part C12, and the grasping part A normal force and a frictional force are applied from the object O to each of C13.
例えば、把持部位C11に対して対象物Oから加わる垂直抗力の大きさが、把持部位C11が対象物Oに対して加えることが可能な最大の力の大きさよりも大きい場合、対象物Oは、第1エンドエフェクターE1に対して並進する。また、把持部位C12に対して対象物Oから加わる垂直抗力の大きさが、把持部位C12が対象物Oに対して加えることが可能な最大の力の大きさよりも大きい場合、対象物Oは、第1エンドエフェクターE1に対して並進する。また、把持部位C13に対して対象物Oから加わる垂直抗力の大きさが、把持部位C13が対象物Oに対して加えることが可能な最大の力の大きさよりも大きい場合、対象物Oは、第1エンドエフェクターE1に対して並進する。 For example, when the magnitude of the vertical drag applied from the object O to the gripping part C11 is larger than the maximum force that the gripping part C11 can apply to the object O, the object O is It translates with respect to the 1st end effector E1. Further, when the magnitude of the vertical drag applied from the object O to the gripping part C12 is larger than the maximum force that the gripping part C12 can apply to the object O, the object O is It translates with respect to the 1st end effector E1. Further, when the magnitude of the vertical drag applied from the object O to the gripping part C13 is larger than the maximum force that the gripping part C13 can apply to the object O, the object O is It translates with respect to the 1st end effector E1.
また、把持部位C11が支えることが可能な最大の垂直抗力によって対象物Oから把持部位C11に対して加わる摩擦力も大きな力が、当該摩擦力の方向と反対の方向に対象物Oから加わった場合、対象物Oは、第1エンドエフェクターE1に対して並進する。また、把持部位C12が支えることが可能な最大の垂直抗力によって対象物Oから把持部位C12に対して加わる摩擦力も大きな力が、当該摩擦力の方向と反対の方向に対象物Oから加わった場合、対象物Oは、第1エンドエフェクターE1に対して並進する。また、把持部位C13が支えることが可能な最大の垂直抗力によって対象物Oから把持部位C13に対して加わる摩擦力も大きな力が、当該摩擦力の方向と反対の方向に対象物Oから加わった場合、対象物Oは、第1エンドエフェクターE1に対して並進する。 In addition, when a large force is applied from the object O in the direction opposite to the direction of the frictional force from the object O to the gripping part C11 due to the maximum vertical drag that can be supported by the gripping part C11. The object O translates with respect to the first end effector E1. Further, when a large frictional force is applied from the object O to the gripping part C12 by the maximum vertical drag that can be supported by the gripping part C12, from the object O in a direction opposite to the direction of the frictional force. The object O translates with respect to the first end effector E1. In addition, when a large force is applied from the object O in the direction opposite to the direction of the frictional force, the frictional force applied from the object O to the gripping part C13 by the maximum vertical drag that can be supported by the gripping part C13. The object O translates with respect to the first end effector E1.
これらのことから、この一例において、把持品質評価値算出部46は、第1エンドエフェクターE1が備える各把持部位が支えることが可能な最大の垂直抗力と、当該垂直抗力によって対象物Oから当該各把持部位に加わる摩擦力とに基づいて並進評価値r_ijkを算出する。第1エンドエフェクターE1が備える各把持部位が支えることが可能な最大の垂直抗力は、第1エンドエフェクターE1の状態と、対象位置姿勢と、第1力検出部11から取得される第1力検出情報に基づく制御とによって決定される。
Therefore, in this example, the gripping quality evaluation
以下では、把持部位C11が対象物Oから加えられる垂直抗力のうちの把持部位C11が支えることが可能な最大の垂直抗力を垂直抗力f1と称して説明する。また、以下では、把持部位C12が対象物Oから加えられる垂直抗力のうちの把持部位C12が対象物Oを支えることが可能な最大の垂直抗力を垂直抗力f2と称して説明する。また、以下では、把持部位C13が対象物Oから加えられる垂直抗力のうちの把持部位C13が対象物Oを支えることが可能な最大の垂直抗力を垂直抗力f3と称して説明する。 Hereinafter, the maximum vertical drag that can be supported by the gripping part C11 out of the vertical drags applied to the gripping part C11 from the object O will be referred to as a vertical drag f1. In the following description, the maximum vertical drag that the gripping part C12 can support the object O among the vertical drags applied to the gripping part C12 from the object O will be referred to as a vertical drag f2. In the following description, the maximum vertical drag that the gripping part C13 can support the object O among the vertical drags applied to the gripping part C13 from the object O will be referred to as a vertical drag f3.
ここで、図7〜図9を参照し、図7に示した垂直抗力f1〜垂直抗力f3に基づく並進評価値r_ijkの算出方法について説明する。図7は、第1エンドエフェクターE1が備える各把持部位が対象物Oから加えられる垂直抗力のうちの当該各把持部位が支えることが可能な最大の垂直抗力を例示する図である。図7では、垂直抗力f1〜垂直抗力f3それぞれの大きさと方向を矢印で表し、垂直抗力f1〜垂直抗力f3それぞれの作用点を、図7に示した座標系の原点に一致させている。図7に示した座標系の縦軸は、対象物Oの表面から他の物体へと加わる力のY軸方向成分の大きさを表す座標軸Fyである。また、図7に示した横軸は、対象物Oの表面から他の物体へと加わる力のX軸方向成分の大きさを表す座標軸Fxである。 Here, a method of calculating the translation evaluation value r_ijk based on the vertical drag f1 to the vertical drag f3 illustrated in FIG. 7 will be described with reference to FIGS. FIG. 7 is a diagram illustrating the maximum vertical drag that can be supported by each gripping portion of the vertical drag applied from the object O to each gripping portion included in the first end effector E1. In FIG. 7, the magnitudes and directions of the vertical drags f1 to f3 are indicated by arrows, and the action points of the vertical drags f1 to f3 are made to coincide with the origin of the coordinate system shown in FIG. The vertical axis of the coordinate system shown in FIG. 7 is a coordinate axis Fy representing the magnitude of the Y-axis direction component of the force applied from the surface of the object O to another object. Also, the horizontal axis shown in FIG. 7 is a coordinate axis Fx representing the magnitude of the X-axis direction component of the force applied from the surface of the object O to another object.
図7に示した垂直抗力f1〜垂直抗力f3のそれぞれを表す矢印に対して、図8に示したようにフリクションコーンを描くことができる。図8は、図7に示した垂直抗力f1〜垂直抗力f3のそれぞれを表す矢印に対してフリクションコーンを描いた図である。ここで、図8に示した垂直抗力f1を例に挙げてフリクションコーンについて説明する。前述したように、第1エンドエフェクターE1に対して対象物Oを並進させようとした場合、図7に示した垂直抗力f1〜垂直抗力f3のそれぞれによって、対象物Oは、第1エンドエフェクターE1が備える各把持部位に対して摩擦力を加える。 As shown in FIG. 8, a friction cone can be drawn with respect to the arrows representing the normal force f1 to the normal force f3 shown in FIG. FIG. 8 is a diagram in which a friction cone is drawn with respect to the arrows representing the normal force f1 to the normal force f3 shown in FIG. Here, the friction cone will be described by taking the normal force f1 shown in FIG. 8 as an example. As described above, when the object O is to be translated with respect to the first end effector E1, the object O is converted into the first end effector E1 by the vertical drag f1 to the vertical drag f3 shown in FIG. A frictional force is applied to each gripping part included in the.
垂直抗力f1によって把持部位C11に対して対象物Oから加わる摩擦力は、垂直抗力f1を表す矢印の終点と直交する面HLに沿った方向に加わる。面HLは、この一例では、対象物Oに働く力が二次元平面内に含まれる方向にのみ加わる場合を考えているため、線となっている。 The frictional force applied from the object O to the grip portion C11 by the vertical drag f1 is applied in a direction along the plane HL perpendicular to the end point of the arrow representing the vertical drag f1. In this example, the surface HL is a line because it is considered that the force acting on the object O is applied only in the direction included in the two-dimensional plane.
また、垂直抗力f1によって把持部位C11に対して対象物Oから摩擦力が加わる方向は、対象物Oを並進させようとする力の方向によって決まるため、垂直抗力f1を表す矢印の終点を始点として面HLに沿った全ての方向に加わり得る。すなわち、図8に示した例では、垂直抗力f1によって把持部位C11に対して対象物Oから加わり得る摩擦力は、摩擦力f1f1と摩擦力f1f2の2つである。図8に示したように、摩擦力f1f1を表す矢印の終点と、摩擦力f1f2を表す矢印の終点と、垂直抗力f1の始点とは、三角形を形成する。対象物Oに働く力が三次元空間内に含まれる方向に加わる場合、垂直抗力f1によって把持部位C11に対して対象物Oから加わり得る各摩擦力を表す矢印の終点と、垂直抗力f1を表す矢印の始点とは、三角錐を形成する。前述のフリクションコーンは、このような三角形や三角錐のことである。 In addition, the direction in which the frictional force is applied from the object O to the grasping part C11 by the vertical drag f1 is determined by the direction of the force that tries to translate the object O. It can join in all directions along the surface HL. That is, in the example shown in FIG. 8, the two frictional forces that can be applied from the object O to the gripping part C11 by the vertical drag f1 are the frictional force f1f1 and the frictional force f1f2. As shown in FIG. 8, the end point of the arrow representing the friction force f1f1, the end point of the arrow representing the friction force f1f2, and the start point of the normal force f1 form a triangle. When the force acting on the object O is applied in the direction included in the three-dimensional space, the end point of each arrow representing the frictional force that can be applied from the object O to the gripping portion C11 by the vertical drag f1 and the vertical drag f1. The starting point of the arrow forms a triangular pyramid. The aforementioned friction cone is such a triangle or a triangular pyramid.
図8には、垂直抗力f1に対するフリクションコーンを明確に示すため、垂直抗力f1を表す矢印の始点から摩擦力f1f1を表す矢印の終点までを結ぶ矢印f1rと、垂直抗力f1を表す矢印の始点から摩擦力f1f2を表す矢印の終点までを結ぶ矢印f1lとが描かれている。垂直抗力f1を表す矢印と矢印f1rとの間の角度と、垂直抗力f1を表す矢印と矢印f1lとの間の角度とは、両方とも角度βとなる。角度βは、対象物Oの表面の静止摩擦係数をμとすると、垂直抗力f1と摩擦力f1f1又は摩擦力f1f2との幾何学的な関係に基づいて、β=tan−1μによって算出することができる。この式から分かる通り、角度βは、垂直抗力f1の大きさや摩擦力f1f1又は摩擦力f1f2の大きさには依らず、静止摩擦係数μによってのみ決まる。 In FIG. 8, in order to clearly show the friction cone with respect to the normal force f1, the arrow f1r connecting the start point of the arrow indicating the normal force f1 to the end point of the arrow indicating the friction force f1f1, and the start point of the arrow indicating the normal force f1. An arrow f1l connecting the end point of the arrow representing the frictional force f1f2 is drawn. The angle between the arrow representing the normal force f1 and the arrow f1r and the angle between the arrow representing the normal force f1 and the arrow f1l are both the angle β. The angle β is calculated by β = tan −1 μ based on the geometrical relationship between the normal force f1 and the frictional force f1f1 or the frictional force f1f2 where the static friction coefficient of the surface of the object O is μ. Can do. As can be seen from this equation, the angle β is determined not only by the magnitude of the normal force f1 and the magnitude of the friction force f1f1 or the friction force f1f2, but only by the static friction coefficient μ.
垂直抗力f1に対するフリクションコーンを明確に示すための矢印f1r及び矢印f1lを描いた方法と同様の方法によって、図8には、垂直抗力f2に対するフリクションコーンを明確に示すための矢印f2r及び矢印f2lと、垂直抗力f3に対するフリクションコーンを明確に示すための矢印f3r及び矢印f3lとが描かれている。なお、ここでは、対象物Oの表面の静止摩擦係数μが、対象物Oの表面の至る所で一定であると仮定しているが、これに代えて、対象物Oの表面の一部において異なっていてもよい。 FIG. 8 shows an arrow f2r and an arrow f2l for clearly showing the friction cone with respect to the vertical drag f2 by a method similar to the method for drawing the arrow f1r and the arrow f1l for clearly showing the friction cone with respect to the vertical drag f1. In addition, an arrow f3r and an arrow f3l for clearly showing the friction cone with respect to the normal force f3 are drawn. Here, it is assumed that the static friction coefficient μ on the surface of the object O is constant throughout the surface of the object O, but instead, on a part of the surface of the object O, May be different.
図8に示したフリクションコーンを明確にするための各矢印の終点と、図8に示した各垂直抗力を表す矢印の終点との全てを包含する最小の多角形である凸包の体積は、大きければ大きいほど、対象物Oを並進させる力を対象物Oに加えた場合に第1エンドエフェクターE1と対象物Oの相対的な位置を変化させないように第1エンドエフェクターE1が対象物Oを支える能力が高いことを示す。このため、凸包の体積は、並進評価値r_ijkとして用いることができる特徴を有していると考えられる。しかし、例えば、このような凸包がある特定の方向に細長い場合、当該凸包の体積が大きいにも拘らず、当該方向とは異なる方向に対して対象物Oから第1エンドエフェクターE1に対して力が加わえられた際の第1エンドエフェクターE1が対象物Oを支える能力は、低い。このような理由から、凸包の体積そのものを並進評価値r_ijkとするのは好ましくない。 The volume of the convex hull, which is the smallest polygon that includes all of the end points of the arrows for clarifying the friction cone shown in FIG. 8 and the end points of the arrows representing the normal forces shown in FIG. The larger the value is, the more the first end effector E1 moves the object O so that the relative position between the first end effector E1 and the object O is not changed when a force that translates the object O is applied to the object O. Indicates that the ability to support is high. For this reason, it is considered that the volume of the convex hull has a characteristic that can be used as the translation evaluation value r_ijk. However, for example, when such a convex hull is elongated in a certain direction, the object O is directed from the object O to the first end effector E1 in a direction different from the direction although the volume of the convex hull is large. Therefore, the ability of the first end effector E1 to support the object O when the force is applied is low. For this reason, it is not preferable that the volume of the convex hull itself be the translation evaluation value r_ijk.
そこで、凸包の体積を表し、且つ特定の方向に対する第1エンドエフェクターE1が対象物Oを支える能力の高低を表すことが可能な量として、図8に示した座標系の原点から凸包に内接する最小の内接円の半径を考えることができる。 Therefore, the volume of the convex hull and the amount that can represent the level of the ability of the first end effector E1 to support the object O in a specific direction from the origin of the coordinate system shown in FIG. The radius of the smallest inscribed circle that is inscribed can be considered.
凸包に内接する最小の内接円の半径を算出するためには、図8に示したフリクションコーンを明確にするための各矢印の終点と、図8に示した各垂直抗力を表す矢印の終点とに基づいて凸包を生成する必要がある。また、凸包を生成するためには、図8に示したフリクションコーンを明確にするための各矢印の終点と、図8に示した各垂直抗力を表す矢印の終点とのそれぞれの座標を算出する必要がある。 In order to calculate the radius of the smallest inscribed circle inscribed in the convex hull, the end point of each arrow for clarifying the friction cone shown in FIG. 8 and the arrow indicating each vertical drag shown in FIG. It is necessary to generate a convex hull based on the end point. Further, in order to generate a convex hull, the respective coordinates of the end point of each arrow for clarifying the friction cone shown in FIG. 8 and the end point of the arrow representing each vertical drag shown in FIG. 8 are calculated. There is a need to.
例えば、図8に示した垂直抗力f1に対するフリクションコーンを明確にする矢印f1rの終点P1rの座標(x1r,y1r)は、図8に示した座標系の横軸と垂直抗力f1を表す矢印との間の角度をαとした場合、垂直抗力f1を表す矢印と、矢印f1rとの幾何学的な関係から、以下の式(4)〜式(8)を用いて算出することができる。 For example, the coordinates (x1r, y1r) of the end point P1r of the arrow f1r for clarifying the friction cone with respect to the vertical drag f1 shown in FIG. 8 are the horizontal axis of the coordinate system shown in FIG. 8 and the arrow indicating the vertical drag f1. When the angle between them is α, it can be calculated from the geometric relationship between the arrow representing the normal force f1 and the arrow f1r using the following equations (4) to (8).
|f1r|=|f1|/cos(β) ・・・(4)
x1r=|f1r|cos(α+β) ・・・(5)
y1r=|f1r|sin(α+β) ・・・(6)
| F1r | = | f1 | / cos (β) (4)
x1r = | f1r | cos (α + β) (5)
y1r = | f1r | sin (α + β) (6)
また、垂直抗力f1に対するフリクションコーンを明確にするための矢印f1lの終点P1lの座標(x1l,y1l)は、垂直抗力f1を表す矢印と、矢印f1lと、矢印f1lとの幾何学的な関係から、以下の式(7)〜式(9)を用いて算出することができる。
|f1l|=|f1|/cos(β) ・・・(7)
x1l=|f1l|cos(α−β) ・・・(8)
y1l=|f1l|sin(α−β) ・・・(9)
Further, the coordinates (x1l, y1l) of the end point P1l of the arrow f1l for clarifying the friction cone with respect to the vertical drag f1 are based on the geometric relationship between the arrow representing the vertical drag f1, the arrow f1l, and the arrow f1l. These can be calculated using the following formulas (7) to (9).
| F1l | = | f1 | / cos (β) (7)
x1l = | f1l | cos (α−β) (8)
y1l = | f1l | sin (α−β) (9)
把持品質評価値算出部46は、上記の式(4)〜式(9)を用いて、終点P1r及び終点P1lの座標を算出する。また、把持品質評価値算出部46は、終点P1r及び終点P1lの座標を算出した方法と同様の方法によって、矢印f2r及び矢印f2lそれぞれの終点の座標と、矢印f3r及び矢印f3lそれぞれの終点の座標とを算出する。把持品質評価値算出部46は、算出したこれらの座標に基づいて、図9に示した凸包を生成する。
The gripping quality evaluation
図9は、把持品質評価値算出部46が生成する凸包の一例を示す図である。図9に示した凸包CHは、図8に示したフリクションコーンを明確にするための6本の矢印それぞれの終点に基づいて生成された凸包である。把持品質評価値算出部46は、図9に示した座標系(すなわち、図8に示した座標系)の原点から凸包に内接する最小の内接円ICを生成する。そして、把持品質評価値算出部46は、生成した内接円ICの半径r1を並進評価値として算出する。
FIG. 9 is a diagram illustrating an example of a convex hull generated by the gripping quality evaluation
図9に示した例では、図9に示した座標系の原点から内接円ICが凸包に接した点までの距離である半径r1は、矢印f1rの終点と矢印f3lの終点とを結ぶ線分に対して、図9に示した座標系の原点から垂線を引いた際の当該垂線の長さである。このような垂線の長さの算出は、矢印f1rの終点の座標と、矢印f3lの終点の座標と、当該原点の座標とに基づく初等的な幾何学を用いて算出可能なため、説明を省略する。 In the example shown in FIG. 9, the radius r1, which is the distance from the origin of the coordinate system shown in FIG. 9 to the point where the inscribed circle IC touches the convex hull, connects the end point of the arrow f1r and the end point of the arrow f3l. This is the length of the perpendicular when a perpendicular is drawn from the origin of the coordinate system shown in FIG. Since the calculation of the length of such a perpendicular line can be calculated using elementary geometry based on the coordinates of the end point of the arrow f1r, the coordinates of the end point of the arrow f3l, and the coordinates of the origin point, description thereof is omitted. To do.
このように、把持品質評価値算出部46は、第1エンドエフェクターE1が備える各把持部位が支えることが可能な最大の垂直抗力と、当該垂直抗力に対するフリクションコーンとに基づいて生成される凸包に内接する最小の内接円の半径を、並進評価値r_ijkとして算出する。なお、把持品質評価値算出部46は、並進評価値r_ijkとして、当該凸包の体積を算出する構成であってもよく、当該凸包に基づく他の値を算出する構成であってもよく、当該凸包と無関係な他の値を算出する構成であってもよい。
In this way, the gripping quality evaluation
次に、回転評価値τ_ijkを算出する処理について説明する。把持品質評価値算出部46は、ステップS123において選択した第1エンドエフェクターE1の状態によって把持された対象物Oに対して対象物Oを回転させようとする力が加えられた場合、並進させようとする力が当該対象物Oに加えられた場合と同様に、把持部位C11と、把持部位C12と、把持部位C13とのそれぞれに対しては、対象物Oから垂直抗力と摩擦力が加わる。
Next, a process for calculating the rotation evaluation value τ_ijk will be described. The gripping quality evaluation
当該摩擦力は、対象物Oを回転させようとする力が対象物Oに加えられた場合、対象物Oを回転させないように支える。より具体的には、当該摩擦力による対象物Oを回転させようとする回転モーメントと、対象物Oを回転させようとする力による対象物Oを回転させようとする回転モーメントとが、大きさが互いに等しく、方向が互いに反対向きである限り、当該摩擦力は、対象物Oを回転させないように支える。 The frictional force supports the object O so as not to rotate when a force for rotating the object O is applied to the object O. More specifically, the rotational moment for rotating the object O by the frictional force and the rotational moment for rotating the object O by the force for rotating the object O are large. Are equal to each other and the directions are opposite to each other, the friction force supports the object O so as not to rotate.
このことから、この一例において、把持品質評価値算出部46は、第1エンドエフェクターE1が備える各把持部位が支えることが可能な最大の垂直抗力によって対象物Oから当該各把持部位に加わる摩擦力により生じる回転モーメントに基づいて回転評価値τ_ijkを算出する。
Therefore, in this example, the gripping quality evaluation
ここで、図10を参照し、回転評価値τ_ijkを算出する方法について説明する。図10は、第1エンドエフェクターE1が備える各把持部位に対して対象物Oから加わっている垂直抗力及び摩擦力を例示した図である。図10に示した把持位置Gの位置は、ステップS123において選択された第1エンドエフェクターE1の状態を表すベクトルが有する成分によって決まる。図10には、第1エンドエフェクターE1に把持された対象物Oが、把持位置Gを回転中心として図10に示した矢印ROの方向、すなわち時計回りに回転させようとする力が働いた様子が示されている。 Here, a method for calculating the rotation evaluation value τ_ijk will be described with reference to FIG. FIG. 10 is a view exemplifying normal force and friction force applied from the object O to each gripping portion provided in the first end effector E1. The position of the gripping position G shown in FIG. 10 is determined by the component of the vector representing the state of the first end effector E1 selected in step S123. In FIG. 10, the object O gripped by the first end effector E1 exerts a force to rotate in the direction of the arrow RO shown in FIG. It is shown.
この一例において、回転評価値τ_ijkを算出する際、把持部位C11に対して対象物Oから垂直抗力f1が加わり、把持部位C12に対して対象物Oから垂直抗力f2が加わり、把持部位C13に対して対象物Oから垂直抗力f3が加わる状況を想定する。このため、図10では、垂直抗力f1によって把持部位C11に対して対象物Oから加わる摩擦力を摩擦力μf1によって示し、垂直抗力f2によって把持部位C12に対して対象物Oから加わる摩擦力を摩擦力μf2によって示し、垂直抗力f3によって把持部位C13に対して対象物Oから加わる摩擦力を摩擦力μf3によって示した。また、図10では、対象物Oの輪郭を形成する6つの辺のうちの把持部位C11が接している辺から把持位置Gまでの最短距離を距離r4によって示し、対象物Oの輪郭を形成する6つの辺のうちの把持部位C12が接している辺から把持位置Gまでの最短距離を距離r5によって示し、対象物Oの輪郭を形成する6つの辺のうちの把持部位C13が接している辺から把持位置Gまでの最短距離を距離r6によって示した。 In this example, when the rotation evaluation value τ_ijk is calculated, the vertical drag f1 is applied from the object O to the gripping part C11, the vertical drag f2 is applied from the object O to the gripping part C12, and the gripping part C13 is applied. Assume that the vertical force f3 is applied from the object O. For this reason, in FIG. 10, the frictional force applied from the object O to the gripping part C11 by the vertical drag f1 is indicated by the friction force μf1, and the frictional force applied from the object O to the gripping part C12 by the vertical drag f2 is rubbed. The frictional force indicated by the force μf2 and the frictional force applied from the object O to the gripping part C13 by the vertical drag force f3 is indicated by the frictional force μf3. Further, in FIG. 10, the shortest distance from the side of the six sides that form the contour of the object O to which the gripping part C11 is in contact to the gripping position G is indicated by a distance r4, and the contour of the target object O is formed. Of the six sides, the shortest distance from the side where the gripping part C12 is in contact to the gripping position G is indicated by the distance r5, and the side where the gripping part C13 is in contact among the six sides forming the outline of the object O The shortest distance from the gripping position G to the gripping position G is indicated by a distance r6.
この一例では、把持品質評価値算出部46は、対象物Oの回転中心が常に把持位置Gであるとして回転評価値を算出する。なお、対象物Oの回転中心は、把持位置Gに代えて、第1アームのTCPであってもよく、対象物Oに対応付けられる他の位置であってもよい。把持品質評価値算出部46は、摩擦力μf1によって生じる回転モーメントであって、把持位置Gを回転中心として対象物Oを矢印ROの向きとは反対向きに回転させようとする回転モーメントμf1×r4を算出する。また、把持品質評価値算出部46は、摩擦力μf2によって生じる回転モーメントであって、把持位置Gを回転中心として対象物Oを矢印ROの向きとは反対向きに回転させようとする回転モーメントμf2×r5を算出する。また、把持品質評価値算出部46は、摩擦力μf3によって生じる回転モーメントであって、把持位置Gを回転中心として対象物Oを矢印ROの向きとは反対向きに回転させようとする回転モーメントμf3×r6を算出する。
In this example, the grip quality evaluation
把持品質評価値算出部46は、算出したこれら3つの回転モーメントの総和を回転評価値τ_ijkとして算出する。このようにして、把持品質評価値算出部46は、第1エンドエフェクターE1が備える各把持部位が支えることが可能な最大の垂直抗力によって当該各把持部位に対して対象物Oから加わる摩擦力により生じる回転モーメントに基づいて回転評価値τ_ijkを算出する。なお、把持品質評価値算出部46は、これら3つの回転モーメントに基づく他の値を回転評価値τ_ijkとして算出する構成であってもよく、これら3つの回転モーメントとは異なる他の値に基づく値を回転評価値τ_ijkとして算出する構成であってもよい。
The gripping quality evaluation
以上のようにして並進評価値r_ijkと回転評価値τ_ijkが算出された後、把持品質評価値算出部46は、上記の式(2)に基づいて並進把持品質評価値1^Q_ikを算出し、上記の式(3)に基づいて回転把持品質評価値2^Q_ikを算出する。そして、把持品質評価値算出部46は、算出した並進把持品質評価値1^Q_ikと回転把持品質評価値2^Q_ikの和を把持品質評価値Q_ikとして算出する。すなわち、把持品質評価値算出部46は、以下の式(10)に基づいて把持品質評価値Q_ikを算出する。
After the translation evaluation value r_ijk and the rotation evaluation value τ_ijk are calculated as described above, the gripping quality evaluation
Q_ik=1^Q_ik+2^Q_ik ・・・(10) Q_ik = 1 ^ Q_ik + 2 ^ Q_ik (10)
なお、把持品質評価値算出部46は、重みωを用いて、以下に示した式(11)のように並進把持品質評価値1^Q_ikと回転把持品質評価値2^Q_ikとの相対的な大きさを調整する構成であってもよい。
Note that the gripping quality evaluation
Q_ik=1^Q_ik+ω×2^Q_ik ・・・(11) Q_ik = 1 ^ Q_ik + ω × 2 ^ Q_ik (11)
重みωは、0以上1以下の値である。これにより、例えば、把持品質評価値算出部46は、第1エンドエフェクターE1に対する対象物Oの並進し難さを表す並進把持品質評価値1^Q_ikと、第1エンドエフェクターE1に対する対象物Oの回転し難さを表す回転把持品質評価値2^Q_ikとを同程度の大きさに調整することができる。
The weight ω is a value between 0 and 1. Thereby, for example, the gripping quality evaluation
ステップS125の処理を繰り返すことにより、ステップS123において選択された第1エンドエフェクターE1の状態毎に把持品質評価値Q_ikを算出した後、ハンド状態決定部47は、ステップS125において算出された複数の把持品質評価値Q_ikの中から最大の把持品質評価値Q_ikを抽出する。そして、ハンド状態決定部47は、抽出した最大の把持品質評価値Q_ikを算出するために用いられた第1エンドエフェクターE1の状態を、第1エンドエフェクターE1に対象物Oを把持させる際に適した第1エンドエフェクターE1の状態として決定する(ステップS130)。
After calculating the grip quality evaluation value Q_ik for each state of the first end effector E1 selected in step S123 by repeating the process of step S125, the hand
次に、ロボット制御部48は、ステップS130において決定された第1エンドエフェクターE1の状態をロボット20に実現させ、対象物Oをロボット20に把持させる。そして、ロボット制御部48は、ロボット20が把持した対象物Oを、給材領域Aへロボット20に給材させ(ステップS140)、処理を終了する。
Next, the
以上説明したように、実施形態におけるロボット20のロボット制御装置30は、対象物Oの位置及び姿勢と、当該位置及び姿勢の誤差情報と、ハンド(この一例において、第1エンドエフェクターE1)の状態とに基づきハンドの状態を決定する。これにより、ロボット制御装置30は、ハンドに対象物Oを把持させる際に適したハンドの状態によって対象物Oをハンドに把持させることができる。
As described above, the
また、ロボット制御装置30は、対象物Oの位置及び姿勢を画像(この一例において、第3撮像部23が撮像した撮像画像)から検出する。これにより、ロボット制御装置30は、画像から検出した対象物Oの位置及び姿勢に基づいて決定されたハンドの状態によって対象物Oをハンドに把持させることができる。
In addition, the
また、ロボット制御装置30は、対象物Oの位置及び姿勢と、当該位置及び姿勢の誤差情報と、ハンドの状態とに基づく当該ハンドの状態を評価する評価値(例えば、上記で説明した並進評価値、回転評価値、並進把持品質評価値、回転把持品質評価値のうちの少なくともいずれか1つ)に応じてハンドの状態を決定する。これにより、ロボット制御装置30は、ハンドに対象物Oを把持させる際に適したハンドの状態によって対象物Oをハンドに把持させることができる。
Further, the
また、ロボット制御装置30は、ハンドにより対象物Oが把持された際に、ハンドと対象物Oとの相対的な位置及び姿勢の変化のし難さを示す値である評価値に応じてハンドの状態を決定する。これにより、ロボット制御装置30は、ハンドにより対象物Oが把持された際に、ハンドと対象物Oとの相対的な位置及び姿勢の変化のし難さを示す値である評価値に応じて決定されたハンドの状態によって対象物Oを把持することができる。
Further, the
また、ロボット制御装置30は、ハンドにより対象物Oが把持された際に、ハンドに対する対象物Oの並進のし難さを示す値を含む評価値(例えば、上記で説明した並進評価値や並進把持品質評価値)に基づいてハンドの状態を決定する。これにより、ロボット制御装置30は、ハンドにより対象物Oが把持された際に、ハンドに対する対象物Oの並進のし難さを示す値を含む評価値に応じて決定されたハンドの状態によって対象物Oを把持することができる。
In addition, the
また、ロボット制御装置30は、ハンドにより対象物Oが把持された際に、ハンドに対する対象物Oの回転のし難さを示す値を含む評価値(例えば、上記で説明した回転評価値や回転把持品質評価値)に基づいてハンドの状態を決定する。これにより、ロボット制御装置30は、ハンドにより対象物Oが把持された際に、ハンドに対する対象物Oの回転のし難さを示す値を含む評価値に基づいて決定されたハンドの状態によって対象物Oを把持することができる。
In addition, the
また、ロボット制御装置30は、対象物Oの位置及び姿勢と、当該位置及び姿勢の誤差情報と、ハンドと対象物との相対的な位置及び姿勢を含むハンドの状態とに基づきハンドの状態を決定する。これにより、ロボット制御装置30は、ハンドと対象物Oとの相対的な位置及び姿勢を含むハンドの状態に基づいて決定されたハンドの状態によって対象物Oを把持することができる。
The
また、ロボット制御装置30は、対象物Oの位置及び姿勢と、当該位置及び姿勢の誤差情報と、ハンドが備える把持部位(この一例において、把持部位C11、把持部位C12、把持部位C13)間の角度を含むハンドの状態とに基づきハンドの状態を決定する。これにより、ロボット制御装置30は、ハンドが備える把持部位間の角度を含むハンドの状態に基づいて決定されたハンドの状態によって対象物Oを把持することができる。
In addition, the
また、ロボット制御装置30は、対象物Oの位置及び姿勢と、確率分布(この一例において、正規分布)を示す情報である誤差情報と、ハンドの状態とに基づきハンドの状態を決定する。これにより、ロボット制御装置30は、対象物Oの位置及び姿勢と、確率分布を示す情報と、ハンドの状態とに基づいて決定されたハンドの状態によって対象物Oを把持することができる。
In addition, the
また、ロボット制御装置30は、対象物Oの位置及び姿勢と、誤差の範囲を示す情報である誤差情報と、ハンドの状態とに基づきハンドの状態を決定する。これにより、ロボット制御装置30は、対象物Oの位置及び姿勢と、誤差の範囲を示す情報と、ハンドの状態とに基づいて決定されたハンドの状態によって対象物Oを把持することができる。
Further, the
以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない限り、変更、置換、削除等されてもよい。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and changes, substitutions, deletions, and the like are possible without departing from the gist of the present invention. May be.
また、以上に説明した装置(例えば、ロボット20のロボット制御装置30)における任意の構成部の機能を実現するためのプログラムを、コンピューター読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
Further, a program for realizing the function of an arbitrary component in the apparatus described above (for example, the
また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
In addition, the above program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Further, the above program may be for realizing a part of the functions described above. Further, the program may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.
11…第1力検出部、12…第2力検出部、20…ロボット、21…第1撮像部、22…第2撮像部、23…第3撮像部、24…第4撮像部、30…ロボット制御装置、31…CPU、32…記憶部、33…入力受付部、34…通信部、35…表示部、36…制御部、40…力検出情報取得部、41…撮像制御部、42…画像取得部、44…位置姿勢検出部、46…把持品質評価値算出部、47…ハンド状態決定部、48…ロボット制御部
DESCRIPTION OF
Claims (12)
対象物の位置及び姿勢と、当該位置及び姿勢の誤差情報と、前記ハンドの状態とに基づき前記ハンドの状態を決定するロボット制御装置と、
を備えるロボットシステム。 A robot with a hand,
A robot control device that determines the state of the hand based on the position and posture of the object, error information of the position and posture, and the state of the hand;
A robot system comprising:
請求項1記載のロボットシステム。 The robot controller detects the position and orientation of the object from an image;
The robot system according to claim 1.
請求項1又は2に記載のロボットシステム。 The robot control device determines the state of the hand according to an evaluation value for evaluating the state of the hand based on the position and orientation of the object, the error information, and the state of the hand;
The robot system according to claim 1 or 2.
請求項3に記載のロボットシステム。 The evaluation value is a value indicating a difficulty in changing a relative position and posture between the hand and the object when the object is gripped by the hand.
The robot system according to claim 3.
請求項4に記載のロボットシステム。 The evaluation value includes a value indicating difficulty in translation of the object relative to the hand when the object is gripped by the hand.
The robot system according to claim 4.
請求項4又は5に記載のロボットシステム。 The evaluation value includes a value indicating difficulty in rotation of the object relative to the hand when the object is gripped by the hand.
The robot system according to claim 4 or 5.
請求項1から6のうちいずれか一項に記載のロボットシステム。 The state of the hand includes a relative position and posture between the hand and the object.
The robot system according to any one of claims 1 to 6.
請求項1から7のうちいずれか一項に記載のロボットシステム。 The state of the hand includes an angle between gripping parts included in the hand,
The robot system according to any one of claims 1 to 7.
請求項1から8のうちいずれか一項に記載のロボットシステム。 The error information is information indicating a probability distribution.
The robot system according to any one of claims 1 to 8.
請求項1から9のうちいずれか一項に記載のロボットシステム。 The error information is information indicating an error range.
The robot system according to any one of claims 1 to 9.
対象物の位置及び姿勢と、当該位置及び姿勢の誤差情報と、前記ハンドの状態とに基づく評価値に応じて前記ハンドの状態を決定する、
ロボット。 With a hand,
Determining the state of the hand according to an evaluation value based on the position and orientation of the object, error information on the position and orientation, and the state of the hand;
robot.
ロボット制御装置。 Determining the state of the hand according to an evaluation value based on the position and posture of the object, error information on the position and posture, and the state of the hand included in the robot;
Robot control device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015179849A JP2017052073A (en) | 2015-09-11 | 2015-09-11 | Robot system, robot and robot control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015179849A JP2017052073A (en) | 2015-09-11 | 2015-09-11 | Robot system, robot and robot control device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017052073A true JP2017052073A (en) | 2017-03-16 |
Family
ID=58316670
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015179849A Pending JP2017052073A (en) | 2015-09-11 | 2015-09-11 | Robot system, robot and robot control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017052073A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7364505B2 (en) | 2020-03-18 | 2023-10-18 | 株式会社東芝 | Handling equipment, control equipment and programs |
-
2015
- 2015-09-11 JP JP2015179849A patent/JP2017052073A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7364505B2 (en) | 2020-03-18 | 2023-10-18 | 株式会社東芝 | Handling equipment, control equipment and programs |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6380828B2 (en) | Robot, robot system, control device, and control method | |
US10589424B2 (en) | Robot control device, robot, and robot system | |
US10828782B2 (en) | Robot system, robot, and robot control apparatus | |
US10350768B2 (en) | Control device, robot, and robot system | |
US20160184996A1 (en) | Robot, robot system, control apparatus, and control method | |
US20170277167A1 (en) | Robot system, robot control device, and robot | |
JP6364836B2 (en) | Robot, robot system, and control device | |
JP2009269127A (en) | Holding device and method of controlling the same | |
US20180085920A1 (en) | Robot control device, robot, and robot system | |
US20180215044A1 (en) | Image processing device, robot control device, and robot | |
JP2017205819A (en) | Robot, control device and robot system | |
US20160306340A1 (en) | Robot and control device | |
JP6665450B2 (en) | Robot, control device, and robot system | |
JP6455869B2 (en) | Robot, robot system, control device, and control method | |
JP2017052073A (en) | Robot system, robot and robot control device | |
JP2015182212A (en) | Robot system, robot, control device, and control method | |
JP6958091B2 (en) | Robot system and robot control method | |
JP2015157343A (en) | Robot, robot system, control device, and control method | |
JP2017219359A (en) | Shape measuring device, robot controller, and robot | |
JP2017047478A (en) | Control device, robot, and robot system | |
JP2017100197A (en) | Robot and control method | |
JP2018051689A (en) | Robot, robot control device, and robot system | |
JP2016013610A (en) | Robot, and control method | |
JP2018001321A (en) | Robot, robot control device and robot system | |
JP2018034245A (en) | Robot, robot control device, and robot system |