JP2017052073A - Robot system, robot and robot control device - Google Patents

Robot system, robot and robot control device Download PDF

Info

Publication number
JP2017052073A
JP2017052073A JP2015179849A JP2015179849A JP2017052073A JP 2017052073 A JP2017052073 A JP 2017052073A JP 2015179849 A JP2015179849 A JP 2015179849A JP 2015179849 A JP2015179849 A JP 2015179849A JP 2017052073 A JP2017052073 A JP 2017052073A
Authority
JP
Japan
Prior art keywords
hand
robot
evaluation value
state
gripping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015179849A
Other languages
Japanese (ja)
Inventor
高志 南本
Takashi Minamimoto
高志 南本
一弘 小菅
Kazuhiro Kosuge
一弘 小菅
シリンダ クレワッタナクル
Khurewattanakul Sirinda
シリンダ クレワッタナクル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015179849A priority Critical patent/JP2017052073A/en
Publication of JP2017052073A publication Critical patent/JP2017052073A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a robot system that allows a hand to grip an object in a suitable hand state when causing the hand to grip the object.SOLUTION: A robot system comprises: a robot comprising a hand; and a robot control device for determining a hand state based on a position and a posture of an object, error information of the position and the posture and the hand state.SELECTED DRAWING: Figure 3

Description

この発明は、ロボットシステム、ロボット、及びロボット制御装置に関する。   The present invention relates to a robot system, a robot, and a robot control apparatus.

対象物が撮像された撮像画像に基づいてロボットに対象物を把持させる技術の研究や開発が行われている。   Research and development have been conducted on techniques for causing a robot to hold an object based on a captured image obtained by imaging the object.

これに関し、ロボットが対象物を把持するパターンである把持パターンのうち、ロボットによる対象物の把持がどれだけしっかりと対象物体を把持できるかを示すスカラ値である把持品質評点が高い把持パターンを選択する方法が知られている(特許文献1参照)。   In this regard, a grip pattern with a high gripping quality score, which is a scalar value indicating how firmly the target can be gripped by the robot, is selected from grip patterns that are patterns that the robot grips the target. There is a known method (see Patent Document 1).

特開2013−144355号公報JP2013-144355A

しかしながら、上記の特許文献1には、ロボットのハンドの状態に適した把持パターンを選択する具体的な方法が示されておらず、ロボットのハンドの状態に適した把持パターンによって対象物を把持することが困難な場合があった。   However, the above-mentioned Patent Document 1 does not show a specific method for selecting a grip pattern suitable for the state of the robot hand, and grips an object using the grip pattern suitable for the state of the robot hand. It was sometimes difficult.

上記課題の少なくとも一つを解決するために本発明の一態様は、ハンドを備えるロボットと、対象物の位置及び姿勢と、当該位置及び姿勢の誤差情報と、前記ハンドの状態とに基づき前記ハンドの状態を決定するロボット制御装置と、を備えるロボットシステムである。
この構成により、ロボットシステムは、対象物の位置及び姿勢と、当該位置及び姿勢の誤差情報と、ハンドの状態とに基づきハンドの状態を決定する。これにより、ロボットシステムは、ハンドに対象物を把持させる際に適したハンドの状態によって対象物をハンドに把持させることができる。
In order to solve at least one of the above problems, an embodiment of the present invention provides a robot including a hand, the position and orientation of an object, error information on the position and orientation, and the state of the hand. A robot control device that determines the state of the robot.
With this configuration, the robot system determines the hand state based on the position and posture of the object, error information on the position and posture, and the hand state. Accordingly, the robot system can cause the hand to hold the object according to the state of the hand suitable for causing the hand to hold the object.

また、本発明の他の態様は、ロボットシステムにおいて、ロボット制御装置は、前記対象物の位置及び姿勢を画像から検出する、構成が用いられてもよい。
この構成により、ロボットシステムは、対象物の位置及び姿勢を画像から検出する。これにより、ロボットシステムは、画像から検出した対象物の位置及び姿勢に基づいて決定されたハンドの状態によって対象物をハンドに把持させることができる。
In another aspect of the present invention, in the robot system, a configuration may be used in which the robot control device detects the position and orientation of the object from the image.
With this configuration, the robot system detects the position and orientation of the object from the image. As a result, the robot system can cause the hand to hold the object according to the hand state determined based on the position and orientation of the object detected from the image.

また、本発明の他の態様は、ロボットシステムにおいて、前記ロボット制御装置は、前記対象物の位置及び姿勢と、前記誤差情報と、前記ハンドの状態とに基づく前記ハンドの状態を評価する評価値に応じて前記ハンドの状態を決定する、構成が用いられてもよい。
この構成により、ロボットシステムは、対象物の位置及び姿勢と、誤差情報と、ハンドの状態とに基づくハンドの状態を評価する評価値に応じてハンドの状態を決定する。これにより、ロボットシステム1は、ハンドの状態を評価する評価値に応じて決定されたハンドの状態によって対象物をハンドに把持させることができる。
According to another aspect of the present invention, in the robot system, the robot control device evaluates the hand state based on the position and orientation of the object, the error information, and the hand state. A configuration may be used in which the state of the hand is determined according to.
With this configuration, the robot system determines the hand state according to the evaluation value for evaluating the hand state based on the position and orientation of the object, error information, and the hand state. Thereby, the robot system 1 can make a hand hold | grip a target object with the state of the hand determined according to the evaluation value which evaluates the state of a hand.

また、本発明の他の態様は、ロボットシステムにおいて、前記評価値は、前記ハンドにより前記対象物が把持された際に、前記ハンドと前記対象物との相対的な位置及び姿勢の変化のし難さを示す値である、構成が用いられてもよい。
この構成により、ロボットシステムは、ハンドにより対象物が把持された際に、ハンドと対象物との相対的な位置及び姿勢の変化のし難さを示す値である評価値に応じてハンドの状態を決定する。これにより、ロボットシステムは、ハンドにより対象物が把持された際に、ハンドと対象物との相対的な位置及び姿勢の変化のし難さを示す値である評価値に応じて決定されたハンドの状態によって対象物を把持することができる。
According to another aspect of the present invention, in the robot system, the evaluation value is a change in a relative position and posture of the hand and the object when the object is gripped by the hand. A configuration that is a value indicating difficulty may be used.
With this configuration, when the object is gripped by the hand, the robot system determines the state of the hand according to the evaluation value, which is a value indicating the difficulty of changing the relative position and posture between the hand and the object. To decide. Thereby, when the object is gripped by the hand, the robot system determines the hand determined according to the evaluation value, which is a value indicating the difficulty of changing the relative position and posture between the hand and the object. The object can be gripped depending on the state.

また、本発明の他の態様は、ロボットシステムにおいて、前記評価値には、前記ハンドにより前記対象物が把持された際に、前記ハンドに対する前記対象物の並進のし難さを示す値が含まれる、構成が用いられてもよい。
この構成により、ロボットシステムは、ハンドにより対象物が把持された際に、ハンドに対する対象物の並進のし難さを示す値を含む評価値に基づいてハンドの状態を決定する。これにより、ロボットシステムは、ハンドにより対象物が把持された際に、ハンドに対する対象物の並進のし難さを示す値を含む評価値に応じて決定されたハンドの状態によって対象物を把持することができる。
In another aspect of the present invention, in the robot system, the evaluation value includes a value indicating difficulty in translation of the object relative to the hand when the object is gripped by the hand. A configuration may be used.
With this configuration, when the object is gripped by the hand, the robot system determines the state of the hand based on an evaluation value including a value indicating the difficulty of translation of the object with respect to the hand. Thus, when the object is grasped by the hand, the robot system grasps the object according to the state of the hand determined according to the evaluation value including the value indicating the difficulty of translation of the object with respect to the hand. be able to.

また、本発明の他の態様は、ロボットシステムにおいて、前記評価値には、前記ハンドにより前記対象物が把持された際に、前記ハンドに対する前記対象物の回転のし難さを示す値が含まれる、構成が用いられてもよい。
この構成により、ロボットシステムは、ハンドにより対象物が把持された際に、ハンドに対する対象物の回転のし難さを示す値を含む評価値に基づいてハンドの状態を決定する。これにより、ロボットシステムは、ハンドにより対象物が把持された際に、ハンドに対する対象物の回転のし難さを示す値を含む評価値に基づいて決定されたハンドの状態によって対象物を把持することができる。
In another aspect of the present invention, in the robot system, the evaluation value includes a value indicating difficulty in rotation of the object relative to the hand when the object is gripped by the hand. A configuration may be used.
With this configuration, when the object is gripped by the hand, the robot system determines the state of the hand based on an evaluation value including a value indicating the difficulty of rotating the object with respect to the hand. Thus, when the object is grasped by the hand, the robot system grasps the object according to the state of the hand determined based on the evaluation value including the value indicating the difficulty of rotation of the object with respect to the hand. be able to.

また、本発明の他の態様は、ロボットシステムにおいて、前記ハンドの状態には、前記ハンドと前記対象物との相対的な位置及び姿勢が含まれる、構成が用いられてもよい。
この構成により、ロボットシステムは、対象物の位置及び姿勢と、当該位置及び姿勢の誤差情報と、ハンドと対象物との相対的な位置及び姿勢を含むハンドの状態とに基づきハンドの状態を決定する。これにより、ロボットシステムは、ハンドと対象物との相対的な位置及び姿勢を含むハンドの状態に基づいて決定されたハンドの状態によって対象物を把持することができる。
According to another aspect of the present invention, in the robot system, a configuration in which the state of the hand includes a relative position and posture of the hand and the target object may be used.
With this configuration, the robot system determines the state of the hand based on the position and orientation of the object, error information on the position and orientation, and the state of the hand including the relative position and orientation of the hand and the object. To do. Thereby, the robot system can hold the object according to the hand state determined based on the hand state including the relative position and posture between the hand and the object.

また、本発明の他の態様は、ロボットシステムにおいて、前記ハンドの状態には、前記ハンドが備える把持部位間の角度が含まれる、構成が用いられてもよい。
この構成により、ロボットシステムは、対象物の位置及び姿勢と、当該位置及び姿勢の誤差情報と、ハンドが備える把持部位間の角度を含むハンドの状態とに基づきハンドの状態を決定する。これにより、ロボットシステムは、ハンドが備える把持部位間の角度を含むハンドの状態に基づいて決定されたハンドの状態によって対象物を把持することができる。
Further, according to another aspect of the present invention, in the robot system, a configuration may be used in which the state of the hand includes an angle between gripping parts included in the hand.
With this configuration, the robot system determines the state of the hand based on the position and posture of the object, error information on the position and posture, and the state of the hand including the angle between the gripping parts included in the hand. Thereby, the robot system can hold the object according to the state of the hand determined based on the state of the hand including the angle between the holding parts included in the hand.

また、本発明の他の態様は、ロボットシステムにおいて、前記誤差情報は、確率分布を示す情報である、構成が用いられてもよい。
この構成により、ロボットシステムは、対象物の位置及び姿勢と、確率分布を示す情報である誤差情報と、ハンドの状態とに基づきハンドの状態を決定する。これにより、ロボットシステムは、対象物の位置及び姿勢と、確率分布を示す情報と、ハンドの状態とに基づいて決定されたハンドの状態によって対象物を把持することができる。
According to another aspect of the present invention, in the robot system, the error information may be information indicating a probability distribution.
With this configuration, the robot system determines the hand state based on the position and orientation of the object, error information that is information indicating the probability distribution, and the hand state. As a result, the robot system can grip the target object according to the hand state determined based on the position and orientation of the target object, information indicating the probability distribution, and the hand state.

また、本発明の他の態様は、ロボットシステムにおいて、前記誤差情報は、誤差の範囲を示す情報である、構成が用いられてもよい。
この構成により、ロボットシステムは、対象物の位置及び姿勢と、誤差の範囲を示す情報である誤差情報と、ハンドの状態とに基づきハンドの状態を決定する。これにより、ロボットシステムは、対象物の位置及び姿勢と、誤差の範囲を示す情報と、ハンドの状態とに基づいて決定されたハンドの状態によって対象物を把持することができる。
According to another aspect of the present invention, in the robot system, a configuration may be used in which the error information is information indicating an error range.
With this configuration, the robot system determines the state of the hand based on the position and orientation of the object, error information that is information indicating an error range, and the state of the hand. As a result, the robot system can hold the target object according to the hand state determined based on the position and orientation of the target object, the information indicating the error range, and the hand state.

また、本発明の他の態様は、ハンドを備え、対象物の位置及び姿勢と、当該位置及び姿勢の誤差情報と、前記ハンドの状態とに基づき前記ハンドの状態を決定する、ロボットである。
この構成により、ロボットは、対象物の位置及び姿勢と、当該位置及び姿勢の誤差情報と、ハンドの状態とに基づきハンドの状態を決定する。これにより、ロボットは、ハンドに対象物を把持させる際に適したハンドの状態によって対象物をハンドに把持させることができる。
Another aspect of the present invention is a robot that includes a hand and determines the state of the hand based on the position and orientation of an object, error information on the position and orientation, and the state of the hand.
With this configuration, the robot determines the hand state based on the position and posture of the target object, error information on the position and posture, and the hand state. Accordingly, the robot can cause the hand to hold the object according to the state of the hand suitable for causing the hand to hold the object.

また、本発明の他の態様は、対象物の位置及び姿勢と、当該位置及び姿勢の誤差情報と、ロボットが備えるハンドの状態とに基づき前記ハンドの状態を決定する、ロボット制御装置である。
この構成により、ロボット制御装置は、対象物の位置及び姿勢と、当該位置及び姿勢の誤差情報と、ハンドの状態とに基づきハンドの状態を決定する。これにより、ロボット制御装置は、ハンドに対象物を把持させる際に適したハンドの状態によって対象物をハンドに把持させることができる。
Another aspect of the present invention is a robot control device that determines the state of the hand based on the position and posture of the object, error information on the position and posture, and the state of the hand included in the robot.
With this configuration, the robot control apparatus determines the hand state based on the position and posture of the object, error information on the position and posture, and the hand state. Thereby, the robot control apparatus can make a hand hold | grip a target object with the state of a hand suitable when making a hand hold | grip a target object.

以上により、ロボットシステム、ロボット、及びロボット制御装置は、対象物の位置及び姿勢と、当該位置及び姿勢の誤差情報と、ハンドの状態とに基づきハンドの状態を決定する。これにより、ロボットシステム、ロボット、及びロボット制御装置は、ハンドに対象物を把持させる際に適したハンドの状態によって対象物をハンドに把持させることができる。   As described above, the robot system, the robot, and the robot control device determine the hand state based on the position and posture of the object, the error information on the position and posture, and the hand state. Thereby, the robot system, the robot, and the robot control apparatus can cause the hand to hold the object according to the state of the hand suitable for causing the hand to hold the object.

本実施形態に係るロボット20の一例を示す構成図である。It is a block diagram which shows an example of the robot 20 which concerns on this embodiment. ロボット制御装置30のハードウェア構成の一例を示す図である。2 is a diagram illustrating an example of a hardware configuration of a robot control device 30. FIG. ロボット制御装置30の機能構成の一例を示す図である。2 is a diagram illustrating an example of a functional configuration of a robot control device 30. FIG. 制御部36が行う処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process which the control part performs. 第1エンドエフェクターE1の状態を説明するための図である。It is a figure for demonstrating the state of 1st end effector E1. 対象物位置姿勢のそれぞれを視覚的に示した図である。It is the figure which showed each of the target object position and posture visually. 第1エンドエフェクターE1が備える各把持部位が対象物Oから加えられる垂直抗力のうちの当該各把持部位が支えることが可能な最大の垂直抗力を例示する図である。FIG. 6 is a diagram illustrating the maximum vertical drag that can be supported by each gripping part of the vertical drag applied from the object O to each gripping part included in the first end effector E1. 図7に示した垂直抗力f1〜垂直抗力f3のそれぞれを表す矢印に対してフリクションコーンを描いた図である。FIG. 8 is a diagram in which a friction cone is drawn with respect to arrows representing the vertical drags f1 to f3 shown in FIG. 7. 把持品質評価値算出部46が生成する凸包の一例を示す図である。It is a figure which shows an example of the convex hull which the grip quality evaluation value calculation part 46 produces | generates. 第1エンドエフェクターE1が備える各把持部位に対して対象物Oから加わっている垂直抗力及び摩擦力を例示した図である。It is the figure which illustrated the normal force and frictional force which are added from the target object O with respect to each holding part with which the 1st end effector E1 is equipped.

<実施形態>
以下、本発明の実施形態について、図面を参照して説明する。図1は、本実施形態に係るロボット20の一例を示す構成図である。
まず、ロボット20の構成について説明する。
<Embodiment>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a configuration diagram illustrating an example of a robot 20 according to the present embodiment.
First, the configuration of the robot 20 will be described.

ロボット20は、第1アームと第2アームを備える双腕ロボットである。双腕ロボットは、この一例における第1アームと第2アームのような2本のアーム(腕)を備えるロボットである。なお、ロボット20は、双腕ロボットに代えて、単腕ロボットであってもよい。単腕ロボットは、1本のアームを備えるロボットである。例えば、単腕ロボットは、この一例における第1アームと第2アームのいずれか一方を備える。
また、ロボット20は、第1撮像部21と、第2撮像部22と、第3撮像部23と、第4撮像部24と、ロボット制御装置30を備える。
The robot 20 is a double arm robot including a first arm and a second arm. The double-arm robot is a robot having two arms (arms) such as the first arm and the second arm in this example. The robot 20 may be a single arm robot instead of the double arm robot. A single arm robot is a robot provided with one arm. For example, the single-arm robot includes one of the first arm and the second arm in this example.
The robot 20 includes a first imaging unit 21, a second imaging unit 22, a third imaging unit 23, a fourth imaging unit 24, and a robot control device 30.

第1アームは、第1エンドエフェクターE1と、第1マニピュレーターM1と、第1力検出部11と、第1撮像部21を備える。   The first arm includes a first end effector E1, a first manipulator M1, a first force detector 11, and a first imaging unit 21.

第1エンドエフェクターE1は、物体を把持可能な2以上の把持部位と、図示しない複数のアクチュエーターを備える。以下では、一例として、第1エンドエフェクターE1が、把持部位C11と、把持部位C12と、把持部位C13の3つの把持部位を備える場合について説明する。   The first end effector E1 includes two or more gripping parts capable of gripping an object and a plurality of actuators (not shown). Hereinafter, as an example, a case will be described in which the first end effector E1 includes three gripping parts including a gripping part C11, a gripping part C12, and a gripping part C13.

第1エンドエフェクターE1が備える複数のアクチュエーターはそれぞれ、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、当該アクチュエーターは、ロボット制御装置30から取得される制御信号に基づいて、把持部位C11と、把持部位C12と、把持部位C13のそれぞれを動作させる。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。なお、当該アクチュエーターは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。   Each of the plurality of actuators included in the first end effector E1 is connected to the robot controller 30 via a cable so as to be communicable. Accordingly, the actuator operates each of the gripping part C11, the gripping part C12, and the gripping part C13 based on the control signal acquired from the robot control device 30. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB (Universal Serial Bus), for example. The actuator may be configured to be connected to the robot control device 30 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

第1マニピュレーターM1は、7つの関節と、第1撮像部21と、図示しない複数のアクチュエーターとを備える7軸垂直多関節型のマニピュレーターである。従って、第1アームは、支持台と、第1エンドエフェクターE1と、第1マニピュレーターM1が当該アクチュエーターによる連携した動作によって7軸の自由度の動作を行う。なお、第1アームは、6軸以下の自由度で動作する構成であってもよく、8軸以上の自由度で動作する構成であってもよい。   The first manipulator M1 is a seven-axis vertical articulated manipulator including seven joints, a first imaging unit 21, and a plurality of actuators (not shown). Accordingly, the first arm performs a motion with seven degrees of freedom by the operation of the support base, the first end effector E1, and the first manipulator M1 coordinated by the actuator. The first arm may be configured to operate with a degree of freedom of 6 axes or less, or may be configured to operate with a degree of freedom of 8 axes or more.

第1アームが7軸の自由度で動作する場合、第1アームは、6軸以下の自由度で動作する場合と比較して取り得る姿勢が増える。これにより第1アームは、例えば、動作が滑らかになり、更に第1アームの周辺に存在する物体との干渉を容易に回避することができる。また、第1アームが7軸の自由度で動作する場合、第1アームの制御は、第1アームが8軸以上の自由度で動作する場合と比較して計算量が少なく容易である。このような理由から、第1アームは、7軸の自由度で動作することが望ましい。   When the first arm operates with a degree of freedom of seven axes, the posture that the first arm can take is increased as compared with a case where the first arm operates with a degree of freedom of six axes or less. Thereby, for example, the first arm can be smoothly operated, and interference with an object existing around the first arm can be easily avoided. In addition, when the first arm operates with a degree of freedom of 7 axes, the control of the first arm is easy and requires a smaller amount of calculation than when the first arm operates with a degree of freedom of 8 axes or more. For this reason, it is desirable for the first arm to operate with seven axes of freedom.

第1マニピュレーターM1が備える複数のアクチュエーターはそれぞれ、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、当該アクチュエーターは、ロボット制御装置30から取得される制御信号に基づいて、第1マニピュレーターM1を動作させる。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、当該アクチュエーターのうちの一部又は全部は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。   The plurality of actuators included in the first manipulator M1 are each connected to the robot control device 30 via a cable so as to be communicable. Accordingly, the actuator operates the first manipulator M1 based on the control signal acquired from the robot control device 30. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. Note that some or all of the actuators may be configured to be connected to the robot control device 30 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

第1力検出部11は、第1エンドエフェクターE1と第1マニピュレーターM1の間に備えられる。第1力検出部11は、第1エンドエフェクターE1に作用した力やモーメントの大きさを示す値を検出する。第1力検出部11は、検出した力やモーメントの大きさを示す値を出力値として含む第1力検出情報を通信によりロボット制御装置30へ出力する。第1力検出情報は、ロボット制御装置30による第1アームの第1力検出情報に基づく制御に用いられる。第1力検出情報に基づく制御は、例えば、インピーダンス制御等のコンプライアンス制御のことである。なお、第1力検出部11は、トルクセンサー等の第1エンドエフェクターE1に加わる力やモーメントの大きさを示す値を検出する他のセンサーであってもよい。   The first force detector 11 is provided between the first end effector E1 and the first manipulator M1. The 1st force detection part 11 detects the value which shows the magnitude | size of the force and moment which acted on the 1st end effector E1. The first force detection unit 11 outputs first force detection information including a value indicating the magnitude of the detected force or moment as an output value to the robot control device 30 through communication. The first force detection information is used for control based on the first force detection information of the first arm by the robot control device 30. The control based on the first force detection information is, for example, compliance control such as impedance control. The first force detector 11 may be another sensor that detects a value indicating the magnitude of the force or moment applied to the first end effector E1, such as a torque sensor.

第1力検出部11は、ケーブルによってロボット制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、第1力検出部11は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。   The first force detection unit 11 is connected to the robot control device 30 via a cable so as to be communicable. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. The first force detection unit 11 may be configured to be connected to the robot control device 30 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

第1撮像部21は、例えば、集光された光を電気信号に変換する撮像素子であるCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を備えたカメラである。この一例において、第1撮像部21は、第1マニピュレーターM1の一部に備えられる。このため、第1撮像部21は、第1アームの動きに応じて移動する。また、第1撮像部21が撮像可能な範囲は、第1アームの動きに応じて変化する。第1撮像部21は、当該範囲の静止画像を撮像してもよく、当該範囲の動画像を撮像してもよい。   The first imaging unit 21 is a camera including, for example, a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like, which is an imaging element that converts collected light into an electrical signal. In this example, the first imaging unit 21 is provided in a part of the first manipulator M1. For this reason, the 1st imaging part 21 moves according to a motion of the 1st arm. In addition, the range in which the first imaging unit 21 can capture an image changes according to the movement of the first arm. The first imaging unit 21 may capture a still image in the range or a moving image in the range.

また、第1撮像部21は、ケーブルによってロボット制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、第1撮像部21は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。   The first imaging unit 21 is communicably connected to the robot control device 30 via a cable. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. The first imaging unit 21 may be configured to be connected to the robot control device 30 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

第2アームは、第2エンドエフェクターE2と、第2マニピュレーターM2と、第2力検出部12と、第2撮像部22を備える。   The second arm includes a second end effector E2, a second manipulator M2, a second force detection unit 12, and a second imaging unit 22.

第2エンドエフェクターE2は、物体を把持可能な2以上の把持部位と、図示しない複数のアクチュエーターを備える。以下では、一例として、第2エンドエフェクターE2が、把持部位C21と、把持部位C22と、把持部位C23の3つの把持部位を備える場合について説明する。   The second end effector E2 includes two or more gripping portions that can grip an object and a plurality of actuators (not shown). Hereinafter, as an example, a case will be described in which the second end effector E2 includes three gripping parts including a gripping part C21, a gripping part C22, and a gripping part C23.

第2エンドエフェクターE2が備える複数のアクチュエーターはそれぞれ、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、当該アクチュエーターは、ロボット制御装置30から取得される制御信号に基づいて、把持部位C21と、把持部位C22と、把持部位C23のそれぞれを動作させる。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、当該アクチュエーターは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。   Each of the plurality of actuators provided in the second end effector E2 is connected to the robot control device 30 through a cable so as to be communicable. Accordingly, the actuator operates each of the gripping part C21, the gripping part C22, and the gripping part C23 based on the control signal acquired from the robot control device 30. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. The actuator may be configured to be connected to the robot control device 30 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

第2マニピュレーターM2は、7つの関節と、第2撮像部22と、図示しない複数のアクチュエーターとを備える7軸垂直多関節型のマニピュレーターである。従って、第2アームは、支持台と、第2エンドエフェクターE2と、第2マニピュレーターM2が当該アクチュエーターによる連携した動作によって7軸の自由度の動作を行う。第2アームは、第1アームが7軸の自由度で動作することが望ましい理由と同様の理由により、7軸の自由度で動作することが望ましい。なお、第2アームは、6軸以下の自由度で動作する構成であってもよく、8軸以上の自由度で動作する構成であってもよい。   The second manipulator M2 is a seven-axis vertical articulated manipulator including seven joints, a second imaging unit 22, and a plurality of actuators (not shown). Accordingly, the second arm performs a motion with seven degrees of freedom by the operation of the support base, the second end effector E2, and the second manipulator M2 in cooperation with the actuator. The second arm preferably operates with seven axes of freedom for the same reason that it is desirable for the first arm to operate with seven axes of freedom. The second arm may be configured to operate with a degree of freedom of 6 axes or less, or may be configured to operate with a degree of freedom of 8 axes or more.

第2マニピュレーターM2が備える複数のアクチュエーターはそれぞれ、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、当該アクチュエーターは、ロボット制御装置30から取得される制御信号に基づいて、第2マニピュレーターM2を動作させる。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、当該アクチュエーターのうちの一部又は全部は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。   The plurality of actuators provided in the second manipulator M2 are each connected to the robot control device 30 through a cable so as to be communicable. Thus, the actuator operates the second manipulator M2 based on the control signal acquired from the robot control device 30. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. Note that some or all of the actuators may be configured to be connected to the robot control device 30 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

第2力検出部12は、第2エンドエフェクターE2と第2マニピュレーターM2の間に備えられる。第2力検出部12は、第2エンドエフェクターE2に作用した力やモーメントの大きさを示す値を検出する。第2力検出部12は、検出した力やモーメントの大きさを示す値を出力値として含む第2力検出情報を通信によりロボット制御装置30へ出力する。第2力検出情報は、ロボット制御装置30による第2アームの第2力検出情報に基づく制御に用いられる。第2力検出情報に基づく制御は、例えば、インピーダンス制御等のコンプライアンス制御のことである。なお、第2力検出部12は、トルクセンサー等の第2エンドエフェクターE2に加わる力やモーメントの大きさを示す値を検出する他のセンサーであってもよい。   The second force detector 12 is provided between the second end effector E2 and the second manipulator M2. The 2nd force detection part 12 detects the value which shows the magnitude | size of the force and moment which acted on 2nd end effector E2. The second force detection unit 12 outputs second force detection information including a value indicating the magnitude of the detected force or moment as an output value to the robot control device 30 through communication. The second force detection information is used for control based on the second force detection information of the second arm by the robot control device 30. The control based on the second force detection information is compliance control such as impedance control, for example. The second force detection unit 12 may be another sensor that detects a value indicating the magnitude of the force or moment applied to the second end effector E2 such as a torque sensor.

第2力検出部12は、ケーブルによってロボット制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、第2力検出部12は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。   The 2nd force detection part 12 is connected with the robot control apparatus 30 by the cable so that communication is possible. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. The second force detection unit 12 may be configured to be connected to the robot control device 30 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

第2撮像部22は、例えば、集光された光を電気信号に変換する撮像素子であるCCDやCMOS等を備えたカメラである。この一例において、第2撮像部22は、第2マニピュレーターM2の一部に備えられる。このため、第2撮像部22は、第2アームの動きに応じて移動する。また、第2撮像部22が撮像可能な範囲は、第2アームの動きに応じて変化する。第2撮像部22は、当該範囲の静止画像を撮像してもよく、当該範囲の動画像を撮像してもよい。   The second imaging unit 22 is, for example, a camera provided with a CCD, a CMOS, or the like that is an imaging element that converts the collected light into an electrical signal. In this example, the second imaging unit 22 is provided in a part of the second manipulator M2. For this reason, the second imaging unit 22 moves in accordance with the movement of the second arm. Further, the range that can be imaged by the second imaging unit 22 changes according to the movement of the second arm. The second imaging unit 22 may capture a still image in the range or a moving image in the range.

また、第2撮像部22は、ケーブルによってロボット制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、第2撮像部22は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。   The second imaging unit 22 is connected to the robot control device 30 via a cable so as to be communicable. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. The second imaging unit 22 may be configured to be connected to the robot control device 30 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

第3撮像部23は、例えば、集光された光を電気信号に変換する撮像素子であるCCDやCMOS等を備えたカメラである。第3撮像部23は、作業台TBの上面に載置された対象物Oを含む範囲である撮像範囲を撮像可能な位置に設置される。なお、第3撮像部23は、撮像範囲の静止画像を撮像してもよく、撮像範囲の動画像を撮像してもよい。   The third imaging unit 23 is, for example, a camera that includes a CCD, a CMOS, or the like that is an imaging element that converts collected light into an electrical signal. The 3rd imaging part 23 is installed in the position which can image the imaging range which is a range including the target object O mounted on the upper surface of the workbench TB. The third imaging unit 23 may capture a still image in the imaging range or a moving image in the imaging range.

また、第3撮像部23は、ケーブルによってロボット制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、第3撮像部23は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。   The third imaging unit 23 is connected to the robot control device 30 via a cable so as to be communicable. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. The third imaging unit 23 may be configured to be connected to the robot control device 30 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

第4撮像部24は、例えば、集光された光を電気信号に変換する撮像素子であるCCDやCMOS等を備えたカメラである。第4撮像部24は、第3撮像部23が撮像可能な撮像範囲を第3撮像部23とともにステレオ撮像可能な位置に設置される。なお、第4撮像部24は、撮像範囲の静止画像を撮像してもよく、撮像範囲の動画像を撮像してもよい。   The fourth imaging unit 24 is, for example, a camera that includes a CCD, a CMOS, or the like that is an imaging element that converts collected light into an electrical signal. The fourth image pickup unit 24 is installed at a position where the third image pickup unit 23 can pick up an image pickup range that can be picked up by the third image pickup unit 23 in a stereo image pickup position. The fourth imaging unit 24 may capture a still image in the imaging range or a moving image in the imaging range.

また、第4撮像部24は、ケーブルによってロボット制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、第4撮像部24は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。   Further, the fourth imaging unit 24 is connected to the robot control device 30 through a cable so as to be communicable. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. The fourth imaging unit 24 may be configured to be connected to the robot control device 30 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

上記で説明したロボット20が備えるこれらの各機能部は、この一例において、ロボット20に内蔵されたロボット制御装置30から制御信号を取得する。そして、当該各機能部は、取得した制御信号に基づいた動作を行う。なお、ロボット20は、ロボット制御装置30を内蔵する構成に代えて、外部に設置されたロボット制御装置30により制御される構成(ロボットシステム)であってもよい。   Each of these functional units included in the robot 20 described above acquires a control signal from the robot control device 30 built in the robot 20 in this example. Then, each functional unit performs an operation based on the acquired control signal. The robot 20 may have a configuration (robot system) controlled by the robot control device 30 installed outside, instead of the configuration including the robot control device 30.

ロボット制御装置30は、ロボット20に制御信号を送信することにより、ロボット20を動作させる。これにより、ロボット制御装置30は、ロボット20に所定の作業を行わせる。   The robot control device 30 operates the robot 20 by transmitting a control signal to the robot 20. As a result, the robot control device 30 causes the robot 20 to perform a predetermined operation.

以下、ロボット20が行う所定の作業について説明する。
図1に示した作業台TBは、例えば、テーブルである。作業台TBの上面には、対象物Oが載置されている。なお、作業台TBは、テーブルに変えて、対象物Oを載置することが可能な床面等の物体であれば他の物体であってもよい。
Hereinafter, predetermined work performed by the robot 20 will be described.
The work table TB illustrated in FIG. 1 is, for example, a table. An object O is placed on the upper surface of the work table TB. The work table TB may be another object as long as it is an object such as a floor surface on which the object O can be placed instead of the table.

対象物Oは、例えば、製品に組み付けるプレート、ネジ、ボルト等の産業用の部品や部材である。以下では、一例として、対象物Oが、図1に示したように六角柱形状の物体である場合について説明する。なお、対象物Oは、産業用の部品や部材に代えて、産業用の製品であってもよく、日用品や生体等の他の物体であってもよい。また、対象物Oの形状は、六角柱形状に代えて、他の形状であってもよい。   The object O is, for example, an industrial part or member such as a plate, screw, or bolt that is assembled to a product. Below, the case where the target object O is a hexagonal prism-shaped object as shown in FIG. 1 is demonstrated as an example. The object O may be an industrial product instead of an industrial part or member, or may be another object such as a daily necessities or a living body. Further, the shape of the object O may be another shape instead of the hexagonal column shape.

ロボット20は、例えば、所定の作業として、作業台TBの上面に載置された対象物Oを第1エンドエフェクターE1により把持する。そして、ロボット20は、把持した対象物Oを、図1に示した作業台TBの上面における給材領域Aに給材(配置)する。なお、所定の作業は、他の作業であってもよい。また、ロボット20は、所定の作業において対象物Oを第1エンドエフェクターE1により把持する構成に代えて、対象物Oを第2エンドエフェクターE2により把持する構成であってもよく、第1エンドエフェクターE1と第2エンドエフェクターE2の両方により対象物Oを把持する構成であってもよい。例えば、所定の作業においてロボット20が第2エンドエフェクターE2により対象物Oを把持する場合、ロボット20は、以下の説明における第1エンドエフェクターE1を第2エンドエフェクターE2に読み替えた場合と同様の動作を行う。   For example, the robot 20 holds the object O placed on the upper surface of the work table TB by the first end effector E1 as a predetermined work. Then, the robot 20 supplies (arranges) the grasped object O to the supply area A on the upper surface of the work table TB shown in FIG. The predetermined work may be another work. Further, the robot 20 may be configured to hold the object O with the second end effector E2 instead of the structure to hold the object O with the first end effector E1 in a predetermined work. The structure which hold | grips the target object O by both E1 and 2nd end effector E2 may be sufficient. For example, when the robot 20 grips the object O by the second end effector E2 in a predetermined work, the robot 20 performs the same operation as when the first end effector E1 is replaced with the second end effector E2 in the following description. I do.

以下、ロボット20に所定の作業を行わせるためにロボット制御装置30が行う処理の概要について説明する。
ロボット制御装置30は、対象物Oの位置及び姿勢と、当該位置及び姿勢の誤差情報と、第1エンドエフェクターE1の状態とに基づき第1エンドエフェクターE1の状態を決定する。この一例として、本実施形態では、ロボット制御装置30は、撮像画像から検出した対象物Oの位置及び姿勢と、当該位置及び姿勢の誤差情報と、第1エンドエフェクターE1の状態とに基づく把持品質評価値に応じて第1エンドエフェクターE1の状態を決定する。なお、ロボット制御装置30は、対象物Oの位置及び姿勢を撮像画像から検出する構成に代えて、対象物Oの位置及び姿勢を示す情報を他の装置や記憶媒体から取得する構成や、ユーザーから入力された対象物Oの位置及び姿勢を示す情報を取得する構成等の他の構成であってもよい。
Hereinafter, an outline of processing performed by the robot control device 30 to cause the robot 20 to perform a predetermined operation will be described.
The robot control device 30 determines the state of the first end effector E1 based on the position and posture of the object O, error information on the position and posture, and the state of the first end effector E1. As an example of this, in this embodiment, the robot control device 30 determines the gripping quality based on the position and orientation of the object O detected from the captured image, error information on the position and orientation, and the state of the first end effector E1. The state of the first end effector E1 is determined according to the evaluation value. Note that the robot control device 30 is configured to acquire information indicating the position and orientation of the object O from another device or a storage medium instead of the configuration to detect the position and orientation of the object O from the captured image, Other configurations, such as a configuration for acquiring information indicating the position and orientation of the object O input from, may be used.

ハンドは、ロボット20における物体を把持可能な部位、すなわち第1エンドエフェクターE1と第2エンドエフェクターE2のうちいずれか一方又は両方のことである。この一例では、対象物Oが第1エンドエフェクターE1によって把持される場合を説明するため、ハンドは、第1エンドエフェクターE1のことであり、ハンドの状態は、第1エンドエフェクターE1の状態のことである。第1エンドエフェクターE1の状態は、この一例において、対象物Oに対する第1エンドエフェクターE1の相対的な位置及び姿勢によって表される。   The hand is a part of the robot 20 that can grip an object, that is, one or both of the first end effector E1 and the second end effector E2. In this example, in order to explain the case where the object O is gripped by the first end effector E1, the hand is the first end effector E1, and the state of the hand is the state of the first end effector E1. It is. In this example, the state of the first end effector E1 is represented by the relative position and posture of the first end effector E1 with respect to the object O.

対象物Oの位置及び姿勢の誤差情報は、撮像画像から検出した対象物Oの位置及び姿勢を中心値とした場合の誤差の分布(確率分布)を示す情報である。換言すると、当該誤差情報は、誤差の範囲を示す情報である。例えば、当該誤差情報は、正規分布を示す情報である。なお、当該誤差情報は、正規分布を示す情報に代えて、対象物Oを検出する実験の結果を再現する確率分布を示す情報等の他の確率分布を示す情報であってもよい。なお、撮像画像は、画像の一例である。   The error information on the position and orientation of the object O is information indicating an error distribution (probability distribution) when the position and orientation of the object O detected from the captured image are used as the center value. In other words, the error information is information indicating an error range. For example, the error information is information indicating a normal distribution. Note that the error information may be information indicating another probability distribution such as information indicating a probability distribution reproducing the result of the experiment for detecting the object O, instead of the information indicating the normal distribution. The captured image is an example of an image.

ロボット制御装置30が行う処理をより具体的に説明すると、ロボット制御装置30は、撮像画像から検出した対象物Oの位置及び姿勢と、当該位置及び姿勢の誤差情報と、第1エンドエフェクターE1の状態とに基づいて、第1エンドエフェクターE1の状態毎に、第1エンドエフェクターE1が対象物Oを把持した際に第1エンドエフェクターE1の状態(すなわち、第1エンドエフェクターE1と対象物Oの相対的な位置及び姿勢)の変化のし難さ(把持品質)を評価した値である把持品質評価値を算出する。   The processing performed by the robot control device 30 will be described more specifically. The robot control device 30 includes the position and orientation of the object O detected from the captured image, error information on the position and orientation, and the first end effector E1. For each state of the first end effector E1, based on the state, when the first end effector E1 grips the object O, the state of the first end effector E1 (ie, the first end effector E1 and the object O A grip quality evaluation value, which is a value obtained by evaluating the difficulty of changing (relative position and posture) (grip quality), is calculated.

ロボット制御装置30は、算出した把持品質評価値に基づいて、第1エンドエフェクターE1に対象物Oを把持させる際に適した第1エンドエフェクターE1の状態を決定する。これにより、ロボット制御装置30は、把持品質評価値に応じて決定された第1エンドエフェクターE1の状態、すなわち第1エンドエフェクターE1に対象物Oを把持させる際に適した第1エンドエフェクターE1の状態によって対象物Oをロボット20に把持させることができる。ロボット制御装置30は、第1エンドエフェクターE1に対象物Oを把持させる際に適した第1エンドエフェクターE1の状態によって対象物Oをロボット20に把持させ、当該対象物Oを給材領域Aへロボット20に給材させる。   The robot control device 30 determines the state of the first end effector E1 suitable for causing the first end effector E1 to grip the object O based on the calculated gripping quality evaluation value. As a result, the robot controller 30 determines the state of the first end effector E1 determined according to the gripping quality evaluation value, that is, the first end effector E1 suitable for causing the first end effector E1 to grip the object O. The object O can be gripped by the robot 20 depending on the state. The robot control apparatus 30 causes the robot 20 to grip the object O according to the state of the first end effector E1 suitable for causing the first end effector E1 to grip the object O, and moves the object O to the feeding area A. The robot 20 is fed.

以下では、ロボット制御装置30が、撮像画像から検出した対象物Oの位置及び姿勢と、当該位置及び姿勢の誤差情報と、第1エンドエフェクターE1の状態とに基づく把持品質評価値に応じて第1エンドエフェクターE1の状態を決定する処理について詳しく説明する。   In the following, the robot control device 30 performs the first measurement according to the grip quality evaluation value based on the position and posture of the object O detected from the captured image, error information on the position and posture, and the state of the first end effector E1. The process for determining the state of the one end effector E1 will be described in detail.

また、以下では、説明を簡略化するため、ロボット制御装置30が撮像画像から検出する対象物Oの位置及び姿勢が、対象物Oの二次元ロボット座標系における位置及び姿勢であり、ロボット制御装置30が把持品質評価値に応じて決定する第1エンドエフェクターE1の状態が、二次元ロボット座標系における第1エンドエフェクターE1の状態である場合について説明する。   In the following, for the sake of simplicity, the position and orientation of the object O detected by the robot control device 30 from the captured image are the position and orientation of the object O in the two-dimensional robot coordinate system. A case will be described in which the state of the first end effector E1 determined by 30 according to the gripping quality evaluation value is the state of the first end effector E1 in the two-dimensional robot coordinate system.

また、以下では、説明を簡略化するため、二次元ロボット座標系の2つの座標軸が、地面に対して水平であり且つ互いに直交する方向を向いており、対象物Oが載置された作業台TBの上面が、当該地面に対して水平である場合について説明する。なお、ロボット制御装置30は、撮像画像から対象物Oの三次元ロボット座標系における位置及び姿勢を検出し、当該把持品質評価値に応じて三次元ロボット座標系における第1エンドエフェクターE1の状態を決定する構成であってもよい。なお、把持品質評価値は、ハンドの状態を評価する評価値の一例である。   In the following, for the sake of simplicity of explanation, the two coordinate axes of the two-dimensional robot coordinate system are horizontal with respect to the ground and are oriented in directions orthogonal to each other, and the work table on which the object O is placed. The case where the upper surface of TB is horizontal with respect to the ground will be described. The robot controller 30 detects the position and orientation of the object O in the three-dimensional robot coordinate system from the captured image, and determines the state of the first end effector E1 in the three-dimensional robot coordinate system according to the grip quality evaluation value. The structure to determine may be sufficient. The grip quality evaluation value is an example of an evaluation value for evaluating the hand state.

次に、図2を参照し、ロボット制御装置30のハードウェア構成について説明する。図2は、ロボット制御装置30のハードウェア構成の一例を示す図である。ロボット制御装置30は、例えば、CPU(Central Processing Unit)31と、記憶部32と、入力受付部33と、通信部34と、表示部35を備える。また、ロボット制御装置30は、通信部34を介してロボット20と通信を行う。これらの構成要素は、バスBusを介して相互に通信可能に接続されている。   Next, the hardware configuration of the robot control device 30 will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of a hardware configuration of the robot control device 30. The robot control device 30 includes, for example, a CPU (Central Processing Unit) 31, a storage unit 32, an input receiving unit 33, a communication unit 34, and a display unit 35. Further, the robot control device 30 communicates with the robot 20 via the communication unit 34. These components are connected to each other via a bus Bus so that they can communicate with each other.

CPU31は、記憶部32に格納された各種プログラムを実行する。
記憶部32は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、ROM(Read−Only Memory)、RAM(Random Access Memory)等を含む。なお、記憶部32は、ロボット制御装置30に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置であってもよい。
The CPU 31 executes various programs stored in the storage unit 32.
The storage unit 32 includes, for example, a hard disk drive (HDD), a solid state drive (SSD), an electrically erasable programmable read-only memory (EEPROM), a read-only memory (ROM), and a random access memory (RAM). The storage unit 32 may be an external storage device connected via a digital input / output port such as a USB instead of the one built in the robot control device 30.

記憶部32は、ロボット制御装置30が処理する各種情報や画像、プログラム、誤差情報、給材領域Aの位置を示す情報等を格納する。以下では、一例として、記憶部32が、誤差情報と給材領域Aの位置を示す情報とを予め記憶している場合について説明する。なお、記憶部32は、ユーザーから受け付けられた操作に基づいて、誤差情報と給材領域Aの位置を示す情報とのうちいずれか一方又は両方を記憶する構成であってもよい。   The storage unit 32 stores various information processed by the robot control device 30, images, programs, error information, information indicating the position of the material supply area A, and the like. Below, the case where the memory | storage part 32 has memorize | stored beforehand the error information and the information which shows the position of the material supply area | region A as an example is demonstrated. The storage unit 32 may be configured to store either one or both of error information and information indicating the position of the material supply area A based on an operation received from the user.

入力受付部33は、例えば、キーボードやマウス、タッチパッド等を備えたティーチングペンダントや、その他の入力装置である。なお、入力受付部33は、タッチパネルとして表示部35と一体に構成されてもよい。
通信部34は、例えば、USB等のデジタル入出力ポートやイーサネット(登録商標)ポート等を含んで構成される。
表示部35は、例えば、液晶ディスプレイパネル、あるいは、有機EL(ElectroLuminescence)ディスプレイパネルである。
The input receiving unit 33 is, for example, a teaching pendant provided with a keyboard, a mouse, a touch pad, or the like, or other input device. The input receiving unit 33 may be configured integrally with the display unit 35 as a touch panel.
The communication unit 34 includes, for example, a digital input / output port such as USB, an Ethernet (registered trademark) port, and the like.
The display unit 35 is, for example, a liquid crystal display panel or an organic EL (ElectroLuminescence) display panel.

次に、図3を参照し、ロボット制御装置30の機能構成について説明する。図3は、ロボット制御装置30の機能構成の一例を示す図である。ロボット制御装置30は、記憶部32と、制御部36を備える。   Next, the functional configuration of the robot control device 30 will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of a functional configuration of the robot control device 30. The robot control device 30 includes a storage unit 32 and a control unit 36.

制御部36は、ロボット制御装置30の全体を制御する。制御部36は、力検出情報取得部40と、撮像制御部41と、画像取得部42と、位置姿勢検出部44と、把持品質評価値算出部46と、ハンド状態決定部47と、ロボット制御部48を備える。制御部36が備えるこれらの機能部は、例えば、CPU31が、記憶部32に記憶された各種プログラムを実行することにより実現される。また、これらの機能部のうちの一部又は全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。   The control unit 36 controls the entire robot control device 30. The control unit 36 includes a force detection information acquisition unit 40, an imaging control unit 41, an image acquisition unit 42, a position and orientation detection unit 44, a grip quality evaluation value calculation unit 46, a hand state determination unit 47, and a robot control. Part 48 is provided. These functional units included in the control unit 36 are realized, for example, when the CPU 31 executes various programs stored in the storage unit 32. Some or all of these functional units may be hardware functional units such as LSI (Large Scale Integration) and ASIC (Application Specific Integrated Circuit).

力検出情報取得部40は、第1力検出部11が検出した力やモーメントの大きさを示す値を出力値として含む第1力検出情報を第1力検出部11から取得する。また、力検出情報取得部40は、第2力検出部12が検出した力やモーメントの大きさを示す値を出力値として含む第2力検出情報を第2力検出部12から取得する。   The force detection information acquisition unit 40 acquires, from the first force detection unit 11, first force detection information including a value indicating the magnitude of the force or moment detected by the first force detection unit 11 as an output value. The force detection information acquisition unit 40 acquires second force detection information from the second force detection unit 12 including a value indicating the magnitude of the force or moment detected by the second force detection unit 12 as an output value.

撮像制御部41は、作業台TBの上面に載置された対象物Oを含む撮像範囲を、第1撮像部21と、第2撮像部22と、第3撮像部23と、第4撮像部24のうちの一部又は全部に撮像させる。以下では、一例として、撮像制御部41が、当該撮像範囲を第3撮像部23に撮像させる場合について説明する。なお、ロボット制御装置30が、撮像画像から対象物Oの三次元ロボット座標系における位置及び姿勢を検出し、当該把持品質評価値に応じて三次元ロボット座標系における第1エンドエフェクターE1の状態を決定する構成の場合、撮像制御部41は、第1撮像部21と、第2撮像部22と、第3撮像部23と、第4撮像部24のうちの少なくとも2つ以上の撮像部に当該撮像範囲をステレオ撮像させる。   The imaging control unit 41 includes an imaging range including the object O placed on the upper surface of the work table TB, the first imaging unit 21, the second imaging unit 22, the third imaging unit 23, and the fourth imaging unit. Some or all of the 24 are imaged. Hereinafter, as an example, the case where the imaging control unit 41 causes the third imaging unit 23 to image the imaging range will be described. Note that the robot control device 30 detects the position and orientation of the object O in the three-dimensional robot coordinate system from the captured image, and determines the state of the first end effector E1 in the three-dimensional robot coordinate system according to the grip quality evaluation value. In the case of the configuration to be determined, the imaging control unit 41 applies to at least two imaging units among the first imaging unit 21, the second imaging unit 22, the third imaging unit 23, and the fourth imaging unit 24. Stereo imaging of the imaging range.

画像取得部42は、第3撮像部23が撮像した撮像画像を、第3撮像部23から取得する。
位置姿勢検出部44は、画像取得部42が取得した撮像画像に基づいて、当該撮像画像から対象物Oの位置及び姿勢を検出する。
The image acquisition unit 42 acquires the captured image captured by the third imaging unit 23 from the third imaging unit 23.
The position / orientation detection unit 44 detects the position and orientation of the object O from the captured image based on the captured image acquired by the image acquisition unit 42.

把持品質評価値算出部46は、記憶部32から誤差情報を読み出す。また、把持品質評価値算出部46は、読み出した誤差情報と、位置姿勢検出部44が撮像画像から検出した対象物Oの位置及び姿勢と、第1エンドエフェクターE1の状態とに基づいて、第1エンドエフェクターE1の状態毎に、把持品質評価値を算出する。   The gripping quality evaluation value calculation unit 46 reads error information from the storage unit 32. In addition, the gripping quality evaluation value calculation unit 46 is based on the read error information, the position and orientation of the object O detected by the position and orientation detection unit 44 from the captured image, and the state of the first end effector E1. A grip quality evaluation value is calculated for each state of one end effector E1.

ハンド状態決定部47は、把持品質評価値算出部46が算出した把持品質評価値に基づいて、把持品質評価値を最大にする第1エンドエフェクターE1の状態を、第1エンドエフェクターE1に対象物Oを把持させる際に適した第1エンドエフェクターE1の状態として決定する。なお、ハンド状態決定部47は、把持品質評価値を最大にする第1エンドエフェクターE1の状態を、第1エンドエフェクターE1に対象物Oを把持させる際に適した第1エンドエフェクターE1の状態として決定する構成に代えて、所定の閾値の把持品質評価値にする第1エンドエフェクターE1の状態等の把持品質評価値が最大ではない他の値の第1エンドエフェクターE1の状態を、第1エンドエフェクターE1に対象物Oを把持させる際に適した第1エンドエフェクターE1の状態として決定する構成であってもよい。   Based on the grip quality evaluation value calculated by the grip quality evaluation value calculation unit 46, the hand state determination unit 47 sets the state of the first end effector E1 that maximizes the grip quality evaluation value to the first end effector E1. The state of the first end effector E1 suitable for gripping O is determined. The hand state determination unit 47 sets the state of the first end effector E1 that maximizes the grip quality evaluation value as the state of the first end effector E1 suitable for causing the first end effector E1 to grip the object O. Instead of the configuration to be determined, the state of the first end effector E1 having a value other than the maximum gripping quality evaluation value, such as the state of the first end effector E1 having the gripping quality evaluation value of a predetermined threshold, is set to the first end. The configuration may be such that the state of the first end effector E1 suitable for causing the effector E1 to grip the object O is determined.

ロボット制御部48は、ハンド状態決定部47が決定した第1エンドエフェクターE1の状態によって対象物Oをロボット20に把持させ、当該対象物Oを給材領域Aへロボット20に給材させる。   The robot control unit 48 causes the robot 20 to grip the object O according to the state of the first end effector E1 determined by the hand state determination unit 47, and causes the robot 20 to supply the object O to the material supply area A.

以下、図4を参照し、制御部36が行う処理について説明する。図4は、制御部36が行う処理の流れの一例を示すフローチャートである。
撮像制御部41は、作業台TBの上面に載置された対象物Oを含む撮像範囲を第3撮像部23に撮像させる(ステップS100)。次に、画像取得部42は、ステップS100において第3撮像部23が撮像した撮像画像を第3撮像部23から取得する(ステップS110)。次に、位置姿勢検出部44は、ステップS110において画像取得部42が取得した撮像画像に基づいて、当該撮像画像から対象物Oの位置及び姿勢を検出位置姿勢として検出する(ステップS120)。
Hereinafter, the process performed by the control unit 36 will be described with reference to FIG. FIG. 4 is a flowchart illustrating an example of the flow of processing performed by the control unit 36.
The imaging control unit 41 causes the third imaging unit 23 to capture an imaging range including the object O placed on the upper surface of the workbench TB (step S100). Next, the image acquisition unit 42 acquires the captured image captured by the third imaging unit 23 in step S100 from the third imaging unit 23 (step S110). Next, the position and orientation detection unit 44 detects the position and orientation of the object O from the captured image as the detected position and orientation based on the captured image acquired by the image acquisition unit 42 in step S110 (step S120).

ここで、ステップS120の処理について説明する。例えば、位置姿勢検出部44は、ステップS110において画像取得部42が取得した撮像画像に基づいて、当該撮像画像から対象物Oの輪郭を検出する。位置姿勢検出部44は、検出した輪郭の重心の位置を、対象物Oの位置として検出する。ここで、撮像画像における各点が表わす位置と、二次元ロボット座標系における位置とは、予めキャリブレーションによって対応付けられている。   Here, the process of step S120 will be described. For example, the position and orientation detection unit 44 detects the contour of the object O from the captured image based on the captured image acquired by the image acquisition unit 42 in step S110. The position / orientation detection unit 44 detects the position of the center of gravity of the detected contour as the position of the object O. Here, the position represented by each point in the captured image and the position in the two-dimensional robot coordinate system are associated in advance by calibration.

また、位置姿勢検出部44は、検出した輪郭の重心の位置を原点とした対象物Oの姿勢を表す二次元局所座標系を対象物Oに設定する。当該二次元局所座標系の2つの座標軸の方向は、互いに直交していれば、撮像画像上において如何なる方向を向いていてもよい。この一例では、位置姿勢検出部44は、当該二次元局所座標系のX軸の方向を第3撮像部23の撮像素子のX軸の方向に設定し、当該二次元局所座標系のY軸の方向を第3撮像部23の撮像素子のY軸の方向に設定する。位置姿勢検出部44は、当該二次元局所座標系の2つの座標軸の方向を、対象物Oの姿勢として特定(検出)する。なお、位置姿勢検出部44は、当該二次元局所座標系の2つの座標軸のうちの一方の方向を基準として、当該基準からの傾きの角度によって対象物Oの姿勢を表す構成であってもよい。   In addition, the position / orientation detection unit 44 sets a two-dimensional local coordinate system representing the attitude of the object O with the position of the center of gravity of the detected contour as the origin as the object O. The directions of the two coordinate axes of the two-dimensional local coordinate system may be any direction on the captured image as long as they are orthogonal to each other. In this example, the position / orientation detection unit 44 sets the X-axis direction of the two-dimensional local coordinate system to the X-axis direction of the image sensor of the third imaging unit 23, and the Y-axis of the two-dimensional local coordinate system. The direction is set to the Y-axis direction of the image sensor of the third imaging unit 23. The position and orientation detection unit 44 specifies (detects) the directions of the two coordinate axes of the two-dimensional local coordinate system as the orientation of the object O. Note that the position / orientation detection unit 44 may have a configuration in which the orientation of the object O is represented by an angle of inclination from the reference with respect to one direction of the two coordinate axes of the two-dimensional local coordinate system. .

ステップS120において検出位置姿勢が検出された後、把持品質評価値算出部46は、ハンドの状態毎、すなわち第1エンドエフェクターE1の状態毎にステップS125の処理を繰り返し行う(ステップS123)。ここで、第1エンドエフェクターE1の状態について説明する。   After the detected position and orientation are detected in step S120, the gripping quality evaluation value calculation unit 46 repeats the process of step S125 for each state of the hand, that is, for each state of the first end effector E1 (step S123). Here, the state of the first end effector E1 will be described.

図5は、第1エンドエフェクターE1の状態を説明するための図である。図5には、位置及び姿勢が検出位置姿勢と一致している場合の対象物Oが示されている。また、図5には、対象物Oを把持する直前の第1エンドエフェクターE1が示されている。ただし、図5では、第1エンドエフェクターE1が備える把持部位C11と、把持部位C12と、把持部位C13と、対象物Oとの相対的な位置及び姿勢を明確に示すため、把持部位C11、把持部位C12、及び把持部位C13以外の第1エンドエフェクターE1の部位を省略している。また、図5では、図の簡略化のため、把持部位C11と、把持部位C12と、把持部位C13がそれぞれ、黒丸によって描かれているが、これら3つの把持部位それぞれの実際の形状が黒丸であるわけではない。   FIG. 5 is a view for explaining the state of the first end effector E1. FIG. 5 shows the object O in the case where the position and orientation match the detected position and orientation. Further, FIG. 5 shows the first end effector E1 immediately before gripping the object O. However, in FIG. 5, in order to clearly show the relative positions and postures of the gripping part C11, the gripping part C12, the gripping part C13, and the object O included in the first end effector E1, Parts of the first end effector E1 other than the part C12 and the gripping part C13 are omitted. In FIG. 5, for simplification of the drawing, the gripping part C11, the gripping part C12, and the gripping part C13 are each drawn by a black circle, but the actual shape of each of these three gripping parts is a black circle. There is no reason.

前述したように、第1エンドエフェクターE1の状態は、第1エンドエフェクターE1と対象物Oの相対的な位置及び姿勢によって表される。より具体的には、この一例において、第1エンドエフェクターE1の位置は、図5に示した把持部位C11の可動方向CA1へ伸びる補助線と、把持部位C12の可動方向CA2へ伸びる補助線と、把持部位C13の可動方向CA3へ伸びる補助線とが1点で交わる点の位置である把持位置Gによって表される。なお、把持位置Gは、当該1点で交わる点の位置に代えて、例えば、TCP(Tool Center Point)等の第1エンドエフェクターE1に対応付けられた位置であって第1エンドエフェクターE1とともに移動する位置であれば他の位置であってもよい。   As described above, the state of the first end effector E1 is represented by the relative position and posture of the first end effector E1 and the object O. More specifically, in this example, the position of the first end effector E1 includes an auxiliary line extending in the movable direction CA1 of the gripping part C11 and an auxiliary line extending in the movable direction CA2 of the gripping part C12 shown in FIG. It is represented by a gripping position G that is the position of a point where the auxiliary line extending in the movable direction CA3 of the gripping part C13 intersects at one point. Note that the gripping position G is a position associated with the first end effector E1 such as TCP (Tool Center Point) instead of the position of the point where the one point intersects and moves together with the first end effector E1. Other positions may be used as long as they are positions.

以上のことから、第1エンドエフェクターE1と対象物Oの相対的な位置は、対象物Oの位置に対する把持位置Gによって表される。以下の説明では、第1エンドエフェクターE1と対象物Oの相対的な位置を、対象物Oの輪郭内に描かれた把持位置Gによって表す。   From the above, the relative position between the first end effector E1 and the object O is represented by the grip position G with respect to the position of the object O. In the following description, the relative position between the first end effector E1 and the object O is represented by a gripping position G drawn in the outline of the object O.

また、第1エンドエフェクターE1と対象物Oの相対的な姿勢は、この一例において、対象物Oの姿勢を表す二次元局所座標系のX軸と可動方向CA1へ伸びる補助線との間の角度φと、可動方向CA1へ伸びる補助線と可動方向CA2へ伸びる補助線との間の角度θ1と、可動方向CA1へ伸びる補助線と可動方向CA3へ伸びる補助線との間の角度θ2との3つの角度によって表される。なお、図5では、角度φを明確に示すため、対象物Oの姿勢を表す二次元局所座標系SOの原点を把持位置Gに移動させている。   In this example, the relative posture between the first end effector E1 and the object O is an angle between the X axis of the two-dimensional local coordinate system representing the posture of the object O and an auxiliary line extending in the movable direction CA1. φ, an angle θ1 between an auxiliary line extending in the movable direction CA1 and an auxiliary line extending in the movable direction CA2, and an angle θ2 between an auxiliary line extending in the movable direction CA1 and an auxiliary line extending in the movable direction CA3. Represented by two angles. In FIG. 5, the origin of the two-dimensional local coordinate system SO representing the posture of the object O is moved to the gripping position G in order to clearly show the angle φ.

すなわち、第1エンドエフェクターE1の状態は、把持位置Gと、角度φと、角度θ1と、角度θ2との4つの値を成分として有するベクトルである状態ベクトルによって表される。第1エンドエフェクターE1の状態は、状態ベクトルの各成分を変化させる毎に変化する。把持品質評価値算出部46は、ステップS120において位置姿勢検出部44が検出した検出位置姿勢と、状態ベクトルの各成分を変化させる場合に把持品質評価値算出部46が従う所定の規則とに基づいて、状態ベクトルの各成分のうちの少なくとも1つの成分が互いに異なる複数のベクトル、すなわち複数の第1エンドエフェクターE1の状態を算出する。そして、把持品質評価値算出部46は、算出した複数の第1エンドエフェクターE1の状態のそれぞれ毎に、ステップS125の処理を行う。   That is, the state of the first end effector E1 is represented by a state vector that is a vector having four values of the gripping position G, the angle φ, the angle θ1, and the angle θ2. The state of the first end effector E1 changes every time each component of the state vector is changed. The gripping quality evaluation value calculation unit 46 is based on the detected position and orientation detected by the position and orientation detection unit 44 in step S120 and a predetermined rule that the gripping quality evaluation value calculation unit 46 follows when each component of the state vector is changed. Thus, a plurality of vectors in which at least one of the components of the state vector is different from each other, that is, the states of the plurality of first end effectors E1 are calculated. Then, the gripping quality evaluation value calculation unit 46 performs the process of step S125 for each of the calculated states of the plurality of first end effectors E1.

ここで、把持品質評価値算出部46が状態ベクトルの各成分を変化させる場合に従う所定の規則について説明する。把持品質評価値算出部46は、状態ベクトルの4つの成分のうちの把持位置Gを変化させる場合、例えば、対象物Oの輪郭内を所定幅の正方格子に区切り、当該正方格子の格子点のうちの未選択の格子点の位置をランダム、又は所定の選択規則に従って選択する。そして、把持品質評価値算出部46は、選択した格子点の位置に把持位置Gを変化させる。   Here, a predetermined rule according to the case where the gripping quality evaluation value calculation unit 46 changes each component of the state vector will be described. When changing the gripping position G among the four components of the state vector, the gripping quality evaluation value calculation unit 46 divides the contour of the object O into square grids of a predetermined width, and sets the grid points of the square grids. The positions of the unselected grid points are selected randomly or according to a predetermined selection rule. Then, the gripping quality evaluation value calculation unit 46 changes the gripping position G to the position of the selected grid point.

また、把持品質評価値算出部46は、状態ベクトルの4つの成分のうちの角度φを変化させる場合、第1所定角度毎に0°〜360°まで変化させる。第1所定角度は、例えば、1°である。なお、第1所定角度は、他の角度であってもよい。また、把持品質評価値算出部46は、状態ベクトルの4つの成分のうちの角度θ1を変化させる際、第2所定角度毎に0°〜360°まで変化させる。第2所定角度は、例えば、1°である。なお、第2所定角度は、他の角度であってもよい。また、把持品質評価値算出部46は、状態ベクトルの4つの成分のうちの角度θ2を変化させる際、第3所定角度毎に0°〜360°まで変化させる。第3所定角度は、例えば、1°である。なお、第3所定角度は、他の角度であってもよい。   Further, when changing the angle φ of the four components of the state vector, the gripping quality evaluation value calculation unit 46 changes the angle from 0 ° to 360 ° for each first predetermined angle. The first predetermined angle is 1 °, for example. The first predetermined angle may be another angle. Further, when changing the angle θ1 of the four components of the state vector, the gripping quality evaluation value calculation unit 46 changes the angle from 0 ° to 360 ° every second predetermined angle. The second predetermined angle is 1 °, for example. The second predetermined angle may be another angle. Further, when changing the angle θ2 of the four components of the state vector, the gripping quality evaluation value calculation unit 46 changes the angle from 0 ° to 360 ° for each third predetermined angle. The third predetermined angle is 1 °, for example. The third predetermined angle may be another angle.

このような所定の規則に基づいて、把持品質評価値算出部46は、ステップS123において、把持位置Gと、角度φと、角度θ1と、角度θ2とのうちの少なくとも1つが互いに異なる複数の状態ベクトルを算出し、算出した状態ベクトルが表わす第1エンドエフェクターE1の状態毎にステップS125の処理を行う。   Based on such a predetermined rule, in step S123, the grip quality evaluation value calculation unit 46 has a plurality of states in which at least one of the grip position G, the angle φ, the angle θ1, and the angle θ2 is different from each other. A vector is calculated, and the process of step S125 is performed for each state of the first end effector E1 represented by the calculated state vector.

ステップS123において第1エンドエフェクターE1の状態が選択された後、把持品質評価値算出部46は、当該状態に基づいて把持品質評価値を算出する(ステップS125)。より具体的には、把持品質評価値算出部46は、記憶部32から誤差情報を読み出し、読み出した誤差情報と、検出位置姿勢と、ステップS123において選択した第1エンドエフェクターE1の状態とに基づいて把持品質評価値を算出する。   After the state of the first end effector E1 is selected in step S123, the gripping quality evaluation value calculation unit 46 calculates a gripping quality evaluation value based on the state (step S125). More specifically, the grip quality evaluation value calculation unit 46 reads error information from the storage unit 32, and based on the read error information, the detected position and orientation, and the state of the first end effector E1 selected in step S123. To calculate the grip quality evaluation value.

ここで、ステップS125の処理について説明する。把持品質評価値算出部46は、記憶部32から誤差情報を読み出す。把持品質評価値算出部46は、読み出した誤差情報と、ステップS120において位置姿勢検出部44が検出した検出位置姿勢とに基づいて、検出位置姿勢の誤差であって大きさの異なる複数の誤差を算出する。そして、把持品質評価値算出部46は、算出した複数の誤差のそれぞれ毎に、検出位置姿勢に当該誤差を加算した位置及び姿勢を算出位置姿勢として算出する。   Here, the process of step S125 will be described. The gripping quality evaluation value calculation unit 46 reads error information from the storage unit 32. Based on the read error information and the detected position / posture detected by the position / posture detection unit 44 in step S120, the gripping quality evaluation value calculation unit 46 calculates a plurality of errors of detected position / posture and having different sizes. calculate. Then, for each of the plurality of calculated errors, the gripping quality evaluation value calculation unit 46 calculates a position and posture obtained by adding the error to the detected position and posture as a calculated position and posture.

例えば、把持品質評価値算出部46は、ステップS120において位置姿勢検出部44が検出した検出位置姿勢の誤差の分布を、誤差情報が示す確率分布であると決定する。この一例において、誤差情報が正規分布を示す情報であるため、把持品質評価値算出部46は、当該検出位置姿勢の誤差の分布が正規分布であると決定する。そして、把持品質評価値算出部46は、検出位置姿勢と正規分布とに基づいて、検出位置姿勢が±0.1標準偏差、±0.3標準偏差、±0.5標準偏差。±0.7標準偏差、±1標準偏差の計10の互いに大きさの異なる誤差を算出する。そして、把持品質評価値算出部46は、これらの誤差のそれぞれ毎に、検出位置姿勢に当該誤差を加算した位置及び姿勢を算出位置姿勢として算出する。なお、把持品質評価値算出部46は、これらの誤差に代えて、他の誤差を用いて算出位置姿勢を算出する構成であってもよい。また、把持品質評価値算出部46は、10の誤差を算出する構成に代えて、10未満の誤差を算出する構成であってもよく、11以上の誤差を算出する構成であってもよい。   For example, the grip quality evaluation value calculation unit 46 determines that the error distribution of the detected position and orientation detected by the position and orientation detection unit 44 in step S120 is a probability distribution indicated by the error information. In this example, since the error information is information indicating a normal distribution, the gripping quality evaluation value calculation unit 46 determines that the error distribution of the detected position and orientation is a normal distribution. Then, the gripping quality evaluation value calculation unit 46 has the detected position and orientation of ± 0.1 standard deviation, ± 0.3 standard deviation, and ± 0.5 standard deviation based on the detected position and orientation and the normal distribution. An error of a magnitude different from each other is calculated for a total of ± 0.7 standard deviation and ± 1 standard deviation. Then, for each of these errors, the gripping quality evaluation value calculation unit 46 calculates the position and orientation obtained by adding the error to the detected position and orientation as the calculated position and orientation. Note that the grip quality evaluation value calculation unit 46 may be configured to calculate the calculated position and orientation using other errors instead of these errors. Further, the gripping quality evaluation value calculation unit 46 may be configured to calculate an error of less than 10 instead of the configuration of calculating 10 errors, or may be configured to calculate 11 or more errors.

また、この一例において、把持品質評価値算出部46は、算出位置姿勢を算出する際、対象物Oの位置と対象物Oの姿勢との両方がそれぞれ誤差によってずれた場合の算出位置姿勢を算出する。なお、把持品質評価値算出部46は、算出位置姿勢を算出する際、対象物Oの位置のみが誤差によってずれた場合の算出位置姿勢と、対象物Oの姿勢のみが誤差によってずれた場合の算出位置姿勢とのいずれか一方又は両方を算出する構成であってもよい。以下では、説明の便宜上、複数の算出位置姿勢と、検出位置姿勢とをまとめて対象物位置姿勢と称して説明する。   In this example, the gripping quality evaluation value calculation unit 46 calculates the calculated position and orientation when both the position of the object O and the attitude of the object O are shifted due to errors when calculating the calculated position and orientation. To do. When calculating the calculated position and orientation, the gripping quality evaluation value calculation unit 46 calculates the calculated position and orientation when only the position of the object O is shifted due to an error, and the case where only the orientation of the object O is shifted due to an error. It may be configured to calculate either one or both of the calculated position and orientation. Hereinafter, for convenience of explanation, a plurality of calculated position / postures and detected position / postures will be collectively referred to as an object position / posture.

図6は、対象物位置姿勢のそれぞれを視覚的に示した図である。図6において最も太い線で描かれた輪郭COは、対象物位置姿勢に含まれる検出位置姿勢の対象物Oの輪郭を示している。輪郭CO以外の輪郭は、対象物位置姿勢に含まれる複数の算出位置姿勢それぞれの対象物Oの輪郭を示している。なお、図6では、各対象物位置姿勢の対象物Oの輪郭を明確に示すため、対象物Oの重心の位置を原点としたX軸及びY軸を示した(この一例では、単位はピクセル)。また、当該X軸の方向は、ステップS120において位置姿勢検出部44が特定した対象物Oの姿勢を表す2つの座標軸のうちのX軸の方向と一致する。また、当該Y軸の方向は、ステップS120において位置姿勢検出部44が特定した対象物Oの姿勢を表す2つの座標軸のうちのY軸の方向と一致する。また、図6に示した複数の輪郭のそれぞれは、重なり合った輪郭同士を明確に示すため、互いに僅かに歪ませて描いている。また、図6に示した複数の把持位置Gは、把持品質評価値算出部46が第1エンドエフェクターE1の状態を表す状態ベクトルを算出する際に、この一例における所定の規則に従って把持位置Gを変化させることが可能な複数の格子点である。   FIG. 6 is a diagram visually showing each of the object positions and orientations. In FIG. 6, a contour CO drawn by the thickest line indicates the contour of the object O in the detected position and orientation included in the object position and orientation. Contours other than the contour CO indicate the contours of the object O in each of a plurality of calculated positions and orientations included in the object position and orientation. In FIG. 6, in order to clearly show the outline of the object O at each object position and orientation, the X axis and the Y axis with the position of the center of gravity of the object O as the origin are shown (in this example, the unit is a pixel) ). Further, the direction of the X axis coincides with the direction of the X axis of the two coordinate axes representing the posture of the object O identified by the position and posture detection unit 44 in step S120. Further, the direction of the Y axis coincides with the direction of the Y axis of the two coordinate axes representing the attitude of the object O specified by the position / orientation detection unit 44 in step S120. In addition, each of the plurality of contours shown in FIG. 6 is drawn slightly distorted to clearly show the overlapping contours. In addition, when the gripping quality evaluation value calculation unit 46 calculates a state vector representing the state of the first end effector E1, the gripping positions G shown in FIG. 6 are determined according to a predetermined rule in this example. A plurality of lattice points that can be changed.

把持品質評価値算出部46は、このような算出位置姿勢を算出した後、読み出した誤差情報に基づいて、対象物位置姿勢それぞれの出現確率を算出する。前述したように、この一例では、誤差情報は、正規分布を示す情報である。また、検出位置姿勢と算出位置姿勢との関係から分かる通り、検出位置姿勢は、正規分布における中心値として扱われる。このため、検出位置姿勢の出現確率は、最大となる。また、検出位置姿勢に±1標準偏差の誤差を加算した算出位置姿勢の出現確率はそれぞれ、最小となる。図6に示した各対象物位置姿勢の対象物Oの輪郭の太さは、それぞれの輪郭が示す対象物位置姿勢の出現確率を表している。   After calculating such a calculated position and orientation, the gripping quality evaluation value calculation unit 46 calculates the appearance probability of each object position and orientation based on the read error information. As described above, in this example, the error information is information indicating a normal distribution. As can be seen from the relationship between the detected position and orientation and the calculated position and orientation, the detected position and orientation are treated as the center value in the normal distribution. For this reason, the appearance probability of the detected position and orientation is maximized. In addition, the appearance probability of the calculated position and orientation obtained by adding an error of ± 1 standard deviation to the detected position and orientation is minimum. The thickness of the contour of the object O at each object position and orientation shown in FIG. 6 represents the appearance probability of the object position and orientation indicated by each contour.

このように出現確率を算出した後、把持品質評価値算出部46は、対象物位置姿勢のそれぞれ毎に、ステップS123において選択した第1エンドエフェクターE1の状態によって対象物Oを把持した場合の、第1エンドエフェクターE1と対象物Oの相対的な位置及び姿勢の変化のし難さを示す評価値を算出する。例えば、検出位置姿勢を第1位置姿勢、10の算出位置姿勢を第2位置姿勢〜第11位置姿勢とした場合、第1位置姿勢〜第11位置姿勢のそれぞれ毎に、ステップS123において選択した第1エンドエフェクターE1の状態によって対象物Oを把持した場合の、第1エンドエフェクターE1と対象物Oの相対的な位置及び姿勢の変化のし難さを示す評価値を算出する。そして、把持品質評価値算出部46は、算出された複数の評価値(この一例において、11の評価値)に基づいて把持品質評価値を算出する。この一例において、把持品質評価値算出部46は、算出位置姿勢毎に算出された評価値の総和を把持品質評価値として算出する。   After calculating the appearance probability in this way, the gripping quality evaluation value calculation unit 46 grips the object O according to the state of the first end effector E1 selected in step S123 for each target object position and orientation. An evaluation value indicating the difficulty in changing the relative position and posture of the first end effector E1 and the object O is calculated. For example, if the detected position / posture is the first position / posture and the calculated position / posture of 10 is the second position / posture to the eleventh position / posture, the first position / posture is selected in step S123 for each of the first position / posture. An evaluation value indicating the difficulty in changing the relative position and posture of the first end effector E1 and the object O when the object O is gripped by the state of the one end effector E1 is calculated. Then, the gripping quality evaluation value calculation unit 46 calculates a gripping quality evaluation value based on the plurality of calculated evaluation values (11 evaluation values in this example). In this example, the gripping quality evaluation value calculation unit 46 calculates the sum of the evaluation values calculated for each calculated position and orientation as the gripping quality evaluation value.

ここで、把持品質評価値を算出する処理について説明する。把持品質評価値算出部46は、以下に示す式(1)に基づいて把持品質評価値を算出する。なお、以下では、A_Bと記載した場合、BはAの後に付く下付き添え字であるとして説明する。すなわち、Aはベクトルであり、BはベクトルであるAの各成分を表す変数である。また、A_BCと記載した場合、B及びCは、Aの後に付く下付き添え字であるとして説明する。すなわち、Aはテンソルであり、B及びCは、テンソルであるAの各成分を表す変数である。また、B^Aと記載した場合、Bは、Aの前に付く上付き添え字であるとして説明する。Aの前に付く上付き添え字は、複数のAを区別するためのラベルとして用いられる。   Here, the process of calculating the grip quality evaluation value will be described. The gripping quality evaluation value calculation unit 46 calculates a gripping quality evaluation value based on the following formula (1). In the following description, when A_B is described, B is a subscript attached after A. That is, A is a vector and B is a variable representing each component of A which is a vector. Further, when A_BC is described, it is assumed that B and C are subscripts attached after A. That is, A is a tensor, and B and C are variables representing each component of A that is a tensor. When B ^ A is described, B is described as a superscript attached to the front of A. A superscript in front of A is used as a label for distinguishing a plurality of A's.

Figure 2017052073
Figure 2017052073

Q_ijは、把持品質評価値を示す。iは、第1エンドエフェクターE1の状態に含まれる第1エンドエフェクターE1と対象物Oの相対的な姿勢を区別するためのラベルとして用いる変数である。jは、対象物位置姿勢のそれぞれを区別するためのラベルとして用いられる変数である。Nは、対象物位置姿勢の数の総和であり、この一例において、11である。   Q_ij indicates a grip quality evaluation value. i is a variable used as a label for distinguishing the relative posture between the first end effector E1 and the object O included in the state of the first end effector E1. j is a variable used as a label for distinguishing each of the object positions and orientations. N is the total number of object positions and postures, and is 11 in this example.

P_jは、jが示す対象物位置姿勢の出現確率である。G_iは、iが示す第1エンドエフェクターE1と対象物Oの相対的な姿勢を示す。kは、第1エンドエフェクターE1の状態に含まれる第1エンドエフェクターE1と対象物Oの相対的な位置(例えば、図6に示した複数の把持位置Gのそれぞれ)を区別するためのラベルとして用いる変数である。q_jk(G_i)は、iが示す第1エンドエフェクターE1と対象物Oの相対的な姿勢G_iが実現した場合に、jが示す対象物位置姿勢の対象物Oをkが示す把持位置Gにおいて把持した場合の評価値である。   P_j is the appearance probability of the object position / posture indicated by j. G_i indicates the relative posture of the first end effector E1 and the object O indicated by i. k is a label for distinguishing the relative positions of the first end effector E1 and the object O included in the state of the first end effector E1 (for example, each of the plurality of gripping positions G shown in FIG. 6). The variable to use. q_jk (G_i) holds the object O in the object position and posture indicated by j at the holding position G indicated by k when the relative posture G_i of the first end effector E1 and the object O indicated by i is realized. This is the evaluation value when

上記の式(1)が示すように、把持品質評価値Q_ikは、jが示す対象物位置姿勢毎に、当該対象物位置姿勢の出現確率を重みとして乗算した評価値q_jk(G_i)を算出し、算出した対象位置姿勢毎の評価値q_jk(G_i)を全て足し合わせたΣq_jk(G_i)を対象位置姿勢の総数Nで除算した平均値である。ここで、Σは、jについての和の記号である。また、評価値q_jk(G_i)は、この一例において、2種類の評価値の和である。2種類の評価値の1つ目は、第1エンドエフェクターE1と対象物Oの相対的な位置の変化のし難さ(並進のし難さ)を表す並進評価値r_ijk(=r_jk(G_i))である。2種類の評価値の2つ目は、第1エンドエフェクターE1と対象物Oの相対的な姿勢の変化のし難さ(回転のし難さ)を表す回転評価値τ_ijk(τ_jk(G_i))である。並進評価値r_jk(G_i)によって算出される把持品質評価値を並進把持品質評価値1^Q_ikとし、回転評価値τ_jk(G_i)によって算出される把持品質評価値を回転把持品質評価値2^Q_ikとすると、これらはそれぞれ以下に示した式(2)、式(3)のように表される。   As shown in the above equation (1), the gripping quality evaluation value Q_ik calculates an evaluation value q_jk (G_i) obtained by multiplying the appearance probability of the target object position / posture by the weight for each target object position / posture indicated by j. The average value obtained by dividing Σq_jk (G_i), which is the sum of all the calculated evaluation values q_jk (G_i) for each target position and orientation, by the total number N of target positions and orientations. Here, Σ is a sum symbol for j. The evaluation value q_jk (G_i) is the sum of two types of evaluation values in this example. The first of the two types of evaluation values is a translation evaluation value r_ijk (= r_jk (G_i)) indicating the difficulty in changing the relative position between the first end effector E1 and the object O (difficulty in translation). ). The second of the two types of evaluation values is a rotation evaluation value τ_ijk (τ_jk (G_i)) that represents the difficulty in changing the relative posture of the first end effector E1 and the object O (difficulty in rotation). It is. The grip quality evaluation value calculated by the translation evaluation value r_jk (G_i) is taken as the translation grip quality evaluation value 1 ^ Q_ik, and the grip quality evaluation value calculated by the rotation evaluation value τ_jk (G_i) is the rotation grip quality evaluation value 2 ^ Q_ik. Then, these are respectively expressed as the following expressions (2) and (3).

Figure 2017052073
Figure 2017052073

Figure 2017052073
Figure 2017052073

把持品質評価値算出部46は、並進評価値r_ijkと、回転評価値τ_ijkとをそれぞれ算出する。把持品質評価値算出部46は、算出した並進評価値r_ijkに基づいて並進把持品質評価値1^Q_ikを算出し、算出した回転評価値τ_ijkに基づいて回転把持品質評価値2^Q_ikを算出する。そして、把持品質評価値算出部46は、前述の把持品質評価値Q_ikを、並進把持品質評価値1^Q_ikと回転把持品質評価値2^Q_ikの和として算出する。なお、把持品質評価値算出部46は、並進評価値r_ijkと、回転評価値τ_ijkとのいずれか一方のみを算出する構成であってもよい。この場合、把持品質評価値Q_ikは、並進把持品質評価値1^Q_ikと、回転把持品質評価値2^Q_ikとのいずれか一方のみのことである。   The gripping quality evaluation value calculation unit 46 calculates a translation evaluation value r_ijk and a rotation evaluation value τ_ijk. The gripping quality evaluation value calculation unit 46 calculates a translational gripping quality evaluation value 1 ^ Q_ik based on the calculated translational evaluation value r_ijk, and calculates a rotational gripping quality evaluation value 2 ^ Q_ik based on the calculated rotational evaluation value τ_ijk. . Then, the gripping quality evaluation value calculation unit 46 calculates the above-described gripping quality evaluation value Q_ik as the sum of the translational gripping quality evaluation value 1 ^ Q_ik and the rotational gripping quality evaluation value 2 ^ Q_ik. The gripping quality evaluation value calculation unit 46 may be configured to calculate only one of the translation evaluation value r_ijk and the rotation evaluation value τ_ijk. In this case, the gripping quality evaluation value Q_ik is only one of the translational gripping quality evaluation value 1 ^ Q_ik and the rotating gripping quality evaluation value 2 ^ Q_ik.

以下、対象物位置姿勢毎の評価値q_jk(G_i)の算出方法について説明する。まず、対象物位置姿勢毎の並進評価値r_ijkを算出する処理について説明する。ステップS123において選択した第1エンドエフェクターE1の状態によって把持された対象物Oに対して対象物Oを並進させようとする力が加えられた場合、把持部位C11と、把持部位C12と、把持部位C13とのそれぞれに対しては、対象物Oから垂直抗力と摩擦力が加わる。   Hereinafter, a method for calculating the evaluation value q_jk (G_i) for each object position and orientation will be described. First, a process for calculating the translation evaluation value r_ijk for each object position and orientation will be described. When a force to translate the object O is applied to the object O grasped according to the state of the first end effector E1 selected in step S123, the grasping part C11, the grasping part C12, and the grasping part A normal force and a frictional force are applied from the object O to each of C13.

例えば、把持部位C11に対して対象物Oから加わる垂直抗力の大きさが、把持部位C11が対象物Oに対して加えることが可能な最大の力の大きさよりも大きい場合、対象物Oは、第1エンドエフェクターE1に対して並進する。また、把持部位C12に対して対象物Oから加わる垂直抗力の大きさが、把持部位C12が対象物Oに対して加えることが可能な最大の力の大きさよりも大きい場合、対象物Oは、第1エンドエフェクターE1に対して並進する。また、把持部位C13に対して対象物Oから加わる垂直抗力の大きさが、把持部位C13が対象物Oに対して加えることが可能な最大の力の大きさよりも大きい場合、対象物Oは、第1エンドエフェクターE1に対して並進する。   For example, when the magnitude of the vertical drag applied from the object O to the gripping part C11 is larger than the maximum force that the gripping part C11 can apply to the object O, the object O is It translates with respect to the 1st end effector E1. Further, when the magnitude of the vertical drag applied from the object O to the gripping part C12 is larger than the maximum force that the gripping part C12 can apply to the object O, the object O is It translates with respect to the 1st end effector E1. Further, when the magnitude of the vertical drag applied from the object O to the gripping part C13 is larger than the maximum force that the gripping part C13 can apply to the object O, the object O is It translates with respect to the 1st end effector E1.

また、把持部位C11が支えることが可能な最大の垂直抗力によって対象物Oから把持部位C11に対して加わる摩擦力も大きな力が、当該摩擦力の方向と反対の方向に対象物Oから加わった場合、対象物Oは、第1エンドエフェクターE1に対して並進する。また、把持部位C12が支えることが可能な最大の垂直抗力によって対象物Oから把持部位C12に対して加わる摩擦力も大きな力が、当該摩擦力の方向と反対の方向に対象物Oから加わった場合、対象物Oは、第1エンドエフェクターE1に対して並進する。また、把持部位C13が支えることが可能な最大の垂直抗力によって対象物Oから把持部位C13に対して加わる摩擦力も大きな力が、当該摩擦力の方向と反対の方向に対象物Oから加わった場合、対象物Oは、第1エンドエフェクターE1に対して並進する。   In addition, when a large force is applied from the object O in the direction opposite to the direction of the frictional force from the object O to the gripping part C11 due to the maximum vertical drag that can be supported by the gripping part C11. The object O translates with respect to the first end effector E1. Further, when a large frictional force is applied from the object O to the gripping part C12 by the maximum vertical drag that can be supported by the gripping part C12, from the object O in a direction opposite to the direction of the frictional force. The object O translates with respect to the first end effector E1. In addition, when a large force is applied from the object O in the direction opposite to the direction of the frictional force, the frictional force applied from the object O to the gripping part C13 by the maximum vertical drag that can be supported by the gripping part C13. The object O translates with respect to the first end effector E1.

これらのことから、この一例において、把持品質評価値算出部46は、第1エンドエフェクターE1が備える各把持部位が支えることが可能な最大の垂直抗力と、当該垂直抗力によって対象物Oから当該各把持部位に加わる摩擦力とに基づいて並進評価値r_ijkを算出する。第1エンドエフェクターE1が備える各把持部位が支えることが可能な最大の垂直抗力は、第1エンドエフェクターE1の状態と、対象位置姿勢と、第1力検出部11から取得される第1力検出情報に基づく制御とによって決定される。   Therefore, in this example, the gripping quality evaluation value calculation unit 46 has the maximum vertical drag that can be supported by each gripping part included in the first end effector E1, and each object from the object O by the vertical drag. A translation evaluation value r_ijk is calculated based on the frictional force applied to the grasped part. The maximum normal force that can be supported by each gripping part of the first end effector E1 is the state of the first end effector E1, the target position and posture, and the first force detection acquired from the first force detector 11. It is determined by control based on information.

以下では、把持部位C11が対象物Oから加えられる垂直抗力のうちの把持部位C11が支えることが可能な最大の垂直抗力を垂直抗力f1と称して説明する。また、以下では、把持部位C12が対象物Oから加えられる垂直抗力のうちの把持部位C12が対象物Oを支えることが可能な最大の垂直抗力を垂直抗力f2と称して説明する。また、以下では、把持部位C13が対象物Oから加えられる垂直抗力のうちの把持部位C13が対象物Oを支えることが可能な最大の垂直抗力を垂直抗力f3と称して説明する。   Hereinafter, the maximum vertical drag that can be supported by the gripping part C11 out of the vertical drags applied to the gripping part C11 from the object O will be referred to as a vertical drag f1. In the following description, the maximum vertical drag that the gripping part C12 can support the object O among the vertical drags applied to the gripping part C12 from the object O will be referred to as a vertical drag f2. In the following description, the maximum vertical drag that the gripping part C13 can support the object O among the vertical drags applied to the gripping part C13 from the object O will be referred to as a vertical drag f3.

ここで、図7〜図9を参照し、図7に示した垂直抗力f1〜垂直抗力f3に基づく並進評価値r_ijkの算出方法について説明する。図7は、第1エンドエフェクターE1が備える各把持部位が対象物Oから加えられる垂直抗力のうちの当該各把持部位が支えることが可能な最大の垂直抗力を例示する図である。図7では、垂直抗力f1〜垂直抗力f3それぞれの大きさと方向を矢印で表し、垂直抗力f1〜垂直抗力f3それぞれの作用点を、図7に示した座標系の原点に一致させている。図7に示した座標系の縦軸は、対象物Oの表面から他の物体へと加わる力のY軸方向成分の大きさを表す座標軸Fyである。また、図7に示した横軸は、対象物Oの表面から他の物体へと加わる力のX軸方向成分の大きさを表す座標軸Fxである。   Here, a method of calculating the translation evaluation value r_ijk based on the vertical drag f1 to the vertical drag f3 illustrated in FIG. 7 will be described with reference to FIGS. FIG. 7 is a diagram illustrating the maximum vertical drag that can be supported by each gripping portion of the vertical drag applied from the object O to each gripping portion included in the first end effector E1. In FIG. 7, the magnitudes and directions of the vertical drags f1 to f3 are indicated by arrows, and the action points of the vertical drags f1 to f3 are made to coincide with the origin of the coordinate system shown in FIG. The vertical axis of the coordinate system shown in FIG. 7 is a coordinate axis Fy representing the magnitude of the Y-axis direction component of the force applied from the surface of the object O to another object. Also, the horizontal axis shown in FIG. 7 is a coordinate axis Fx representing the magnitude of the X-axis direction component of the force applied from the surface of the object O to another object.

図7に示した垂直抗力f1〜垂直抗力f3のそれぞれを表す矢印に対して、図8に示したようにフリクションコーンを描くことができる。図8は、図7に示した垂直抗力f1〜垂直抗力f3のそれぞれを表す矢印に対してフリクションコーンを描いた図である。ここで、図8に示した垂直抗力f1を例に挙げてフリクションコーンについて説明する。前述したように、第1エンドエフェクターE1に対して対象物Oを並進させようとした場合、図7に示した垂直抗力f1〜垂直抗力f3のそれぞれによって、対象物Oは、第1エンドエフェクターE1が備える各把持部位に対して摩擦力を加える。   As shown in FIG. 8, a friction cone can be drawn with respect to the arrows representing the normal force f1 to the normal force f3 shown in FIG. FIG. 8 is a diagram in which a friction cone is drawn with respect to the arrows representing the normal force f1 to the normal force f3 shown in FIG. Here, the friction cone will be described by taking the normal force f1 shown in FIG. 8 as an example. As described above, when the object O is to be translated with respect to the first end effector E1, the object O is converted into the first end effector E1 by the vertical drag f1 to the vertical drag f3 shown in FIG. A frictional force is applied to each gripping part included in the.

垂直抗力f1によって把持部位C11に対して対象物Oから加わる摩擦力は、垂直抗力f1を表す矢印の終点と直交する面HLに沿った方向に加わる。面HLは、この一例では、対象物Oに働く力が二次元平面内に含まれる方向にのみ加わる場合を考えているため、線となっている。   The frictional force applied from the object O to the grip portion C11 by the vertical drag f1 is applied in a direction along the plane HL perpendicular to the end point of the arrow representing the vertical drag f1. In this example, the surface HL is a line because it is considered that the force acting on the object O is applied only in the direction included in the two-dimensional plane.

また、垂直抗力f1によって把持部位C11に対して対象物Oから摩擦力が加わる方向は、対象物Oを並進させようとする力の方向によって決まるため、垂直抗力f1を表す矢印の終点を始点として面HLに沿った全ての方向に加わり得る。すなわち、図8に示した例では、垂直抗力f1によって把持部位C11に対して対象物Oから加わり得る摩擦力は、摩擦力f1f1と摩擦力f1f2の2つである。図8に示したように、摩擦力f1f1を表す矢印の終点と、摩擦力f1f2を表す矢印の終点と、垂直抗力f1の始点とは、三角形を形成する。対象物Oに働く力が三次元空間内に含まれる方向に加わる場合、垂直抗力f1によって把持部位C11に対して対象物Oから加わり得る各摩擦力を表す矢印の終点と、垂直抗力f1を表す矢印の始点とは、三角錐を形成する。前述のフリクションコーンは、このような三角形や三角錐のことである。   In addition, the direction in which the frictional force is applied from the object O to the grasping part C11 by the vertical drag f1 is determined by the direction of the force that tries to translate the object O. It can join in all directions along the surface HL. That is, in the example shown in FIG. 8, the two frictional forces that can be applied from the object O to the gripping part C11 by the vertical drag f1 are the frictional force f1f1 and the frictional force f1f2. As shown in FIG. 8, the end point of the arrow representing the friction force f1f1, the end point of the arrow representing the friction force f1f2, and the start point of the normal force f1 form a triangle. When the force acting on the object O is applied in the direction included in the three-dimensional space, the end point of each arrow representing the frictional force that can be applied from the object O to the gripping portion C11 by the vertical drag f1 and the vertical drag f1. The starting point of the arrow forms a triangular pyramid. The aforementioned friction cone is such a triangle or a triangular pyramid.

図8には、垂直抗力f1に対するフリクションコーンを明確に示すため、垂直抗力f1を表す矢印の始点から摩擦力f1f1を表す矢印の終点までを結ぶ矢印f1rと、垂直抗力f1を表す矢印の始点から摩擦力f1f2を表す矢印の終点までを結ぶ矢印f1lとが描かれている。垂直抗力f1を表す矢印と矢印f1rとの間の角度と、垂直抗力f1を表す矢印と矢印f1lとの間の角度とは、両方とも角度βとなる。角度βは、対象物Oの表面の静止摩擦係数をμとすると、垂直抗力f1と摩擦力f1f1又は摩擦力f1f2との幾何学的な関係に基づいて、β=tan−1μによって算出することができる。この式から分かる通り、角度βは、垂直抗力f1の大きさや摩擦力f1f1又は摩擦力f1f2の大きさには依らず、静止摩擦係数μによってのみ決まる。 In FIG. 8, in order to clearly show the friction cone with respect to the normal force f1, the arrow f1r connecting the start point of the arrow indicating the normal force f1 to the end point of the arrow indicating the friction force f1f1, and the start point of the arrow indicating the normal force f1. An arrow f1l connecting the end point of the arrow representing the frictional force f1f2 is drawn. The angle between the arrow representing the normal force f1 and the arrow f1r and the angle between the arrow representing the normal force f1 and the arrow f1l are both the angle β. The angle β is calculated by β = tan −1 μ based on the geometrical relationship between the normal force f1 and the frictional force f1f1 or the frictional force f1f2 where the static friction coefficient of the surface of the object O is μ. Can do. As can be seen from this equation, the angle β is determined not only by the magnitude of the normal force f1 and the magnitude of the friction force f1f1 or the friction force f1f2, but only by the static friction coefficient μ.

垂直抗力f1に対するフリクションコーンを明確に示すための矢印f1r及び矢印f1lを描いた方法と同様の方法によって、図8には、垂直抗力f2に対するフリクションコーンを明確に示すための矢印f2r及び矢印f2lと、垂直抗力f3に対するフリクションコーンを明確に示すための矢印f3r及び矢印f3lとが描かれている。なお、ここでは、対象物Oの表面の静止摩擦係数μが、対象物Oの表面の至る所で一定であると仮定しているが、これに代えて、対象物Oの表面の一部において異なっていてもよい。   FIG. 8 shows an arrow f2r and an arrow f2l for clearly showing the friction cone with respect to the vertical drag f2 by a method similar to the method for drawing the arrow f1r and the arrow f1l for clearly showing the friction cone with respect to the vertical drag f1. In addition, an arrow f3r and an arrow f3l for clearly showing the friction cone with respect to the normal force f3 are drawn. Here, it is assumed that the static friction coefficient μ on the surface of the object O is constant throughout the surface of the object O, but instead, on a part of the surface of the object O, May be different.

図8に示したフリクションコーンを明確にするための各矢印の終点と、図8に示した各垂直抗力を表す矢印の終点との全てを包含する最小の多角形である凸包の体積は、大きければ大きいほど、対象物Oを並進させる力を対象物Oに加えた場合に第1エンドエフェクターE1と対象物Oの相対的な位置を変化させないように第1エンドエフェクターE1が対象物Oを支える能力が高いことを示す。このため、凸包の体積は、並進評価値r_ijkとして用いることができる特徴を有していると考えられる。しかし、例えば、このような凸包がある特定の方向に細長い場合、当該凸包の体積が大きいにも拘らず、当該方向とは異なる方向に対して対象物Oから第1エンドエフェクターE1に対して力が加わえられた際の第1エンドエフェクターE1が対象物Oを支える能力は、低い。このような理由から、凸包の体積そのものを並進評価値r_ijkとするのは好ましくない。   The volume of the convex hull, which is the smallest polygon that includes all of the end points of the arrows for clarifying the friction cone shown in FIG. 8 and the end points of the arrows representing the normal forces shown in FIG. The larger the value is, the more the first end effector E1 moves the object O so that the relative position between the first end effector E1 and the object O is not changed when a force that translates the object O is applied to the object O. Indicates that the ability to support is high. For this reason, it is considered that the volume of the convex hull has a characteristic that can be used as the translation evaluation value r_ijk. However, for example, when such a convex hull is elongated in a certain direction, the object O is directed from the object O to the first end effector E1 in a direction different from the direction although the volume of the convex hull is large. Therefore, the ability of the first end effector E1 to support the object O when the force is applied is low. For this reason, it is not preferable that the volume of the convex hull itself be the translation evaluation value r_ijk.

そこで、凸包の体積を表し、且つ特定の方向に対する第1エンドエフェクターE1が対象物Oを支える能力の高低を表すことが可能な量として、図8に示した座標系の原点から凸包に内接する最小の内接円の半径を考えることができる。   Therefore, the volume of the convex hull and the amount that can represent the level of the ability of the first end effector E1 to support the object O in a specific direction from the origin of the coordinate system shown in FIG. The radius of the smallest inscribed circle that is inscribed can be considered.

凸包に内接する最小の内接円の半径を算出するためには、図8に示したフリクションコーンを明確にするための各矢印の終点と、図8に示した各垂直抗力を表す矢印の終点とに基づいて凸包を生成する必要がある。また、凸包を生成するためには、図8に示したフリクションコーンを明確にするための各矢印の終点と、図8に示した各垂直抗力を表す矢印の終点とのそれぞれの座標を算出する必要がある。   In order to calculate the radius of the smallest inscribed circle inscribed in the convex hull, the end point of each arrow for clarifying the friction cone shown in FIG. 8 and the arrow indicating each vertical drag shown in FIG. It is necessary to generate a convex hull based on the end point. Further, in order to generate a convex hull, the respective coordinates of the end point of each arrow for clarifying the friction cone shown in FIG. 8 and the end point of the arrow representing each vertical drag shown in FIG. 8 are calculated. There is a need to.

例えば、図8に示した垂直抗力f1に対するフリクションコーンを明確にする矢印f1rの終点P1rの座標(x1r,y1r)は、図8に示した座標系の横軸と垂直抗力f1を表す矢印との間の角度をαとした場合、垂直抗力f1を表す矢印と、矢印f1rとの幾何学的な関係から、以下の式(4)〜式(8)を用いて算出することができる。   For example, the coordinates (x1r, y1r) of the end point P1r of the arrow f1r for clarifying the friction cone with respect to the vertical drag f1 shown in FIG. 8 are the horizontal axis of the coordinate system shown in FIG. 8 and the arrow indicating the vertical drag f1. When the angle between them is α, it can be calculated from the geometric relationship between the arrow representing the normal force f1 and the arrow f1r using the following equations (4) to (8).

|f1r|=|f1|/cos(β) ・・・(4)
x1r=|f1r|cos(α+β) ・・・(5)
y1r=|f1r|sin(α+β) ・・・(6)
| F1r | = | f1 | / cos (β) (4)
x1r = | f1r | cos (α + β) (5)
y1r = | f1r | sin (α + β) (6)

また、垂直抗力f1に対するフリクションコーンを明確にするための矢印f1lの終点P1lの座標(x1l,y1l)は、垂直抗力f1を表す矢印と、矢印f1lと、矢印f1lとの幾何学的な関係から、以下の式(7)〜式(9)を用いて算出することができる。
|f1l|=|f1|/cos(β) ・・・(7)
x1l=|f1l|cos(α−β) ・・・(8)
y1l=|f1l|sin(α−β) ・・・(9)
Further, the coordinates (x1l, y1l) of the end point P1l of the arrow f1l for clarifying the friction cone with respect to the vertical drag f1 are based on the geometric relationship between the arrow representing the vertical drag f1, the arrow f1l, and the arrow f1l. These can be calculated using the following formulas (7) to (9).
| F1l | = | f1 | / cos (β) (7)
x1l = | f1l | cos (α−β) (8)
y1l = | f1l | sin (α−β) (9)

把持品質評価値算出部46は、上記の式(4)〜式(9)を用いて、終点P1r及び終点P1lの座標を算出する。また、把持品質評価値算出部46は、終点P1r及び終点P1lの座標を算出した方法と同様の方法によって、矢印f2r及び矢印f2lそれぞれの終点の座標と、矢印f3r及び矢印f3lそれぞれの終点の座標とを算出する。把持品質評価値算出部46は、算出したこれらの座標に基づいて、図9に示した凸包を生成する。   The gripping quality evaluation value calculation unit 46 calculates the coordinates of the end point P1r and the end point P1l using the above formulas (4) to (9). In addition, the gripping quality evaluation value calculation unit 46 uses the same method as the method of calculating the coordinates of the end point P1r and the end point P1l, the end point coordinates of the arrow f2r and the arrow f2l, and the end point coordinates of the arrow f3r and the arrow f3l. And calculate. The gripping quality evaluation value calculation unit 46 generates the convex hull shown in FIG. 9 based on these calculated coordinates.

図9は、把持品質評価値算出部46が生成する凸包の一例を示す図である。図9に示した凸包CHは、図8に示したフリクションコーンを明確にするための6本の矢印それぞれの終点に基づいて生成された凸包である。把持品質評価値算出部46は、図9に示した座標系(すなわち、図8に示した座標系)の原点から凸包に内接する最小の内接円ICを生成する。そして、把持品質評価値算出部46は、生成した内接円ICの半径r1を並進評価値として算出する。   FIG. 9 is a diagram illustrating an example of a convex hull generated by the gripping quality evaluation value calculation unit 46. The convex hull CH shown in FIG. 9 is a convex hull generated based on the end points of the six arrows for clarifying the friction cone shown in FIG. The gripping quality evaluation value calculation unit 46 generates a minimum inscribed circle IC inscribed in the convex hull from the origin of the coordinate system shown in FIG. 9 (that is, the coordinate system shown in FIG. 8). Then, the gripping quality evaluation value calculation unit 46 calculates the radius r1 of the generated inscribed circle IC as a translation evaluation value.

図9に示した例では、図9に示した座標系の原点から内接円ICが凸包に接した点までの距離である半径r1は、矢印f1rの終点と矢印f3lの終点とを結ぶ線分に対して、図9に示した座標系の原点から垂線を引いた際の当該垂線の長さである。このような垂線の長さの算出は、矢印f1rの終点の座標と、矢印f3lの終点の座標と、当該原点の座標とに基づく初等的な幾何学を用いて算出可能なため、説明を省略する。   In the example shown in FIG. 9, the radius r1, which is the distance from the origin of the coordinate system shown in FIG. 9 to the point where the inscribed circle IC touches the convex hull, connects the end point of the arrow f1r and the end point of the arrow f3l. This is the length of the perpendicular when a perpendicular is drawn from the origin of the coordinate system shown in FIG. Since the calculation of the length of such a perpendicular line can be calculated using elementary geometry based on the coordinates of the end point of the arrow f1r, the coordinates of the end point of the arrow f3l, and the coordinates of the origin point, description thereof is omitted. To do.

このように、把持品質評価値算出部46は、第1エンドエフェクターE1が備える各把持部位が支えることが可能な最大の垂直抗力と、当該垂直抗力に対するフリクションコーンとに基づいて生成される凸包に内接する最小の内接円の半径を、並進評価値r_ijkとして算出する。なお、把持品質評価値算出部46は、並進評価値r_ijkとして、当該凸包の体積を算出する構成であってもよく、当該凸包に基づく他の値を算出する構成であってもよく、当該凸包と無関係な他の値を算出する構成であってもよい。   In this way, the gripping quality evaluation value calculation unit 46 generates the convex hull generated based on the maximum vertical drag that can be supported by each gripping portion of the first end effector E1 and the friction cone against the vertical drag. Is calculated as the translation evaluation value r_ijk. The gripping quality evaluation value calculation unit 46 may be configured to calculate the volume of the convex hull as the translation evaluation value r_ijk, or may be configured to calculate another value based on the convex hull, It may be configured to calculate other values unrelated to the convex hull.

次に、回転評価値τ_ijkを算出する処理について説明する。把持品質評価値算出部46は、ステップS123において選択した第1エンドエフェクターE1の状態によって把持された対象物Oに対して対象物Oを回転させようとする力が加えられた場合、並進させようとする力が当該対象物Oに加えられた場合と同様に、把持部位C11と、把持部位C12と、把持部位C13とのそれぞれに対しては、対象物Oから垂直抗力と摩擦力が加わる。   Next, a process for calculating the rotation evaluation value τ_ijk will be described. The gripping quality evaluation value calculation unit 46 translates when a force to rotate the object O is applied to the object O held by the state of the first end effector E1 selected in step S123. Similarly to the case where the force is applied to the target object O, the normal force and the frictional force are applied from the target object O to each of the gripping part C11, the gripping part C12, and the gripping part C13.

当該摩擦力は、対象物Oを回転させようとする力が対象物Oに加えられた場合、対象物Oを回転させないように支える。より具体的には、当該摩擦力による対象物Oを回転させようとする回転モーメントと、対象物Oを回転させようとする力による対象物Oを回転させようとする回転モーメントとが、大きさが互いに等しく、方向が互いに反対向きである限り、当該摩擦力は、対象物Oを回転させないように支える。   The frictional force supports the object O so as not to rotate when a force for rotating the object O is applied to the object O. More specifically, the rotational moment for rotating the object O by the frictional force and the rotational moment for rotating the object O by the force for rotating the object O are large. Are equal to each other and the directions are opposite to each other, the friction force supports the object O so as not to rotate.

このことから、この一例において、把持品質評価値算出部46は、第1エンドエフェクターE1が備える各把持部位が支えることが可能な最大の垂直抗力によって対象物Oから当該各把持部位に加わる摩擦力により生じる回転モーメントに基づいて回転評価値τ_ijkを算出する。   Therefore, in this example, the gripping quality evaluation value calculation unit 46 is configured so that the frictional force applied from the object O to each gripping part by the maximum normal force that can be supported by each gripping part included in the first end effector E1. The rotation evaluation value τ_ijk is calculated based on the rotation moment generated by the above.

ここで、図10を参照し、回転評価値τ_ijkを算出する方法について説明する。図10は、第1エンドエフェクターE1が備える各把持部位に対して対象物Oから加わっている垂直抗力及び摩擦力を例示した図である。図10に示した把持位置Gの位置は、ステップS123において選択された第1エンドエフェクターE1の状態を表すベクトルが有する成分によって決まる。図10には、第1エンドエフェクターE1に把持された対象物Oが、把持位置Gを回転中心として図10に示した矢印ROの方向、すなわち時計回りに回転させようとする力が働いた様子が示されている。   Here, a method for calculating the rotation evaluation value τ_ijk will be described with reference to FIG. FIG. 10 is a view exemplifying normal force and friction force applied from the object O to each gripping portion provided in the first end effector E1. The position of the gripping position G shown in FIG. 10 is determined by the component of the vector representing the state of the first end effector E1 selected in step S123. In FIG. 10, the object O gripped by the first end effector E1 exerts a force to rotate in the direction of the arrow RO shown in FIG. It is shown.

この一例において、回転評価値τ_ijkを算出する際、把持部位C11に対して対象物Oから垂直抗力f1が加わり、把持部位C12に対して対象物Oから垂直抗力f2が加わり、把持部位C13に対して対象物Oから垂直抗力f3が加わる状況を想定する。このため、図10では、垂直抗力f1によって把持部位C11に対して対象物Oから加わる摩擦力を摩擦力μf1によって示し、垂直抗力f2によって把持部位C12に対して対象物Oから加わる摩擦力を摩擦力μf2によって示し、垂直抗力f3によって把持部位C13に対して対象物Oから加わる摩擦力を摩擦力μf3によって示した。また、図10では、対象物Oの輪郭を形成する6つの辺のうちの把持部位C11が接している辺から把持位置Gまでの最短距離を距離r4によって示し、対象物Oの輪郭を形成する6つの辺のうちの把持部位C12が接している辺から把持位置Gまでの最短距離を距離r5によって示し、対象物Oの輪郭を形成する6つの辺のうちの把持部位C13が接している辺から把持位置Gまでの最短距離を距離r6によって示した。   In this example, when the rotation evaluation value τ_ijk is calculated, the vertical drag f1 is applied from the object O to the gripping part C11, the vertical drag f2 is applied from the object O to the gripping part C12, and the gripping part C13 is applied. Assume that the vertical force f3 is applied from the object O. For this reason, in FIG. 10, the frictional force applied from the object O to the gripping part C11 by the vertical drag f1 is indicated by the friction force μf1, and the frictional force applied from the object O to the gripping part C12 by the vertical drag f2 is rubbed. The frictional force indicated by the force μf2 and the frictional force applied from the object O to the gripping part C13 by the vertical drag force f3 is indicated by the frictional force μf3. Further, in FIG. 10, the shortest distance from the side of the six sides that form the contour of the object O to which the gripping part C11 is in contact to the gripping position G is indicated by a distance r4, and the contour of the target object O is formed. Of the six sides, the shortest distance from the side where the gripping part C12 is in contact to the gripping position G is indicated by the distance r5, and the side where the gripping part C13 is in contact among the six sides forming the outline of the object O The shortest distance from the gripping position G to the gripping position G is indicated by a distance r6.

この一例では、把持品質評価値算出部46は、対象物Oの回転中心が常に把持位置Gであるとして回転評価値を算出する。なお、対象物Oの回転中心は、把持位置Gに代えて、第1アームのTCPであってもよく、対象物Oに対応付けられる他の位置であってもよい。把持品質評価値算出部46は、摩擦力μf1によって生じる回転モーメントであって、把持位置Gを回転中心として対象物Oを矢印ROの向きとは反対向きに回転させようとする回転モーメントμf1×r4を算出する。また、把持品質評価値算出部46は、摩擦力μf2によって生じる回転モーメントであって、把持位置Gを回転中心として対象物Oを矢印ROの向きとは反対向きに回転させようとする回転モーメントμf2×r5を算出する。また、把持品質評価値算出部46は、摩擦力μf3によって生じる回転モーメントであって、把持位置Gを回転中心として対象物Oを矢印ROの向きとは反対向きに回転させようとする回転モーメントμf3×r6を算出する。   In this example, the grip quality evaluation value calculation unit 46 calculates the rotation evaluation value assuming that the rotation center of the object O is always the grip position G. Note that the rotation center of the object O may be the TCP of the first arm instead of the grip position G, or may be another position associated with the object O. The gripping quality evaluation value calculation unit 46 is a rotational moment generated by the frictional force μf1, and is a rotational moment μf1 × r4 that attempts to rotate the object O in the direction opposite to the direction of the arrow RO around the gripping position G. Is calculated. Further, the grip quality evaluation value calculation unit 46 is a rotation moment generated by the frictional force μf2, and the rotation moment μf2 that tries to rotate the object O in the direction opposite to the direction of the arrow RO with the gripping position G as the rotation center. Xr5 is calculated. The gripping quality evaluation value calculation unit 46 is a rotational moment generated by the frictional force μf3, and a rotational moment μf3 that attempts to rotate the object O in the direction opposite to the direction of the arrow RO around the gripping position G. Xr6 is calculated.

把持品質評価値算出部46は、算出したこれら3つの回転モーメントの総和を回転評価値τ_ijkとして算出する。このようにして、把持品質評価値算出部46は、第1エンドエフェクターE1が備える各把持部位が支えることが可能な最大の垂直抗力によって当該各把持部位に対して対象物Oから加わる摩擦力により生じる回転モーメントに基づいて回転評価値τ_ijkを算出する。なお、把持品質評価値算出部46は、これら3つの回転モーメントに基づく他の値を回転評価値τ_ijkとして算出する構成であってもよく、これら3つの回転モーメントとは異なる他の値に基づく値を回転評価値τ_ijkとして算出する構成であってもよい。   The gripping quality evaluation value calculation unit 46 calculates the total of the calculated three rotation moments as the rotation evaluation value τ_ijk. In this way, the gripping quality evaluation value calculation unit 46 uses the friction force applied from the object O to each gripping part by the maximum vertical drag that can be supported by each gripping part included in the first end effector E1. A rotation evaluation value τ_ijk is calculated based on the generated rotation moment. The gripping quality evaluation value calculation unit 46 may be configured to calculate another value based on these three rotational moments as the rotational evaluation value τ_ijk, and a value based on another value different from these three rotational moments. May be calculated as the rotation evaluation value τ_ijk.

以上のようにして並進評価値r_ijkと回転評価値τ_ijkが算出された後、把持品質評価値算出部46は、上記の式(2)に基づいて並進把持品質評価値1^Q_ikを算出し、上記の式(3)に基づいて回転把持品質評価値2^Q_ikを算出する。そして、把持品質評価値算出部46は、算出した並進把持品質評価値1^Q_ikと回転把持品質評価値2^Q_ikの和を把持品質評価値Q_ikとして算出する。すなわち、把持品質評価値算出部46は、以下の式(10)に基づいて把持品質評価値Q_ikを算出する。   After the translation evaluation value r_ijk and the rotation evaluation value τ_ijk are calculated as described above, the gripping quality evaluation value calculation unit 46 calculates the translational gripping quality evaluation value 1 ^ Q_ik based on the above equation (2). Based on the above equation (3), the rotary grip quality evaluation value 2 ^ Q_ik is calculated. Then, the gripping quality evaluation value calculation unit 46 calculates the sum of the calculated translational gripping quality evaluation value 1 ^ Q_ik and the rotational gripping quality evaluation value 2 ^ Q_ik as the gripping quality evaluation value Q_ik. That is, the grip quality evaluation value calculation unit 46 calculates the grip quality evaluation value Q_ik based on the following equation (10).

Q_ik=1^Q_ik+2^Q_ik ・・・(10)   Q_ik = 1 ^ Q_ik + 2 ^ Q_ik (10)

なお、把持品質評価値算出部46は、重みωを用いて、以下に示した式(11)のように並進把持品質評価値1^Q_ikと回転把持品質評価値2^Q_ikとの相対的な大きさを調整する構成であってもよい。   Note that the gripping quality evaluation value calculation unit 46 uses the weight ω to make the relative gripping quality evaluation value 1 ^ Q_ik and the rotational gripping quality evaluation value 2 ^ Q_ik relative to each other as shown in the following equation (11). The structure which adjusts a magnitude | size may be sufficient.

Q_ik=1^Q_ik+ω×2^Q_ik ・・・(11)   Q_ik = 1 ^ Q_ik + ω × 2 ^ Q_ik (11)

重みωは、0以上1以下の値である。これにより、例えば、把持品質評価値算出部46は、第1エンドエフェクターE1に対する対象物Oの並進し難さを表す並進把持品質評価値1^Q_ikと、第1エンドエフェクターE1に対する対象物Oの回転し難さを表す回転把持品質評価値2^Q_ikとを同程度の大きさに調整することができる。   The weight ω is a value between 0 and 1. Thereby, for example, the gripping quality evaluation value calculation unit 46 translates the gripping quality evaluation value 1 ^ Q_ik representing the difficulty of translation of the object O with respect to the first end effector E1, and the object O with respect to the first end effector E1. The rotational grip quality evaluation value 2 ^ Q_ik representing the difficulty of rotation can be adjusted to the same level.

ステップS125の処理を繰り返すことにより、ステップS123において選択された第1エンドエフェクターE1の状態毎に把持品質評価値Q_ikを算出した後、ハンド状態決定部47は、ステップS125において算出された複数の把持品質評価値Q_ikの中から最大の把持品質評価値Q_ikを抽出する。そして、ハンド状態決定部47は、抽出した最大の把持品質評価値Q_ikを算出するために用いられた第1エンドエフェクターE1の状態を、第1エンドエフェクターE1に対象物Oを把持させる際に適した第1エンドエフェクターE1の状態として決定する(ステップS130)。   After calculating the grip quality evaluation value Q_ik for each state of the first end effector E1 selected in step S123 by repeating the process of step S125, the hand state determination unit 47 performs the plurality of grips calculated in step S125. The maximum grip quality evaluation value Q_ik is extracted from the quality evaluation value Q_ik. Then, the hand state determination unit 47 is suitable for causing the first end effector E1 to grip the object O with the state of the first end effector E1 used to calculate the extracted maximum grip quality evaluation value Q_ik. The state of the first end effector E1 is determined (step S130).

次に、ロボット制御部48は、ステップS130において決定された第1エンドエフェクターE1の状態をロボット20に実現させ、対象物Oをロボット20に把持させる。そして、ロボット制御部48は、ロボット20が把持した対象物Oを、給材領域Aへロボット20に給材させ(ステップS140)、処理を終了する。   Next, the robot control unit 48 causes the robot 20 to realize the state of the first end effector E1 determined in step S130, and causes the robot 20 to grip the object O. Then, the robot controller 48 feeds the object O gripped by the robot 20 to the feeding area A to the robot 20 (step S140), and ends the process.

以上説明したように、実施形態におけるロボット20のロボット制御装置30は、対象物Oの位置及び姿勢と、当該位置及び姿勢の誤差情報と、ハンド(この一例において、第1エンドエフェクターE1)の状態とに基づきハンドの状態を決定する。これにより、ロボット制御装置30は、ハンドに対象物Oを把持させる際に適したハンドの状態によって対象物Oをハンドに把持させることができる。   As described above, the robot control device 30 of the robot 20 in the embodiment includes the position and posture of the object O, error information on the position and posture, and the state of the hand (in this example, the first end effector E1). Based on the above, the hand state is determined. Accordingly, the robot control device 30 can cause the hand to hold the object O according to the state of the hand suitable for causing the hand to hold the object O.

また、ロボット制御装置30は、対象物Oの位置及び姿勢を画像(この一例において、第3撮像部23が撮像した撮像画像)から検出する。これにより、ロボット制御装置30は、画像から検出した対象物Oの位置及び姿勢に基づいて決定されたハンドの状態によって対象物Oをハンドに把持させることができる。   In addition, the robot control device 30 detects the position and orientation of the object O from an image (in this example, a captured image captured by the third imaging unit 23). Thereby, the robot controller 30 can cause the hand to hold the object O according to the state of the hand determined based on the position and orientation of the object O detected from the image.

また、ロボット制御装置30は、対象物Oの位置及び姿勢と、当該位置及び姿勢の誤差情報と、ハンドの状態とに基づく当該ハンドの状態を評価する評価値(例えば、上記で説明した並進評価値、回転評価値、並進把持品質評価値、回転把持品質評価値のうちの少なくともいずれか1つ)に応じてハンドの状態を決定する。これにより、ロボット制御装置30は、ハンドに対象物Oを把持させる際に適したハンドの状態によって対象物Oをハンドに把持させることができる。   Further, the robot control apparatus 30 evaluates the state of the hand based on the position and posture of the object O, error information on the position and posture, and the state of the hand (for example, the translation evaluation described above). The state of the hand is determined according to at least one of a value, a rotation evaluation value, a translational grip quality evaluation value, and a rotation grip quality evaluation value. Accordingly, the robot control device 30 can cause the hand to hold the object O according to the state of the hand suitable for causing the hand to hold the object O.

また、ロボット制御装置30は、ハンドにより対象物Oが把持された際に、ハンドと対象物Oとの相対的な位置及び姿勢の変化のし難さを示す値である評価値に応じてハンドの状態を決定する。これにより、ロボット制御装置30は、ハンドにより対象物Oが把持された際に、ハンドと対象物Oとの相対的な位置及び姿勢の変化のし難さを示す値である評価値に応じて決定されたハンドの状態によって対象物Oを把持することができる。   Further, the robot control device 30 determines whether the hand O is gripped by the hand according to an evaluation value that is a value indicating the difficulty of changing the relative position and posture of the hand and the object O. Determine the state. Thereby, the robot control apparatus 30 responds to the evaluation value which is a value indicating the difficulty of changing the relative position and posture of the hand and the object O when the object O is gripped by the hand. The object O can be held according to the determined hand state.

また、ロボット制御装置30は、ハンドにより対象物Oが把持された際に、ハンドに対する対象物Oの並進のし難さを示す値を含む評価値(例えば、上記で説明した並進評価値や並進把持品質評価値)に基づいてハンドの状態を決定する。これにより、ロボット制御装置30は、ハンドにより対象物Oが把持された際に、ハンドに対する対象物Oの並進のし難さを示す値を含む評価値に応じて決定されたハンドの状態によって対象物Oを把持することができる。   In addition, the robot control device 30 determines an evaluation value including a value indicating the difficulty of translation of the object O with respect to the hand when the object O is gripped by the hand (for example, the translation evaluation value or the translation described above). The hand state is determined based on the gripping quality evaluation value. Thereby, when the object O is gripped by the hand, the robot controller 30 controls the object according to the state of the hand determined according to the evaluation value including the value indicating the difficulty of translation of the object O with respect to the hand. The object O can be gripped.

また、ロボット制御装置30は、ハンドにより対象物Oが把持された際に、ハンドに対する対象物Oの回転のし難さを示す値を含む評価値(例えば、上記で説明した回転評価値や回転把持品質評価値)に基づいてハンドの状態を決定する。これにより、ロボット制御装置30は、ハンドにより対象物Oが把持された際に、ハンドに対する対象物Oの回転のし難さを示す値を含む評価値に基づいて決定されたハンドの状態によって対象物Oを把持することができる。   In addition, the robot control device 30 is configured such that when the object O is gripped by the hand, an evaluation value including a value indicating the difficulty of rotation of the object O with respect to the hand (for example, the rotation evaluation value or the rotation described above). The hand state is determined based on the gripping quality evaluation value. Thereby, when the object O is gripped by the hand, the robot control device 30 performs the object according to the state of the hand determined based on the evaluation value including the value indicating the difficulty of rotation of the object O with respect to the hand. The object O can be gripped.

また、ロボット制御装置30は、対象物Oの位置及び姿勢と、当該位置及び姿勢の誤差情報と、ハンドと対象物との相対的な位置及び姿勢を含むハンドの状態とに基づきハンドの状態を決定する。これにより、ロボット制御装置30は、ハンドと対象物Oとの相対的な位置及び姿勢を含むハンドの状態に基づいて決定されたハンドの状態によって対象物Oを把持することができる。   The robot control device 30 determines the state of the hand based on the position and posture of the object O, error information on the position and posture, and the state of the hand including the relative position and posture between the hand and the object. decide. Thereby, the robot control apparatus 30 can hold the object O according to the hand state determined based on the hand state including the relative position and posture between the hand and the object O.

また、ロボット制御装置30は、対象物Oの位置及び姿勢と、当該位置及び姿勢の誤差情報と、ハンドが備える把持部位(この一例において、把持部位C11、把持部位C12、把持部位C13)間の角度を含むハンドの状態とに基づきハンドの状態を決定する。これにより、ロボット制御装置30は、ハンドが備える把持部位間の角度を含むハンドの状態に基づいて決定されたハンドの状態によって対象物Oを把持することができる。   In addition, the robot control device 30 includes the position and posture of the object O, error information on the position and posture, and the gripping parts included in the hand (in this example, the gripping part C11, the gripping part C12, and the gripping part C13). The hand state is determined based on the hand state including the angle. Thereby, the robot control apparatus 30 can hold | grip the target object O with the state of the hand determined based on the state of the hand including the angle between the holding | gripping parts with which a hand is equipped.

また、ロボット制御装置30は、対象物Oの位置及び姿勢と、確率分布(この一例において、正規分布)を示す情報である誤差情報と、ハンドの状態とに基づきハンドの状態を決定する。これにより、ロボット制御装置30は、対象物Oの位置及び姿勢と、確率分布を示す情報と、ハンドの状態とに基づいて決定されたハンドの状態によって対象物Oを把持することができる。   In addition, the robot control device 30 determines the hand state based on the position and orientation of the object O, error information that is information indicating a probability distribution (normal distribution in this example), and the hand state. Thereby, the robot control apparatus 30 can hold the object O according to the hand state determined based on the position and orientation of the object O, the information indicating the probability distribution, and the hand state.

また、ロボット制御装置30は、対象物Oの位置及び姿勢と、誤差の範囲を示す情報である誤差情報と、ハンドの状態とに基づきハンドの状態を決定する。これにより、ロボット制御装置30は、対象物Oの位置及び姿勢と、誤差の範囲を示す情報と、ハンドの状態とに基づいて決定されたハンドの状態によって対象物Oを把持することができる。   Further, the robot control device 30 determines the hand state based on the position and orientation of the object O, error information that is information indicating an error range, and the hand state. Thereby, the robot control apparatus 30 can hold the target object O according to the hand state determined based on the position and posture of the target object O, the information indicating the error range, and the hand state.

以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない限り、変更、置換、削除等されてもよい。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and changes, substitutions, deletions, and the like are possible without departing from the gist of the present invention. May be.

また、以上に説明した装置(例えば、ロボット20のロボット制御装置30)における任意の構成部の機能を実現するためのプログラムを、コンピューター読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM)のように、一定時間プログラムを保持しているものも含むものとする。   Further, a program for realizing the function of an arbitrary component in the apparatus described above (for example, the robot control apparatus 30 of the robot 20) is recorded on a computer-readable recording medium, and the program is read into a computer system. May be executed. Here, the “computer system” includes hardware such as an OS (Operating System) and peripheral devices. The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD (Compact Disk) -ROM, or a storage device such as a hard disk built in the computer system. . Furthermore, “computer-readable recording medium” means a volatile memory (RAM) inside a computer system that becomes a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.

また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
In addition, the above program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Further, the above program may be for realizing a part of the functions described above. Further, the program may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.

11…第1力検出部、12…第2力検出部、20…ロボット、21…第1撮像部、22…第2撮像部、23…第3撮像部、24…第4撮像部、30…ロボット制御装置、31…CPU、32…記憶部、33…入力受付部、34…通信部、35…表示部、36…制御部、40…力検出情報取得部、41…撮像制御部、42…画像取得部、44…位置姿勢検出部、46…把持品質評価値算出部、47…ハンド状態決定部、48…ロボット制御部 DESCRIPTION OF SYMBOLS 11 ... 1st force detection part, 12 ... 2nd force detection part, 20 ... Robot, 21 ... 1st imaging part, 22 ... 2nd imaging part, 23 ... 3rd imaging part, 24 ... 4th imaging part, 30 ... Robot control device 31 ... CPU 32 ... storage unit 33 ... input receiving unit 34 ... communication unit 35 ... display unit 36 ... control unit 40 ... force detection information acquisition unit 41 ... imaging control unit 42 ... Image acquisition unit, 44 ... position and orientation detection unit, 46 ... gripping quality evaluation value calculation unit, 47 ... hand state determination unit, 48 ... robot control unit

Claims (12)

ハンドを備えるロボットと、
対象物の位置及び姿勢と、当該位置及び姿勢の誤差情報と、前記ハンドの状態とに基づき前記ハンドの状態を決定するロボット制御装置と、
を備えるロボットシステム。
A robot with a hand,
A robot control device that determines the state of the hand based on the position and posture of the object, error information of the position and posture, and the state of the hand;
A robot system comprising:
ロボット制御装置は、前記対象物の位置及び姿勢を画像から検出する、
請求項1記載のロボットシステム。
The robot controller detects the position and orientation of the object from an image;
The robot system according to claim 1.
前記ロボット制御装置は、前記対象物の位置及び姿勢と、前記誤差情報と、前記ハンドの状態とに基づく前記ハンドの状態を評価する評価値に応じて前記ハンドの状態を決定する、
請求項1又は2に記載のロボットシステム。
The robot control device determines the state of the hand according to an evaluation value for evaluating the state of the hand based on the position and orientation of the object, the error information, and the state of the hand;
The robot system according to claim 1 or 2.
前記評価値は、前記ハンドにより前記対象物が把持された際に、前記ハンドと前記対象物との相対的な位置及び姿勢の変化のし難さを示す値である、
請求項3に記載のロボットシステム。
The evaluation value is a value indicating a difficulty in changing a relative position and posture between the hand and the object when the object is gripped by the hand.
The robot system according to claim 3.
前記評価値には、前記ハンドにより前記対象物が把持された際に、前記ハンドに対する前記対象物の並進のし難さを示す値が含まれる、
請求項4に記載のロボットシステム。
The evaluation value includes a value indicating difficulty in translation of the object relative to the hand when the object is gripped by the hand.
The robot system according to claim 4.
前記評価値には、前記ハンドにより前記対象物が把持された際に、前記ハンドに対する前記対象物の回転のし難さを示す値が含まれる、
請求項4又は5に記載のロボットシステム。
The evaluation value includes a value indicating difficulty in rotation of the object relative to the hand when the object is gripped by the hand.
The robot system according to claim 4 or 5.
前記ハンドの状態には、前記ハンドと前記対象物との相対的な位置及び姿勢が含まれる、
請求項1から6のうちいずれか一項に記載のロボットシステム。
The state of the hand includes a relative position and posture between the hand and the object.
The robot system according to any one of claims 1 to 6.
前記ハンドの状態には、前記ハンドが備える把持部位間の角度が含まれる、
請求項1から7のうちいずれか一項に記載のロボットシステム。
The state of the hand includes an angle between gripping parts included in the hand,
The robot system according to any one of claims 1 to 7.
前記誤差情報は、確率分布を示す情報である、
請求項1から8のうちいずれか一項に記載のロボットシステム。
The error information is information indicating a probability distribution.
The robot system according to any one of claims 1 to 8.
前記誤差情報は、誤差の範囲を示す情報である、
請求項1から9のうちいずれか一項に記載のロボットシステム。
The error information is information indicating an error range.
The robot system according to any one of claims 1 to 9.
ハンドを備え、
対象物の位置及び姿勢と、当該位置及び姿勢の誤差情報と、前記ハンドの状態とに基づく評価値に応じて前記ハンドの状態を決定する、
ロボット。
With a hand,
Determining the state of the hand according to an evaluation value based on the position and orientation of the object, error information on the position and orientation, and the state of the hand;
robot.
対象物の位置及び姿勢と、当該位置及び姿勢の誤差情報と、ロボットが備えるハンドの状態とに基づく評価値に応じて前記ハンドの状態を決定する、
ロボット制御装置。
Determining the state of the hand according to an evaluation value based on the position and posture of the object, error information on the position and posture, and the state of the hand included in the robot;
Robot control device.
JP2015179849A 2015-09-11 2015-09-11 Robot system, robot and robot control device Pending JP2017052073A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015179849A JP2017052073A (en) 2015-09-11 2015-09-11 Robot system, robot and robot control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015179849A JP2017052073A (en) 2015-09-11 2015-09-11 Robot system, robot and robot control device

Publications (1)

Publication Number Publication Date
JP2017052073A true JP2017052073A (en) 2017-03-16

Family

ID=58316670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015179849A Pending JP2017052073A (en) 2015-09-11 2015-09-11 Robot system, robot and robot control device

Country Status (1)

Country Link
JP (1) JP2017052073A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7364505B2 (en) 2020-03-18 2023-10-18 株式会社東芝 Handling equipment, control equipment and programs

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7364505B2 (en) 2020-03-18 2023-10-18 株式会社東芝 Handling equipment, control equipment and programs

Similar Documents

Publication Publication Date Title
JP6380828B2 (en) Robot, robot system, control device, and control method
US10589424B2 (en) Robot control device, robot, and robot system
US10828782B2 (en) Robot system, robot, and robot control apparatus
US10350768B2 (en) Control device, robot, and robot system
US20160184996A1 (en) Robot, robot system, control apparatus, and control method
US20170277167A1 (en) Robot system, robot control device, and robot
JP6364836B2 (en) Robot, robot system, and control device
JP2009269127A (en) Holding device and method of controlling the same
US20180085920A1 (en) Robot control device, robot, and robot system
US20180215044A1 (en) Image processing device, robot control device, and robot
JP2017205819A (en) Robot, control device and robot system
US20160306340A1 (en) Robot and control device
JP6665450B2 (en) Robot, control device, and robot system
JP6455869B2 (en) Robot, robot system, control device, and control method
JP2017052073A (en) Robot system, robot and robot control device
JP2015182212A (en) Robot system, robot, control device, and control method
JP6958091B2 (en) Robot system and robot control method
JP2015157343A (en) Robot, robot system, control device, and control method
JP2017219359A (en) Shape measuring device, robot controller, and robot
JP2017047478A (en) Control device, robot, and robot system
JP2017100197A (en) Robot and control method
JP2018051689A (en) Robot, robot control device, and robot system
JP2016013610A (en) Robot, and control method
JP2018001321A (en) Robot, robot control device and robot system
JP2018034245A (en) Robot, robot control device, and robot system