JP2015112654A - Control apparatus, robot, teaching data generation method, and robot system - Google Patents

Control apparatus, robot, teaching data generation method, and robot system Download PDF

Info

Publication number
JP2015112654A
JP2015112654A JP2013254757A JP2013254757A JP2015112654A JP 2015112654 A JP2015112654 A JP 2015112654A JP 2013254757 A JP2013254757 A JP 2013254757A JP 2013254757 A JP2013254757 A JP 2013254757A JP 2015112654 A JP2015112654 A JP 2015112654A
Authority
JP
Japan
Prior art keywords
gripping
workpiece
robot
teaching data
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013254757A
Other languages
Japanese (ja)
Inventor
工藤 真
Makoto Kudo
真 工藤
長谷川 浩
Hiroshi Hasegawa
浩 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013254757A priority Critical patent/JP2015112654A/en
Publication of JP2015112654A publication Critical patent/JP2015112654A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a control device for generating teaching data to execute a stable gripping action in a mode understandable for a user, a robot, a teaching data generation method and a robot system.SOLUTION: A control apparatus 100 comprises: an image recognition part 110 for accepting an imaging picture image having imaged a work-piece and a marker; and a processing part 120 for generating the robot teaching data. The processing part 120 generates first teaching data of the robot by the imaging picture image accepted by the image recognition part 110, and generates second teaching data of the robot by causing a gripping part 319 of the robot to grip the work-piece.

Description

本発明は、制御装置、ロボット、教示データ生成方法及びロボットシステム等に関する。   The present invention relates to a control device, a robot, a teaching data generation method, a robot system, and the like.

ロボットに対して所望の動作を行わせるために、ユーザーによる教示を用いる手法が広く知られている。具体的には、ユーザー(教示者)がロボットのアーム等を手で動かすことでロボット動作を教示するダイレクトティーチングや、ティーチングペンダント等の操作部を操作することでロボット動作を教示するティーチングプレイバック、或いはロボットの実機は使用せずにコンピューター上でシミュレーションを用いて教示を行うオフラインティーチング等が知られている。   In order to cause a robot to perform a desired operation, a method using teaching by a user is widely known. Specifically, direct teaching that teaches robot operation by a user (teacher) moving a robot arm or the like by hand, teaching playback that teaches robot operation by operating an operation unit such as a teaching pendant, Alternatively, off-line teaching or the like in which teaching is performed using a simulation on a computer without using a real robot is known.

例えば特許文献1には、ロボットの把持部(ハンド)とワークが当接した場合にロボットが受ける力に基づいてワークの位置を検出し、検出したワークの位置を用いたロボット制御を行う手法が開示されている。   For example, Patent Document 1 discloses a technique for detecting the position of a workpiece based on the force received by the robot when the gripping portion (hand) of the robot comes into contact with the workpiece and performing robot control using the detected position of the workpiece. It is disclosed.

また特許文献2には、画像に基づきワークの把持部位に対応する素形状モデルの指定を受け付け、指定された素形状モデルに基づいて当該ワークの把持を適切に行う把持パターンを選択する手法が開示されている。   Patent Document 2 discloses a method of accepting designation of an elementary shape model corresponding to a workpiece gripping part based on an image and selecting a grasping pattern for appropriately grasping the workpiece based on the designated elementary shape model. Has been.

また特許文献3には、画像に基づきワークの複数の把持点を指定した上で、当該把持点を表すベクトル等を用いたベクトル演算により、把持位置姿勢を教示する手法が開示されている。   Patent Document 3 discloses a method of teaching a gripping position and posture by designating a plurality of gripping points of a workpiece based on an image and performing vector calculation using a vector or the like representing the gripping point.

特開2009−220248号公報JP 2009-220248 A 特開2009−214212号公報JP 2009-214212 A 特開平11−58279号公報Japanese Patent Laid-Open No. 11-58279

特許文献1では、画像に基づいてハンドを制御し、その都度力を検出してワーク位置の検出、及びその後のワークの把持動作等を行う。そのため、動作の度に把持の仕方が変化することになり、安定した把持動作をロボットに実行させることが難しい。   In Patent Document 1, a hand is controlled based on an image, and a force is detected each time to detect a workpiece position and a subsequent workpiece gripping operation. For this reason, the gripping method changes with each movement, and it is difficult to cause the robot to perform a stable gripping movement.

特許文献2では、ロボットの実機を用いずに素形状モデルにより把持動作を教示し、また特許文献3では、同様にロボットの実機を用いずに画像に基づき決定された把持点を用いたベクトル演算により、把持動作を教示する。よっていずれの手法も、教示時には実際の把持部を用いてワークを把持させないため、安定した把持動作をロボットに実行させることが難しい。   In Patent Document 2, a gripping operation is taught using an original shape model without using an actual robot. In Patent Document 3, a vector calculation using a gripping point determined based on an image without using an actual robot. In this way, the gripping operation is taught. Therefore, in any of the methods, it is difficult to cause the robot to perform a stable gripping operation because the workpiece is not gripped by using an actual gripping part during teaching.

本発明の一態様は、ワークとマーカーとを撮像した撮像画像を受け付ける画像認識部と、ロボットの教示データを生成する処理部と、を含み、前記処理部は、前記画像認識部が受け付けた前記撮像画像によって前記ロボットの第1の教示データを生成し、前記ロボットの把持部に前記ワークを把持させて前記ロボットの第2の教示データを生成する制御装置に関係する。   One aspect of the present invention includes an image recognition unit that receives a captured image obtained by capturing a workpiece and a marker, and a processing unit that generates robot teaching data, and the processing unit receives the image recognition unit. The present invention relates to a control device that generates first teaching data of the robot based on a captured image and causes the gripping unit of the robot to grip the workpiece to generate second teaching data of the robot.

本発明の一態様では、撮像画像を用いて第1の教示データを生成し、把持部に実際にワークを把持させて第2の教示データを生成する。よって、オフラインティーチングとダイレクトティーチングを適切に組み合わせて利用することが可能になるため、ユーザーによる教示を容易にすることや、教示に基づくロボット動作を安定したものとすること等が可能になる。   In one aspect of the present invention, the first teaching data is generated using the captured image, and the second teaching data is generated by causing the gripping unit to actually grip the workpiece. Therefore, since offline teaching and direct teaching can be used in an appropriate combination, teaching by the user can be facilitated, robot operation based on teaching can be stabilized, and the like.

また、本発明の一態様では、前記処理部は、前記第1の教示データに基づいて前記把持部に前記ワークを把持させて、前記ロボットの前記第2の教示データを生成してもよい。   In the aspect of the invention, the processing unit may generate the second teaching data of the robot by causing the gripping unit to grip the workpiece based on the first teaching data.

これにより、把持部によるワークの把持動作に第1の教示データを利用できるため、第2の教示データを容易に生成すること等が可能になる。   Thereby, since the first teaching data can be used for the gripping operation of the workpiece by the gripping unit, it is possible to easily generate the second teaching data.

また、本発明の一態様では、前記処理部は、前記把持部に前記ワークを把持させることで、前記ロボットに設けられた力覚センサーにより出力された力覚センサー情報を取得し、前記力覚センサー情報に基づいて、作業台に対する垂直方向での把持位置を決定し、決定した前記把持位置を含む前記第2の教示データを生成してもよい。   In one embodiment of the present invention, the processing unit acquires force sensor information output by a force sensor provided in the robot by causing the grip unit to grip the workpiece, and the force sensor Based on the sensor information, a grip position in a vertical direction with respect to the work table may be determined, and the second teaching data including the determined grip position may be generated.

これにより、力覚センサー情報を用いて、作業台垂直方向での把持位置を決定すること等が可能になる。   Accordingly, it is possible to determine a grip position in the vertical direction of the work table by using the force sensor information.

また、本発明の一態様では、前記処理部は、前記把持部に前記ワークを把持させることで、前記ロボットを駆動するモーターのトルクリミット情報を取得し、前記トルクリミット情報に基づいて、前記ワークを把持した状態での前記把持部の開き量情報を決定し、決定した開き量情報を含む前記第2の教示データを生成してもよい。   In the aspect of the invention, the processing unit may acquire torque limit information of a motor that drives the robot by causing the gripping unit to grip the work, and based on the torque limit information, The opening amount information of the grip portion in a state where the grip portion is held may be determined, and the second teaching data including the determined opening amount information may be generated.

これにより、トルクリミット情報を用いて、把持部の開き量情報を決定すること等が可能になる。   Thereby, it is possible to determine the opening amount information of the gripping part using the torque limit information.

また、本発明の一態様では、前記画像認識部は、前記マーカーを認識する画像認識処理を行い、前記処理部は、前記マーカーについての前記画像認識処理の結果に基づいて、前記第1の教示データを生成してもよい。   In the aspect of the invention, the image recognition unit performs an image recognition process for recognizing the marker, and the processing unit performs the first teaching based on a result of the image recognition process for the marker. Data may be generated.

これにより、マーカーを認識する画像認識処理の結果に基づいて第1の教示データを生成すること等が可能になる。   Accordingly, it is possible to generate the first teaching data based on the result of the image recognition process for recognizing the marker.

また、本発明の一態様では、前記画像認識部は、把持対象である前記ワークの周囲に配置された複数の前記マーカーを認識する前記画像認識処理を行い、前記処理部は、複数の前記マーカーについての前記画像認識処理の結果に基づいて、前記第1の教示データを生成してもよい。   Moreover, in one aspect of the present invention, the image recognition unit performs the image recognition process for recognizing the plurality of markers arranged around the workpiece that is a gripping target, and the processing unit includes the plurality of the markers. The first teaching data may be generated based on the result of the image recognition process for the.

これにより、画像認識処理の対象として複数のマーカーを用いること等が可能になる。   As a result, it is possible to use a plurality of markers as objects of image recognition processing.

また、本発明の一態様では、前記画像認識部は、第1の方向を示す前記マーカーである第1のマーカーと、前記第1の方向と交差する第2の方向を示す前記マーカーである第2のマーカーとを認識する前記画像認識処理を行い、前記処理部は、前記第1の方向と前記第2の方向が交差する位置に基づいて、仮把持位置を決定し、前記第1の方向及び前記第2の方向の少なくとも一方に基づいて、仮把持姿勢を決定し、前記仮把持位置及び前記仮把持姿勢を含む前記第1の教示データを生成してもよい。   In the aspect of the invention, the image recognition unit may be a first marker that is the marker indicating the first direction and the marker that indicates the second direction intersecting the first direction. The image recognition processing for recognizing two markers is performed, and the processing unit determines a temporary gripping position based on a position where the first direction and the second direction intersect, and the first direction In addition, a temporary gripping posture may be determined based on at least one of the second directions, and the first teaching data including the temporary gripping position and the temporary gripping posture may be generated.

これにより、画像認識処理の対象として、それぞれ方向を規定する第1,第2のマーカーを用いること等が可能になる。   As a result, it is possible to use the first and second markers that define the direction as the targets of the image recognition processing, respectively.

また、本発明の一態様では、第1〜第N(Nは2以上の整数)の面を有する前記ワークを把持対象とした場合に、前記処理部は、前記ワークの第i(iは1≦i≦Nを満たす整数)の面を処理対象面として、前記把持部に前記ワークを把持させて、前記第iの面を前記処理対象面とした前記第2の教示データである第2の教示データを生成し、前記ワークの第j(jは1≦j≦N、j≠iを満たす整数)の面を前記処理対象面として、前記把持部に前記ワークを把持させて、前記第jの面を前記処理対象面とした前記第2の教示データである第2の教示データを生成してもよい。 In one embodiment of the present invention, when the workpiece having first to Nth (N is an integer of 2 or more) surfaces is a gripping target, the processing unit is configured to perform the i-th (i is 1) of the workpiece. ≦ satisfy i ≦ N faces integer) as a processing target surface, the by gripping a workpiece to said grip portion, said first i second i is the second teaching data plane and said processed surface of The teaching data is generated, the j-th surface of the workpiece (j is an integer satisfying 1 ≦ j ≦ N, j ≠ i) is defined as the processing target surface, and the gripping unit grips the workpiece, Second j teaching data, which is the second teaching data with the j plane as the processing target plane, may be generated.

これにより、所与のワークの異なる面に対して、それぞれ処理を行って複数の第2の教示データを生成すること等が可能になる。   Thereby, it is possible to generate a plurality of second teaching data by performing processing on different surfaces of a given workpiece.

また、本発明の一態様では、前記ワークの前記第iの面が作業台の鉛直上方向を向く位置姿勢で、前記ワークが配置された場合に、前記処理部は、前記ワークの前記第iの面を前記処理対象面として、前記把持部に前記ワークを把持させて、前記第2の教示データを生成してもよい。 In one aspect of the present invention, when the workpiece is arranged in a position and orientation in which the i-th surface of the workpiece is directed vertically upward of a work table, the processing unit is configured to perform the i-th operation of the workpiece. The second i teaching data may be generated by making the gripping part grip the work with the surface to be processed as the processing target surface.

これにより、配置されたワークの位置姿勢に応じて、適切な面を対象とした第2の教示データを生成すること等が可能になる。   Thus, it is possible to generate second teaching data for an appropriate surface according to the position and orientation of the placed workpiece.

また、本発明の一態様では、前記画像認識部は、前記ワークの位置姿勢を認識する物体認識処理を行い、前記処理部は、前記物体認識処理により取得された前記ワークの位置姿勢と、最終的な把持位置と、最終的な把持姿勢とを含む前記第2の教示データを生成してもよい。   In one aspect of the present invention, the image recognition unit performs an object recognition process for recognizing the position and orientation of the workpiece, and the processing unit performs a final position and orientation of the workpiece acquired by the object recognition process. The second teaching data including an actual gripping position and a final gripping posture may be generated.

これにより、物体認識処理の結果に基づいて第2の教示データを生成すること等が可能になる。   This makes it possible to generate second teaching data based on the result of the object recognition process.

また、本発明の一態様では、前記画像認識部は、前記第1の教示データに基づいて、前記把持部に前記ワークを把持させた後に、前記物体認識処理を行ってもよい。   In the aspect of the invention, the image recognition unit may perform the object recognition process after causing the gripping unit to grip the workpiece based on the first teaching data.

これにより、より望ましいタイミングで物体認識処理を行うこと等が可能になる。   This makes it possible to perform object recognition processing at a more desirable timing.

また、本発明の一態様では、前記処理部は、前記撮像画像に基づいて、仮把持位置及び仮把持姿勢を含む前記第1の教示データを生成し、前記仮把持位置及び前記仮把持姿勢を目標として、前記把持部に前記ワークを把持させて、最終的な把持位置及び最終的な把持姿勢を含む前記第2の教示データを生成してもよい。   In the aspect of the invention, the processing unit generates the first teaching data including the temporary gripping position and the temporary gripping posture based on the captured image, and determines the temporary gripping position and the temporary gripping posture. As a target, the second teaching data including the final gripping position and the final gripping posture may be generated by causing the gripping unit to grip the workpiece.

これにより、仮把持位置、仮把持姿勢を用いて把持部にワークを把持させることで、最終的な把持位置、把持姿勢を第2の教示データとして生成すること等が可能になる。   Thus, the final gripping position and gripping posture can be generated as the second teaching data by causing the gripping part to grip the workpiece using the temporary gripping position and the temporary gripping posture.

また、本発明の他の態様は、ワークを把持する把持部と、前記把持部を動作させる制御装置と、を含み、前記制御装置は、前記ワークとマーカーとを撮像して第1の教示データを生成し、前記把持部に前記ワークを把持させて第2の教示データを生成するロボットに関係する。   Another aspect of the present invention includes a gripping unit that grips a workpiece, and a control device that operates the gripping unit, and the control device captures the first teaching data by imaging the workpiece and the marker. , And the second teaching data is generated by causing the gripper to grip the workpiece.

本発明の他の態様では、撮像画像を用いて第1の教示データを生成し、把持部に実際にワークを把持させて第2の教示データを生成する。よって、オフラインティーチングとダイレクトティーチングを適切に組み合わせて利用することが可能になるため、ユーザーによる教示を容易にすることや、教示に基づくロボット動作を安定したものとすること等が可能になる。   In another aspect of the present invention, the first teaching data is generated using the captured image, and the second teaching data is generated by causing the gripping unit to actually grip the workpiece. Therefore, since offline teaching and direct teaching can be used in an appropriate combination, teaching by the user can be facilitated, robot operation based on teaching can be stabilized, and the like.

また、本発明の他の態様は、ワークとマーカーとを撮像してロボットの第1の教示データを生成することと、前記ロボットの把持部に前記ワークを把持させて前記ロボットの第2の教示データを生成することと、を含む教示データ生成方法に関係する。   According to another aspect of the present invention, a first teaching data of a robot is generated by imaging a workpiece and a marker, and a second teaching of the robot is caused by gripping the workpiece by a gripping portion of the robot. Generating data, and a teaching data generation method.

本発明の他の態様では、ワークとマーカーの撮像により第1の教示データを生成し、把持部に実際にワークを把持させて第2の教示データを生成する。よって、オフラインティーチングとダイレクトティーチングを適切に組み合わせて利用することが可能になるため、ユーザーによる教示を容易にすることや、教示に基づくロボット動作を安定したものとすること等が可能になる。   In another aspect of the present invention, the first teaching data is generated by imaging the workpiece and the marker, and the second teaching data is generated by causing the gripping unit to actually grip the workpiece. Therefore, since offline teaching and direct teaching can be used in an appropriate combination, teaching by the user can be facilitated, robot operation based on teaching can be stabilized, and the like.

また、本発明の他の態様は、ワークを把持する把持部を備えるロボットと、前記ロボットを動作させる制御装置と、マーカーと、を含み、前記制御装置は、前記ワークと前記マーカーとを撮像して前記ロボットの第1の教示データを生成し、前記把持部に前記ワークを把持させて前記ロボットの第2の教示データを生成するロボットシステムに関係する。   Another aspect of the present invention includes a robot including a gripping unit that grips a workpiece, a control device that operates the robot, and a marker. The control device images the workpiece and the marker. And a robot system that generates first teaching data of the robot and causes the gripping unit to grip the workpiece to generate second teaching data of the robot.

本発明の他の態様では、撮像画像を用いて第1の教示データを生成し、把持部に実際にワークを把持させて第2の教示データを生成する。よって、オフラインティーチングとダイレクトティーチングを適切に組み合わせて利用することが可能になるため、ユーザーによる教示を容易にすることや、教示に基づくロボット動作を安定したものとすること等が可能になる。   In another aspect of the present invention, the first teaching data is generated using the captured image, and the second teaching data is generated by causing the gripping unit to actually grip the workpiece. Therefore, since offline teaching and direct teaching can be used in an appropriate combination, teaching by the user can be facilitated, robot operation based on teaching can be stabilized, and the like.

以上より、本発明の幾つかの態様によれば、ユーザーにとってわかりやすい形態で、安定した把持動作を実行する教示データを生成する制御装置、ロボット、教示データ生成方法及びロボットシステム等を提供することができる。   As described above, according to some aspects of the present invention, it is possible to provide a control device, a robot, a teaching data generation method, a robot system, and the like that generate teaching data for performing a stable gripping operation in a form that is easy for a user to understand. it can.

本実施形態に係る制御装置の構成例。The structural example of the control apparatus which concerns on this embodiment. 本実施形態に係る制御装置の詳細な構成例。The detailed structural example of the control apparatus which concerns on this embodiment. 本実施形態に係るロボットの構成例。2 is a configuration example of a robot according to the present embodiment. 本実施形態に係るロボットの他の構成例。The other structural example of the robot which concerns on this embodiment. 図5(A)、図5(B)は把持部の位置、姿勢の説明図。FIG. 5A and FIG. 5B are explanatory diagrams of the position and orientation of the gripping portion. 図6(A)、図6(B)は仮把持位置姿勢を目標とする把持動作の説明図。FIG. 6A and FIG. 6B are explanatory diagrams of a gripping operation targeting a temporary gripping position / posture. 図7(A)〜図7(F)は把持動作と作業台へのワークの配置の対応関係を説明する図。FIGS. 7A to 7F are diagrams for explaining the correspondence between the gripping operation and the arrangement of the workpieces on the work table. 図8(A)〜図8(D)はマーカー配置の例。8A to 8D show examples of marker arrangement. 撮像画像を用いた画像認識処理の説明図。Explanatory drawing of the image recognition process using a captured image. 図10(A)、図10(B)は力覚センサーの配置例。10A and 10B show examples of arrangement of force sensors. 図11(A)〜図11(C)は把持部の他の構成例と、把持の深さの説明図。FIG. 11A to FIG. 11C are other configuration examples of the grip portion and explanatory diagrams of the grip depth. 本実施形態で用いられる入力画面の例。The example of the input screen used by this embodiment. 本実施形態の処理を説明するフローチャート。The flowchart explaining the process of this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.本実施形態の手法
まず本実施形態の手法について説明する。従来、ロボットに対して所望の動作を行わせるために、ユーザーによる教示を用いる手法が広く知られている。具体的には上述したように、ダイレクトティーチング、ティーチングプレイバック、オフラインティーチング等が知られている。
1. First, the method of this embodiment will be described. Conventionally, in order to cause a robot to perform a desired operation, a technique using teaching by a user is widely known. Specifically, as described above, direct teaching, teaching playback, offline teaching, and the like are known.

しかし近年、非常に広汎な領域でロボットが利用されるようになってきている。そのため、ロボットに対して教示を行うユーザーが、当該ロボットについての専門知識を充分有していないというケースも多くなると想定される。つまり、ロボットに対する教示は専門知識が充分でないユーザーであっても実行可能な程度に、わかりやすい形態で行われることが望ましい。その点、ティーチングペンダント等を用いたティーチングプレイバックでは、教示を行うユーザーはロボットについての知識が必要となり、且つティーチングペンダントの使用方法等を習熟しておく必要がある点で好ましくない。   However, in recent years, robots have been used in a very wide area. For this reason, it is assumed that there are many cases where a user who teaches a robot does not have sufficient expertise about the robot. In other words, it is desirable that teaching to the robot be performed in an easy-to-understand form so that even a user with insufficient expertise can execute it. In that respect, teaching playback using a teaching pendant is not preferable in that the teaching user needs to know the robot and to master the usage of the teaching pendant.

またオフラインティーチングでは、ユーザーに対してわかりやすい入力インターフェースを提示し、ユーザーから入力された情報に基づいて、システム側でロボット動作を自動生成することで、教示を容易にすることも可能である。ユーザーからどのような入力を受け付け、それをシステム側でどのように処理するかは種々の手法が考えられ、例えば上述した特許文献2や特許文献3の手法等が開示されている。   In offline teaching, an easy-to-understand input interface is presented to the user, and the robot operation can be automatically generated on the system side based on information input from the user, thereby facilitating teaching. Various methods are conceivable as to what kind of input is received from the user and how it is processed on the system side. For example, the methods of Patent Document 2 and Patent Document 3 described above are disclosed.

しかし、オフラインティーチングではロボットや把持対象となるワーク等は実物が用いられるわけではない。そのため、オフラインティーチングにより教示されたロボット動作が、実際には安定した把持動作を実現するものでない可能性があり得る。例えば、ロボットの把持部(狭義にはハンド)の形状やワークの形状を3Dモデルで再現することは容易としても、ワークの重量バランスや表面の摩擦等に関する情報まで再現することは、オフラインティーチングの処理負荷を考えると現実的とは言えない。そのため、オフラインティーチングで把持動作を作成できたとしても、当該把持動作を実際に行ったところ、ワークをバランスよく把持できず落下させてしまうというおそれもある。その他、ユーザーフレンドリーの観点からユーザーによる入力をシンプルにしたり、システム側の処理負荷軽減の観点からユーザー入力に基づく処理をシンプルなものとしたりすれば、それだけ実際のロボットやワークに比べて必要な情報が欠落する。そのため、オフラインティーチングの結果として得られるロボット動作が、実機では安定的な動作とならない可能性を考慮することが重要となる場面も大いに考えられる。   However, in offline teaching, the robot and the workpiece to be grasped are not actually used. Therefore, the robot operation taught by off-line teaching may not actually realize a stable gripping operation. For example, even if it is easy to reproduce the shape of the robot's gripping part (hand in the narrow sense) and the shape of the workpiece with a 3D model, it is possible to reproduce information on the weight balance of the workpiece, surface friction, etc. It is not realistic considering the processing load. Therefore, even if the gripping operation can be created by off-line teaching, when the gripping operation is actually performed, the workpiece may not be gripped in a balanced manner and may be dropped. In addition, if the user input is simplified from the viewpoint of user-friendliness, or the processing based on user input is simplified from the viewpoint of reducing the processing load on the system side, the necessary information compared to actual robots and workpieces. Is missing. For this reason, there is a great possibility that it is important to consider the possibility that the robot motion obtained as a result of off-line teaching may not be a stable motion in the actual machine.

そこで本出願人は、ユーザーにとってわかりやすい形態で、且つ実際のロボットやワークを用いて、ロボットに対して把持動作を教示する手法を提案する。その際、把持動作におけるアプローチは、例えば図6(A)に示すように作業台の上方から鉛直方向下向きに行うといったように、自動生成が容易なものとする。なお、ここでのアプローチとはロボットの把持部を把持対象であるワークの位置まで移動させる動作を表す。本実施形態では、ワークを把持した状態の把持部の位置や姿勢を表す把持位置及び把持姿勢(これらを合わせて把持位置姿勢とも表記する)を暫定的に定めて、上記アプローチにより把持動作を実際に行う。そしてその把持動作の際に得られたセンシング情報を利用して、最終的な把持位置姿勢を求め、当該把持位置姿勢を含む教示データを生成する。   Therefore, the present applicant proposes a technique for teaching a robot to grasp a gripping operation in an easy-to-understand form for a user and using an actual robot or workpiece. At that time, the approach in the gripping operation is easy to generate automatically, for example, as shown in FIG. Note that the approach here represents an operation of moving the gripping portion of the robot to the position of the workpiece to be gripped. In the present embodiment, a gripping position and a gripping posture representing the position and posture of a gripping part in a state of gripping a workpiece (which are collectively referred to as a gripping position / posture) are provisionally determined, and the gripping operation is actually performed by the above approach. To do. Then, using the sensing information obtained during the gripping operation, a final gripping position / posture is obtained, and teaching data including the gripping position / posture is generated.

具体的には、本実施形態の制御装置100は図1に示すように、ワークとマーカーとを撮像した撮像画像を受け付ける画像認識部110と、ロボット(後述する図3等のロボット本体300に対応)の教示データを生成する処理部120を含む。そして、処理部120は、画像認識部110が受け付けた撮像画像によってロボットの第1の教示データを生成し、ロボット319の把持部(後述する図3のハンド等に対応)にワークを把持させてロボットの第2の教示データを生成する。   Specifically, as illustrated in FIG. 1, the control device 100 according to the present embodiment corresponds to an image recognition unit 110 that receives a captured image obtained by capturing a workpiece and a marker, and a robot (a robot main body 300 illustrated in FIG. 3 described later). ) Includes processing unit 120 that generates teaching data. Then, the processing unit 120 generates first teaching data of the robot based on the captured image received by the image recognition unit 110, and causes the gripping unit (corresponding to the hand shown in FIG. 3 described later) of the robot 319 to grip the workpiece. Second teaching data of the robot is generated.

この際、処理部120は、第1の教示データに基づいて把持部319にワークを把持させて、ロボットの第2の教示データを生成してもよい。具体的には、処理部120は、撮像画像に基づいて、仮把持位置及び仮把持姿勢を含む第1の教示データを生成し、仮把持位置及び仮把持姿勢を目標として、把持部319にワークを把持させて、最終的な把持位置及び最終的な把持姿勢を含む第2の教示データを生成してもよい。   At this time, the processing unit 120 may generate the second teaching data of the robot by causing the gripping unit 319 to grip the workpiece based on the first teaching data. Specifically, the processing unit 120 generates first teaching data including a temporary gripping position and a temporary gripping posture based on the captured image, and sets the work to the gripping unit 319 with the temporary gripping position and the temporary gripping posture as targets. The second teaching data including the final gripping position and the final gripping posture may be generated.

ここで、把持位置とはワークを把持している状態の把持部の位置を表すものであり、把持姿勢とはワークを把持している状態の把持部の姿勢を表すものである。なお、把持部は大きさを有する物体であり、且つ可変構造を有する場合も多いことから、把持部の位置をどのように定義するかは種々考えられる。本実施形態では、把持部が設けられるアームのエンドポイントEPを把持部の位置として用いてもよい。例えば、図5(A)に示したように、アームの先端のエンドポイントEPに把持部が設けられる場合、当該エンドポイントEPの位置により把持部の位置を表現すればよい。例えば、ロボットを基準としてxyz3軸の座標系が設定される場合には、把持位置はEPの座標値(x,y,z)により表現できる。また、把持部の姿勢は所与の基準姿勢に対する回転等で表現すればよい。例えば、図5(B)に示すようにxyzの各軸まわりの回転をu,v,wとした場合には、所与の把持部の姿勢は(u,v,w)により表現できる。教示データに含まれる最終的な(出力結果である)把持位置及び把持姿勢は(x,y,z,u,v,w)で表現される情報となる。   Here, the gripping position represents the position of the gripping part in the state of gripping the work, and the gripping posture represents the posture of the gripping part in the state of gripping the work. In addition, since the gripping part is an object having a size and often has a variable structure, there are various ways of defining the position of the gripping part. In the present embodiment, the end point EP of the arm provided with the grip portion may be used as the position of the grip portion. For example, as shown in FIG. 5A, when a gripping portion is provided at the end point EP at the tip of the arm, the position of the gripping portion may be expressed by the position of the end point EP. For example, when an xyz 3-axis coordinate system is set with reference to the robot, the gripping position can be expressed by the coordinate values (x, y, z) of the EP. Further, the posture of the gripping portion may be expressed by rotation with respect to a given reference posture. For example, as shown in FIG. 5B, when the rotation about each axis of xyz is u, v, w, the posture of a given gripping part can be expressed by (u, v, w). The final gripping position and gripping posture (the output result) included in the teaching data is information expressed by (x, y, z, u, v, w).

また、仮把持位置及び仮把持姿勢とは、画像認識処理により取得される暫定的な把持位置姿勢である。本実施形態では、この仮把持位置及び仮把持姿勢を目標として、上述した自動決定されるアプローチによる把持動作を行う。この把持動作は、あくまで最終的な教示データを生成するためのものであるため、当該把持動作に用いられる仮把持位置は詳細なものである必要はない。   Further, the temporary gripping position and the temporary gripping posture are provisional gripping position and postures acquired by the image recognition process. In the present embodiment, with the temporary gripping position and the temporary gripping posture as targets, the gripping operation by the above-described approach that is automatically determined is performed. Since the gripping operation is only for generating final teaching data, the temporary gripping position used for the gripping operation does not need to be detailed.

例えば、図6(B)に示したように、マーカーM1により決定される第1の方向のラインL1と、マーカーM2により決定される第2の方向のラインL2が作業台上に規定され、M1,M2の画像認識処理によりこれらを処理部120が把握していたとする。この場合、仮把持位置を例えばL1とL2の交点である(x0,y0)とし、仮把持姿勢を図6(B)に示したようにL2上に把持部の2本の指(ツメ)が並ぶ姿勢(実際には例えば上述したようにuvwにより表現される)とすればよい。仮把持位置姿勢を用いた把持動作が、図6(A)に示したようにxy平面での位置及び把持部の姿勢を変化させず、z軸方向の移動のみで実現されるものとすれば、仮把持位置のz座標値が不定でも一応の把持動作が可能である。具体的には、把持部を(x0,y0,z0)となる所与の位置に、仮把持姿勢と一致する姿勢でセットし、そこから姿勢を変化させずに、把持部をz軸正方向(鉛直下方向)に移動させる。仮把持位置のz座標値が不定であるため、移動の終点が不明ではあるが、ここでは把持部とワークが接触する位置まで移動させ、接触を検知したところで止まればよい。   For example, as shown in FIG. 6B, a line L1 in the first direction determined by the marker M1 and a line L2 in the second direction determined by the marker M2 are defined on the workbench, and M1 , M2 is recognized by the processing unit 120 through the image recognition process. In this case, the temporary gripping position is, for example, the intersection of L1 and L2 (x0, y0), and the temporary gripping posture is two fingers (claws) of the gripping portion on L2, as shown in FIG. 6B. A lined posture (actually, for example, expressed by uvw as described above) may be used. Assuming that the gripping operation using the temporary gripping position and posture is realized only by movement in the z-axis direction without changing the position on the xy plane and the posture of the gripping portion as shown in FIG. Even if the z coordinate value of the temporary gripping position is indefinite, a temporary gripping operation is possible. Specifically, the gripping unit is set at a given position at (x0, y0, z0) in a posture that matches the temporary gripping posture, and the gripping unit is moved in the positive z-axis direction without changing the posture from there. Move vertically (downward). Since the z-coordinate value of the temporary gripping position is indefinite, the end point of the movement is unknown, but here it is only necessary to move to a position where the gripping part and the workpiece come into contact and stop when the contact is detected.

仮把持位置姿勢は画像認識処理に基づいて容易に取得可能であるし、図6(A)に示したアプローチに必要な情報も、アプローチ動作がシンプルなため容易に取得可能である。つまり取得が容易な情報を用いて、一応の把持動作を実現することができる。実機を用いて把持動作を実現できたのであるから、後はこの動作時に得られた情報から、最終的な教示データ(第2の教示データ)に必要な情報を取得、出力すればよい。本実施形態では把持動作時のセンシング情報に基づいて第2の教示データを生成する。例えば、把持部に力覚センサーを持たせることで、上述した把持部とワークの接触を検知し、それに基づいてz方向での把持位置を決定すればよい。或いは、単純な接触ではなく、所与の力Fを加えたときの把持部の位置から把持位置を決定してもよい。また、把持動作では指を閉じる動作のように、把持部の開き量(閉じ量)を決定する動作も行われる。よって、センシング情報として指を駆動させるモーターのトルクリミット情報を取得して、指をどの程度閉じたらよいかという開き量情報を第2の教示データに含めることも考えられる。   The temporary gripping position / posture can be easily acquired based on the image recognition processing, and information necessary for the approach shown in FIG. 6A can be easily acquired because the approach operation is simple. That is, a temporary gripping operation can be realized using information that can be easily acquired. Since the gripping operation can be realized using the actual machine, information necessary for the final teaching data (second teaching data) may be acquired and output from the information obtained during this operation. In the present embodiment, second teaching data is generated based on sensing information during a gripping operation. For example, by providing the grip portion with a force sensor, the above-described contact between the grip portion and the workpiece may be detected, and the grip position in the z direction may be determined based on the detected contact. Alternatively, instead of simple contact, the gripping position may be determined from the position of the gripping part when a given force F is applied. Further, in the gripping operation, an operation for determining the opening amount (closing amount) of the gripping portion is performed as in the operation of closing the finger. Therefore, it is conceivable that torque limit information of the motor that drives the finger is acquired as sensing information, and opening amount information indicating how much the finger should be closed is included in the second teaching data.

以上に示したように、本実施形態の手法によれば、マーカーの認識処理に基づく第1の教示データと、ロボットの実機を動作させることによる第2の教示データを生成することができる。マーカーを用いて第1の教示データを生成するため、ユーザーにとってわかりやすい形態で、ロボットに対して把持動作を教示することが可能になる。図6(B)のようにマーカーM1及びM2を用いる例であれば、ユーザーにわかるように作業台上にラインL1,L2を表示しておく。そしてユーザーに対しては、「L1とL2の交点を目標として、L2方向に並んだ指を用いてロボットは把持動作を行う」ということを事前に通知する。そうすれば、ユーザーはロボットに把持させたいワークを、把持させたい位置姿勢で作業台上に配置するだけで、所望の把持動作を教示可能となる。   As described above, according to the method of the present embodiment, it is possible to generate the first teaching data based on the marker recognition process and the second teaching data by operating the actual robot. Since the first teaching data is generated using the marker, it is possible to teach the gripping operation to the robot in a form that is easy for the user to understand. In the example using the markers M1 and M2 as shown in FIG. 6B, the lines L1 and L2 are displayed on the work table so that the user can understand. Then, the user is notified in advance that "the robot performs a gripping operation using fingers arranged in the L2 direction with the intersection of L1 and L2 as a target". By doing so, the user can teach a desired gripping operation only by placing the workpiece desired to be gripped by the robot on the workbench in the position and orientation to be gripped.

例えば、直方体のワークを図7(A)に示したように、面A1側から面A2と面A3を指で挟むように把持したいのであれば、ユーザーは図7(B)に示したように面A1を作業台上方に向けて、A2とA3がL2と交差する位置姿勢でワークを配置すればよい。   For example, as shown in FIG. 7A, if the user wants to hold a rectangular parallelepiped work so that the surface A2 and the surface A3 are sandwiched between fingers from the surface A1 side, the user can The workpiece may be arranged in such a position that A2 and A3 intersect L2 with the surface A1 facing upward.

同様に、図7(C)に示したように、A1の裏面であるA4側からA5,A6を指で挟むように把持したいのであれば、ユーザーは図7(D)に示したように面A4を作業台上方に向けて、A5とA6がL2と交差する位置姿勢でワークを配置すればよい。また、把持位置をワークの端の方にすることも可能である。例えば図7(E)に示したように、A1側から、A2とA3のそれぞれA5寄りの位置を指で挟むように把持したいのであれば、図7(F)に示したように、図7(B)に比べて重心をずらした状態でワークを作業台上に配置すればよい。   Similarly, as shown in FIG. 7C, if the user wants to hold A5 and A6 from the A4 side, which is the back side of A1, with a finger, the user can use the surface as shown in FIG. A work may be arranged in a position and orientation where A5 and A6 cross L2 with A4 facing upward. It is also possible to set the gripping position toward the end of the workpiece. For example, as shown in FIG. 7 (E), if it is desired to grasp the positions near A5 of A2 and A3 from the A1 side with fingers, as shown in FIG. What is necessary is just to arrange | position a workpiece | work on a work bench in the state which shifted the gravity center compared with (B).

その他、種々のワークを種々の把持方法で把持する場合であっても、ユーザーによる作業はワークの位置姿勢を考慮して作業台上に配置するだけであるため容易なものとなる。なお、ユーザーによるワークの配置は必ずしも厳密なものとする必要はなく、大まかな位置姿勢でワークを配置すれば充分である。もちろん、非常に高い精度で把持位置姿勢を決定する必要があれば、ユーザーによるワークの配置も高精度で行う必要がある。しかし本実施形態は、ユーザーによる教示が容易であることを重要視しているものであり、ユーザーの意図に沿った把持動作が教示データとして生成されればよく、極端に精度の高い教示データを求めることは想定していない。   In addition, even when various workpieces are gripped by various gripping methods, the work by the user is easy because it is simply arranged on the work table in consideration of the position and orientation of the workpiece. Note that the work placement by the user is not necessarily strict, and it is sufficient if the work is placed in a rough position and orientation. Of course, if it is necessary to determine the gripping position and orientation with very high accuracy, it is also necessary for the user to place the workpiece with high accuracy. However, in the present embodiment, importance is attached to the fact that teaching by the user is easy, and it is only necessary to generate a gripping operation in accordance with the user's intention as teaching data. I don't expect it.

さらに、ロボットの実機を動作させることで第2の教示データを生成するため、オフラインティーチングとは異なり、生成された教示データを用いて把持動作を実行した場合に、ワークを安定的に把持することができないといった可能性を抑止することが可能である。特に、第2の教示データ生成用の把持動作に第1の教示データを用いる例であれば、最終的な教示データ(第2の教示データ)は実際に行った把持動作時の情報を用いて生成されるものであるため、ロボットを安定的に動作させるものであり、且つ把持動作には第1の教示データが用いられるため、当該把持動作の実行が容易である。つまり、オフラインティーチングとダイレクトティーチングの利点を組み合わせることができ、ユーザーにとって容易な形態での教示を可能にしつつ、生成される教示データに基づく動作を安定したものとすることが可能である。   Furthermore, since the second teaching data is generated by operating the actual robot, unlike the offline teaching, when the gripping operation is executed using the generated teaching data, the workpiece can be stably gripped. It is possible to suppress the possibility of being unable to. In particular, in the example in which the first teaching data is used for the gripping operation for generating the second teaching data, the final teaching data (second teaching data) uses information at the time of the actually performed gripping operation. Since it is generated, the robot is stably operated, and since the first teaching data is used for the gripping operation, it is easy to execute the gripping operation. That is, the advantages of off-line teaching and direct teaching can be combined, and it is possible to stabilize the operation based on the generated teaching data while enabling teaching in an easy form for the user.

以下、本実施形態に係る制御装置100やロボット(ロボットシステム)の詳細な構成例について説明し、その後本実施形態の処理を具体的に説明する。最後に、フローチャートを用いて本実施形態の処理の流れを説明する。   Hereinafter, detailed configuration examples of the control device 100 and the robot (robot system) according to the present embodiment will be described, and then the processing of the present embodiment will be specifically described. Finally, the processing flow of the present embodiment will be described using a flowchart.

2.システム構成例
図2に本実施形態に係る制御装置100の詳細なシステム構成例を示す。ただし、制御装置100は図2の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
2. System Configuration Example FIG. 2 shows a detailed system configuration example of the control device 100 according to the present embodiment. However, the control device 100 is not limited to the configuration in FIG. 2, and various modifications such as omitting some of these components or adding other components are possible.

図2に示したように、制御装置100は、画像認識部110と、処理部120と、ロボット制御部130を含み、処理部120は、仮把持位置姿勢検出部121と、センシング情報取得部123と、教示データ生成部125を含む。   As shown in FIG. 2, the control device 100 includes an image recognition unit 110, a processing unit 120, and a robot control unit 130, and the processing unit 120 includes a temporary gripping position / posture detection unit 121 and a sensing information acquisition unit 123. And a teaching data generation unit 125.

画像認識部110は画像認識処理を行う。ここでの画像認識処理とは、例えばマーカー認識処理であってもよい。また、教示データの生成においては、ワークの位置姿勢をロボットに設定された座標系で認識する処理も必要となる。よって画像認識部110ではワークの位置姿勢を認識する物体認識処理を、画像認識処理として行ってもよい。マーカー認識処理、及び物体認識処理の詳細については後述する。   The image recognition unit 110 performs image recognition processing. Here, the image recognition process may be a marker recognition process, for example. Further, in generating the teaching data, it is necessary to perform processing for recognizing the position and orientation of the workpiece in the coordinate system set in the robot. Therefore, the image recognition unit 110 may perform object recognition processing for recognizing the position and orientation of the workpiece as image recognition processing. Details of the marker recognition process and the object recognition process will be described later.

処理部120は、画像認識処理の結果や、取得したセンシング情報に基づいて、種々の処理を行う。この処理部120の機能は、各種プロセッサ(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムなどにより実現できる。   The processing unit 120 performs various processes based on the result of the image recognition process and the acquired sensing information. The function of the processing unit 120 can be realized by hardware such as various processors (CPU and the like), ASIC (gate array and the like), a program, and the like.

ロボット制御部130は、処理部120の処理により生成された情報に基づいて、ロボット本体300の制御を行う。具体的には、ロボット本体300のアーム310や把持部319(ハンド)を駆動するモーターの制御を行う。なお、モーターの制御を行うとともに、モーターの駆動結果に基づいてトルクリミット情報を取得する処理を合わせて行ってもよい。   The robot control unit 130 controls the robot body 300 based on the information generated by the processing of the processing unit 120. Specifically, it controls the motor that drives the arm 310 and the grip portion 319 (hand) of the robot body 300. In addition, while performing control of a motor, you may perform together the process which acquires torque limit information based on the drive result of a motor.

仮把持位置姿勢検出部121は、画像認識処理(狭義にはマーカー認識処理)の結果に基づいて、仮把持位置姿勢(仮把持位置及び仮把持姿勢)を検出する。検出された仮把持位置姿勢は、ロボット制御部130に出力され、当該仮位置姿勢を目標とする把持動作を行うロボット制御が実行される。   The temporary gripping position / posture detection unit 121 detects a temporary gripping position / posture (a temporary gripping position and a temporary gripping posture) based on a result of image recognition processing (marker recognition processing in a narrow sense). The detected temporary gripping position / posture is output to the robot controller 130, and robot control is performed to perform a gripping operation targeting the temporary position / posture.

センシング情報取得部123は、仮把持位置姿勢を目標とする把持動作において検出されたセンシング情報の取得処理を行う。センシング情報とは上述したように、力覚センサー350からのセンサー情報でもよいし、トルクリミット情報であってもよい。   The sensing information acquisition unit 123 performs processing for acquiring sensing information detected in the gripping operation with the temporary gripping position / posture as a target. As described above, the sensing information may be sensor information from the force sensor 350 or torque limit information.

教示データ生成部125は、センシング情報取得部123が取得したセンシング情報に基づいて、最終的な把持位置姿勢を含む第2の教示データを生成する。教示データ生成部125での詳細な処理の例は後述する。   The teaching data generation unit 125 generates second teaching data including the final gripping position and orientation based on the sensing information acquired by the sensing information acquisition unit 123. An example of detailed processing in the teaching data generation unit 125 will be described later.

また本実施形態の手法は、図3に示したように、ワークを把持する把持部319と、把持部319を動作させる制御装置100とを含み、制御装置100は、ワークとマーカーとを撮像して第1の教示データを生成し、把持部319にワークを把持させて第2の教示データを生成するロボットに適用できる。図3の構成であれば、本実施形態に係るロボットは制御装置100と、ロボット本体300を含む。   Further, as shown in FIG. 3, the method of the present embodiment includes a gripping unit 319 that grips a workpiece and a control device 100 that operates the gripping unit 319, and the control device 100 captures an image of the workpiece and the marker. Thus, the first teaching data can be generated and the gripping unit 319 can grip the work to generate the second teaching data. With the configuration of FIG. 3, the robot according to the present embodiment includes a control device 100 and a robot body 300.

ロボット本体300は、アーム310と、当該アーム310の先端等に設けられる把持部319(広義にはエンドエフェクター)を含む。   The robot main body 300 includes an arm 310 and a grip portion 319 (an end effector in a broad sense) provided at the tip of the arm 310 or the like.

これにより、容易なユーザー入力により、実機を用いて把持動作に関する教示データを生成するとともに、生成した教示データに基づく把持動作を実際にロボット本体300に実行させる制御を行うロボット(ロボットシステム)を実現することが可能になる。ここでのロボットシステムは、図3に示したようにロボット本体300と制御装置100が別体として設けられるものであってもよい。   As a result, a robot (robot system) that generates teaching data related to a gripping operation using an actual machine and controls the robot body 300 to actually perform the gripping operation based on the generated teaching data is realized by an easy user input. It becomes possible to do. In this robot system, the robot body 300 and the control device 100 may be provided separately as shown in FIG.

なお、本実施形態に係るロボットシステムの構成例は図3に限定されない。例えば、図4に示したように、ロボットシステムは、ロボット本体300と、ベースユニット部400を含んでもよい。   Note that the configuration example of the robot system according to the present embodiment is not limited to FIG. For example, as shown in FIG. 4, the robot system may include a robot main body 300 and a base unit unit 400.

ロボット本体300は双腕ロボットであってもよく、頭部や胴体に相当する部分に加え、第1のアーム310と第2のアーム320を含む。図4では第1のアーム310は、関節311,313と、関節の間に設けられるフレーム315,317から構成され、第2のアーム320についても同様のものとしたがこれに限定されない。また、第1のアーム310及び第2のアーム320の先端にはエンドエフェクター319が設けられる。なお、図4では2本のアームを有する双腕ロボットの例を示したが、本実施形態のロボットは3本以上のアームを有してもよい。   The robot body 300 may be a double-arm robot, and includes a first arm 310 and a second arm 320 in addition to portions corresponding to a head and a torso. In FIG. 4, the first arm 310 includes joints 311 and 313 and frames 315 and 317 provided between the joints. The same applies to the second arm 320, but is not limited thereto. Further, end effectors 319 are provided at the tips of the first arm 310 and the second arm 320. Although FIG. 4 shows an example of a double-arm robot having two arms, the robot of this embodiment may have three or more arms.

ベースユニット部400は、ロボット本体300の下部に設けられ、ロボット本体300を支持する。図4の例では、ベースユニット部400には車輪等が設けられ、ロボット全体が移動可能な構成となっている。ただし、ベースユニット部400が車輪等を持たず、床面等に固定される構成であってもよい。図4のロボットシステムでは、ベースユニット部400に制御装置100が格納されることで、ロボット本体300と制御装置100とが一体として構成される。   The base unit part 400 is provided at the lower part of the robot body 300 and supports the robot body 300. In the example of FIG. 4, the base unit 400 is provided with wheels and the like so that the entire robot can move. However, the base unit 400 may be configured to be fixed to a floor surface or the like without having wheels or the like. In the robot system of FIG. 4, the robot main body 300 and the control device 100 are integrally configured by storing the control device 100 in the base unit 400.

また、本実施形態の手法は、ワークを把持する把持部319を備えるロボットと、ロボットを動作させる制御装置100と、マーカーを含み、制御装置100は、ワークとマーカーとを撮像してロボットの第1の教示データを生成し、把持部319にワークを把持させてロボットの第2の教示データを生成するロボットシステムに適用できる。なお、ここではロボットシステムに含まれる構成としてロボットと制御装置100とマーカーを示したが、他の構成を追加してもよい。例えば、本実施形態のロボットシステムは、撮像画像を撮像する撮像部を含むものであってもよい。   In addition, the method of the present embodiment includes a robot including a gripping unit 319 that grips a workpiece, a control device 100 that operates the robot, and a marker. The control device 100 captures the workpiece and the marker to capture the first of the robot. The present invention can be applied to a robot system that generates one teaching data and causes the gripping unit 319 to grip a workpiece to generate second teaching data of the robot. Here, the robot, the control device 100, and the marker are shown as configurations included in the robot system, but other configurations may be added. For example, the robot system of the present embodiment may include an imaging unit that captures a captured image.

3.具体的な処理の例
次に本実施形態の処理の具体例について説明する。以下、画像認識処理の具体例としてマーカー認識処理を説明し、マーカー認識処理の結果から仮把持位置姿勢を決定するとともに当該仮把持位置姿勢を目標とした把持動作について説明する。さらに把持動作時に得られたセンシング情報を用いた第2の教示データの生成処理を説明し、最後に変形例について説明する。
3. Specific Processing Example Next, a specific example of processing according to the present embodiment will be described. Hereinafter, a marker recognition process will be described as a specific example of the image recognition process, a temporary gripping position / posture will be determined from the result of the marker recognition process, and a gripping operation targeting the temporary gripping position / posture will be described. Further, the second teaching data generation process using the sensing information obtained during the gripping operation will be described, and finally a modified example will be described.

3.1 マーカーの配置とマーカー認識処理
まず作業空間におけるマーカーの配置例と、画像認識部110での画像認識処理(マーカー認識処理)の例について説明する。本実施形態での画像認識処理は、把持動作の目標となる仮把持位置姿勢を決定するために行われる。つまり、画像認識処理の対象となる画像に撮像されるべきは、仮把持位置姿勢を決定可能なものであればよい。本実施形態では例えばマーカーを用いるものとする。
3.1 Marker Placement and Marker Recognition Processing First, an example of marker placement in the work space and an example of image recognition processing (marker recognition processing) in the image recognition unit 110 will be described. The image recognition processing in this embodiment is performed to determine a temporary gripping position / posture that is a target of the gripping operation. That is, the image to be captured by the image recognition process may be any image that can determine the temporary gripping position and orientation. In this embodiment, for example, a marker is used.

つまり本実施形態では、画像認識部110は、マーカーを認識する画像認識処理を行い、処理部120は、マーカーについての画像認識処理(マーカー認識処理)の結果に基づいて、仮把持位置及び仮把持姿勢を決定する。   That is, in the present embodiment, the image recognition unit 110 performs an image recognition process for recognizing a marker, and the processing unit 120 performs a temporary gripping position and a temporary gripping based on a result of an image recognition process (marker recognition process) for the marker. Determine posture.

これにより、画像認識処理により認識が容易なマーカーを用いて、仮把持位置姿勢を決定することが可能になる。本実施形態では、仮把持位置に対応する位置にユーザーの手でワークを配置することを想定しているため、ロボットによる仮把持位置姿勢の把握が適切でないと、ユーザーが望んだ把持動作を教示することができない。つまり、ロボットによる仮把持位置姿勢の把握(例えばロボット座標系を用いて仮把持位置姿勢を表現する処理)は充分な精度で行う必要があり、その点で画像認識処理が容易なマーカーを利用することは有用である。   This makes it possible to determine the temporary gripping position and orientation using a marker that can be easily recognized by the image recognition process. In this embodiment, since it is assumed that the work is placed by the user's hand at a position corresponding to the temporary gripping position, the gripping operation desired by the user is taught if it is not appropriate to grasp the temporary gripping position and posture by the robot. Can not do it. In other words, it is necessary to grasp the temporary gripping position / posture by the robot (for example, processing for expressing the temporary gripping position / posture using the robot coordinate system) with sufficient accuracy, and use a marker that facilitates image recognition processing at that point. It is useful.

マーカーを用いる場合、上述したように当該マーカーを認識することで、仮把持位置姿勢を決定する必要がある。仮把持位置だけの特定であれば点を規定するマーカーであれば足りるが、仮把持姿勢を特定するにはさらに方向を規定するマーカーを用いる必要がある。   When using a marker, it is necessary to determine the temporary gripping position and orientation by recognizing the marker as described above. If only the temporary gripping position is specified, a marker that defines a point is sufficient, but in order to specify the temporary gripping posture, it is necessary to use a marker that further defines the direction.

例えば、任意の角度回転させても形状模様の変化しない対称性を有するマーカーを用いた場合、当該マーカーを1つ用いることで作業空間上の1点(狭義には作業台平面上の1点)を特定できる。しかしその場合、仮把持位置は当該マーカーの位置、或いは当該マーカーからロボット座標系で(x,y)だけずれた位置等として決定可能であるが、仮把持姿勢を特定することができない。   For example, when a marker having a symmetry that does not change the shape pattern even when rotated at an arbitrary angle, one point on the work space (one point on the worktable plane in a narrow sense) can be obtained by using one of the markers. Can be identified. However, in that case, the temporary gripping position can be determined as the position of the marker, or a position shifted from the marker by (x, y) in the robot coordinate system, but the temporary gripping posture cannot be specified.

よって画像認識部110は、把持対象であるワークの周囲に配置された複数のマーカーを認識する画像認識処理を行い、処理部120は、複数のマーカーについての画像認識処理の結果に基づいて、仮把持位置及び仮把持姿勢を決定してもよい。   Accordingly, the image recognition unit 110 performs an image recognition process for recognizing a plurality of markers arranged around the workpiece to be grasped, and the processing unit 120 temporarily determines the result of the image recognition process for the plurality of markers. The gripping position and the temporary gripping posture may be determined.

例えば、図8(A)に示したように2つのマーカーM3,M4を配置するものとしてもよい。この場合、M3とM4を結ぶラインL3により方向を規定できるため、例えば仮把持位置をM3の位置、仮把持姿勢をL3上に指が並ぶ姿勢として特定することが可能になる。   For example, two markers M3 and M4 may be arranged as shown in FIG. In this case, since the direction can be defined by the line L3 connecting M3 and M4, for example, the temporary gripping position can be specified as the position of M3 and the temporary gripping posture can be specified as a posture in which fingers are arranged on L3.

或いは、同様のマーカーを3つ以上配置してもよい。例えば図8(B)に示したように4つのマーカーM5〜M8を配置すれば、M5及びM6からラインL4が規定でき、M7及びM8からラインL5が規定できる。よって、L4とL5の交点を仮把持位置とし、L4及びL5の少なくとも一方から仮把持姿勢を決定すること等が可能である。   Alternatively, three or more similar markers may be arranged. For example, if four markers M5 to M8 are arranged as shown in FIG. 8B, a line L4 can be defined from M5 and M6, and a line L5 can be defined from M7 and M8. Therefore, it is possible to determine the temporary gripping posture from at least one of L4 and L5 using the intersection of L4 and L5 as the temporary gripping position.

また、画像認識部110は、第1の方向を示すマーカーである第1のマーカーと、第1の方向と交差する第2の方向を示すマーカーである第2のマーカーとを認識する画像認識処理を行い、処理部120は、第1の方向と第2の方向が交差する位置に基づいて、仮把持位置を決定するとともに、第1の方向及び第2の方向の少なくとも一方に基づいて、仮把持姿勢を決定してもよい。   The image recognition unit 110 also recognizes a first marker that is a marker indicating the first direction and a second marker that is a marker indicating the second direction that intersects the first direction. The processing unit 120 determines a temporary gripping position based on a position where the first direction and the second direction intersect, and based on at least one of the first direction and the second direction, The gripping posture may be determined.

例えば、第1,第2のマーカーとして180度回転したときに形状模様が同じとなる対称性を有するマーカーを用いてもよい。図8(C)に示したように、マーカーM9やM10は当該マーカーの模様の検出を行うことで、マーカーが存在する位置だけでなくマーカーが配置された方向を知ることができる。よって、マーカーM9を認識することでM9の位置とともに所与の方向のラインL6を特定でき、同様にマーカーM10を認識することでM10の位置とともに所与の方向のラインL7を特定できる。この場合には、2枚のマーカーを用いて、図8(B)と同様に2つの方向を規定し、仮把持位置姿勢を特定可能である。この場合、1つのマーカーで1つの方向を特定することができるため、図8(B)に比べて用いるマーカーの数を少なくすることが可能である。   For example, a symmetric marker having the same shape pattern when rotated 180 degrees may be used as the first and second markers. As shown in FIG. 8C, the markers M9 and M10 can detect not only the position where the marker exists but also the direction in which the marker is arranged by detecting the pattern of the marker. Therefore, by recognizing the marker M9, the line L6 in a given direction can be specified together with the position of M9. Similarly, by recognizing the marker M10, the line L7 in a given direction can be specified together with the position of M10. In this case, using two markers, two directions can be defined as in FIG. 8B, and the temporary gripping position and orientation can be specified. In this case, since one marker can specify one direction, the number of markers used can be reduced as compared with FIG.

また、回転対称性を有しないマーカーであれば、マーカーの形状模様を認識することで、マーカーの位置及び方向を一意に特定可能である。よって、例えばマーカーの基準方向と当該基準方向に直交する方向の2方向を考えれば、当該2つの方向が1つのマーカーを認識することで特定可能となる。つまり図8(D)に示したように1つのマーカーを用いて図8(B)や図8(C)と同様に仮把持位置姿勢を決定することも可能である。   In addition, if the marker does not have rotational symmetry, the position and direction of the marker can be uniquely specified by recognizing the shape pattern of the marker. Therefore, for example, when considering two directions of a marker reference direction and a direction orthogonal to the reference direction, the two directions can be specified by recognizing one marker. That is, as shown in FIG. 8D, it is also possible to determine the temporary gripping position / posture similarly to FIGS. 8B and 8C using one marker.

ただし、1つのマーカーから認識できる情報が増えるほど、マーカーの形状や模様は複雑になる傾向がある。例えば、M3〜M8のように位置さえわかればよいマーカーは非常にシンプルにできるが、M11のように細かな方向まで認識するマーカーは対称性を有さない形状模様となる必要がある。そのため、複雑なマーカーを用いることで、マーカーの認識精度が低下する、或いはマーカー自体のサイズを大きくする必要が生じる場合が考えられる。つまりあえて多くのマーカーを用いることで、1つ当たりのマーカーサイズを小さくしたり、検出精度を向上させてもよいと言える。以上のことより、本実施形態では種々のマーカーを種々の配置により用いることが可能であるが、配置可能なマーカー数や、画像認識処理の精度等を考慮して、適切なマーカー種類、マーカー数を決定することが望ましい。   However, the more information that can be recognized from one marker, the more complicated the shape and pattern of the marker. For example, a marker that only needs to know a position such as M3 to M8 can be made very simple, but a marker that recognizes even a fine direction such as M11 needs to have a shape pattern without symmetry. For this reason, it may be considered that the use of a complicated marker reduces the marker recognition accuracy or requires the marker itself to be increased in size. In other words, it can be said that by using many markers, the size of each marker may be reduced or the detection accuracy may be improved. As described above, in this embodiment, various markers can be used in various arrangements. However, in consideration of the number of markers that can be arranged, the accuracy of image recognition processing, and the like, an appropriate marker type and the number of markers. It is desirable to determine.

画像認識部110では、作業空間を撮像した撮像画像に対して画像認識処理(マーカー認識処理)を行う。例えば、撮像画像IMが図9に示した画像であり、IMの一部にマーカーの配置された作業台が撮像されていたとする。その場合、画像認識部110では、IMを対象としてマーカー認識処理を行い、マーカーの画像上での位置を認識する。   The image recognition unit 110 performs image recognition processing (marker recognition processing) on a captured image obtained by capturing the work space. For example, it is assumed that the captured image IM is the image illustrated in FIG. 9 and a work table on which markers are arranged is captured on a part of IM. In that case, the image recognition unit 110 performs marker recognition processing for IM and recognizes the position of the marker on the image.

画像認識処理の結果は、マーカーの画像上位置を表すものである。例えば、図9の例であれば、画像の左上の点(画素)を基準とした場合に、マーカーは右にm0画素、下にn0画素の位置に1つ、及び右にm1画素、下にn1画素の位置に1つ検出された、という情報が取得される。このマーカー位置を表す情報は、このままではロボット制御に利用できないため、処理部120の仮把持位置姿勢検出部121では、マーカー位置をロボット座標系に変換するとともに、仮把持位置姿勢を特定する処理を行う。   The result of the image recognition process represents the position of the marker on the image. For example, in the example of FIG. 9, when the upper left point (pixel) of the image is used as a reference, the marker is m0 pixel on the right, one on the position of n0 pixel below, m1 pixel on the right, and below Information that one is detected at the position of the n1 pixel is acquired. Since the information indicating the marker position cannot be used for robot control as it is, the temporary gripping position / posture detection unit 121 of the processing unit 120 converts the marker position into the robot coordinate system and specifies the temporary gripping position / posture. Do.

例えば、撮像画像を撮像する撮像部の位置、及び撮像方向がロボット座標系において既知の場合には、撮像画像の画像上位置とロボット座標系での座標値を直接変換可能である。つまり画像上位置を表す座標系(図9の例であればmn軸により規定される座標系)とロボット座標系との座標変換行列等が既知であるため、画像認識処理の結果に対して当該座標変換処理を行うことで、マーカー位置をロボット座標系で取得することができる。マーカー位置や、当該マーカーにより定められる方向(ライン)がロボット座標系で取得できれば、仮把持位置姿勢はそれぞれ2本のラインの交点や、1つのラインに沿った方向等から、容易にロボット座標系で決定可能である。   For example, when the position of the imaging unit that captures a captured image and the imaging direction are known in the robot coordinate system, the position on the image of the captured image and the coordinate value in the robot coordinate system can be directly converted. That is, since the coordinate conversion matrix between the coordinate system representing the position on the image (the coordinate system defined by the mn axis in the example of FIG. 9) and the robot coordinate system is known, the result of the image recognition process By performing the coordinate conversion process, the marker position can be acquired in the robot coordinate system. If the marker position and the direction (line) determined by the marker can be acquired in the robot coordinate system, the temporary gripping position and orientation can be easily determined from the intersection of two lines, the direction along one line, etc. Can be determined.

また、撮像部の位置、及び撮像方向がロボット座標系において未知の場合には、何らかの既知の情報を用いて座標変換行列等を求める必要がある。例えば、ロボットを作業空間に配置した際に、当該ロボットと作業台の位置関係が固定されたとする。その場合、作業台の位置はロボット座標系で表現可能な情報として取得される。よって、撮像画像IMから作業台を認識する処理を合わせて行い、IMにおける作業台の位置と、ロボット座標系での作業台の位置から、座標変換処理に用いる変換行列等を求めることができる。その後の処理は座標変換処理が既知の場合と同様である。   Further, when the position of the imaging unit and the imaging direction are unknown in the robot coordinate system, it is necessary to obtain a coordinate transformation matrix or the like using some known information. For example, when the robot is placed in the work space, the positional relationship between the robot and the work table is fixed. In this case, the position of the work table is acquired as information that can be expressed in the robot coordinate system. Therefore, the process of recognizing the work table from the captured image IM is performed together, and a conversion matrix and the like used for the coordinate conversion process can be obtained from the position of the work table in IM and the position of the work table in the robot coordinate system. Subsequent processing is the same as when the coordinate transformation processing is known.

3.2 仮把持位置姿勢を目標とした把持動作と第2の教示データの生成
次に、処理部120では仮把持位置姿勢を目標とした把持動作を実行する。具体的には、仮把持位置姿勢を目標とし、仮把持位置の鉛直上側から鉛直下方向に向かって、仮把持姿勢と同様の姿勢で把持部を降下させるロボット制御を、ロボット制御部130に指示すればよい。この際、鉛直上方からのアプローチでは、把持部の指構造等が障害物(作業台やロボット、作業対象でない他のワーク)等に衝突する可能性は低いことから、把持部の指は最大限開いておけばよい。このようにすれば、指が把持対象であるワークの上面と衝突してしまう可能性を抑止できる。
3.2 Gripping Operation Targeting the Temporary Gripping Position / Posture and Generation of Second Teaching Data Next, the processing unit 120 executes a gripping operation targeted for the temporary gripping position / posture. Specifically, the robot controller 130 is instructed to control the robot to lower the gripper in the same posture as the temporary gripping posture from the upper side of the temporary gripping position to the lower side of the vertical direction with the temporary gripping position and posture as a target. do it. At this time, in the approach from above, since the finger structure of the gripping part is unlikely to collide with an obstacle (workbench, robot, other work that is not the work target), Open it. In this way, it is possible to suppress the possibility that the finger will collide with the upper surface of the workpiece to be grasped.

図9に示したように撮像画像IMが作業台の鉛直上方から撮像された場合には、当該撮像画像に対する画像認識処理により取得される仮把持位置はxy平面内の位置となりz軸方向での位置が不定である。しかし本実施形態では、上述したように把持動作のアプローチがz軸方向の移動のみで行われるため、実際にアプローチを行ってワークに接触する位置で把持部を停止させれば把持動作を実現できる。つまり、把持動作前に仮把持位置を厳密に確定させる必要はない。   As shown in FIG. 9, when the captured image IM is captured from vertically above the workbench, the temporary gripping position acquired by the image recognition processing for the captured image becomes a position in the xy plane and is in the z-axis direction. The position is indefinite. However, in this embodiment, as described above, since the approach of the gripping operation is performed only by the movement in the z-axis direction, the gripping operation can be realized by actually performing the approach and stopping the gripping portion at a position where it contacts the workpiece. . That is, it is not necessary to strictly determine the temporary gripping position before the gripping operation.

逆に言えば、アプローチの停止位置を決定するためには、何らかの手法により把持部とワークの接触を検出する必要がある。そこで本実施形態では、図10(A)に示したように、ロボット本体300の把持部319に力覚センサー350を設けてもよい。   In other words, in order to determine the stop position of the approach, it is necessary to detect the contact between the grip portion and the workpiece by some method. Therefore, in the present embodiment, as shown in FIG. 10A, a force sensor 350 may be provided in the grip portion 319 of the robot body 300.

この場合、把持動作において取得されるセンシング情報は、ロボットに設けられた力覚センサー350により出力された力覚センサー情報である。図10(B)に示したように、把持部319がワークと接触した場合には、力覚センサー350にワークが押しつけられることになるため、何らかの力が検出される。本実施形態では力覚センサー350で力が検出された場合に、把持動作のアプローチを停止する。   In this case, the sensing information acquired in the gripping operation is force sensor information output by the force sensor 350 provided in the robot. As shown in FIG. 10B, when the grip portion 319 comes into contact with the workpiece, the workpiece is pressed against the force sensor 350, and thus some force is detected. In this embodiment, when a force is detected by the force sensor 350, the gripping approach is stopped.

アプローチが停止した後に、把持部の構造を用いてワークを固定(把持)する動作を行う。例えば、把持部が図5等に示してきたように指状の可変部を有する場合には、指を閉じることでワークを把持する。その他、把持部が開閉可能な可変部を有するのであれば、開いた状態にある可変部を閉じる動作を行えばよい。   After the approach is stopped, the workpiece is fixed (gripped) using the structure of the gripping portion. For example, when the gripping portion has a finger-shaped variable portion as shown in FIG. 5 and the like, the workpiece is gripped by closing the finger. In addition, if the gripping portion has a variable portion that can be opened and closed, an operation of closing the variable portion in the open state may be performed.

この把持部の可変部の閉じ量(開き量)は、事前に決定されているものではない。よって本実施形態では、アプローチの停止位置と同様に、把持動作を試行してその結果から閉じ量を決定する。具体的には、可変部を駆動するモーターに、トルクリミッター或いはそれに類する構造物を設けておき、所定以上の過負荷が生じた場合にその旨を表す情報を取得すればよい。   The closing amount (opening amount) of the variable portion of the gripping portion is not determined in advance. Therefore, in the present embodiment, similar to the approach stop position, the gripping operation is tried and the closing amount is determined from the result. Specifically, a torque limiter or a similar structure may be provided in the motor that drives the variable portion, and information indicating that may be obtained when an overload exceeding a predetermined value occurs.

この場合、把持動作において取得されるセンシング情報は、ロボットを駆動するモーターのトルクリミット情報である。図10(A)に示したように把持部が開かれている状態から、図10(B)に示したように把持部が閉じられた状態に移行する際には、モーターを駆動させ可変部を閉じる方向のトルクを発生させる。しかし、可変部とワークが接触し、充分な強さでワークの把持が行われた状態では、さらに可変部を閉じる方向のトルクを発生させようとすると高い負荷が生じることになる。この状態は可変部を過剰に閉じようとしているものと判定できるため、可変部の閉じ量としてその際の値を用いれば、教示対象であるワークを安定して(充分な力で)把持することが可能である。   In this case, the sensing information acquired in the gripping operation is torque limit information of the motor that drives the robot. When shifting from the state in which the gripping portion is opened as shown in FIG. 10 (A) to the state in which the gripping portion is closed as shown in FIG. 10 (B), the motor is driven to change the variable portion. Generate torque in the direction of closing. However, in a state where the variable portion and the workpiece are in contact and the workpiece is gripped with sufficient strength, a high load is generated if an attempt is made to generate torque in the direction of closing the variable portion. In this state, it can be determined that the variable part is excessively closed. Therefore, if the value at that time is used as the closing amount of the variable part, the work to be taught can be gripped stably (with sufficient force). Is possible.

つまり、本実施形態では、把持動作開始前には決定できていなかった情報を、把持動作中に取得されたセンシング情報を用いて決定していく。そして、仮把持位置姿勢の情報、及びアプローチに関する情報(ここではz軸方向に降下させる動作)に対して、センシング情報で決定される情報を加えることで、把持動作が実機を用いて実現されたことになる。実機を用いた把持動作が実現されたのであれば、その際の情報を第2の教示データとすれば、ここでの把持動作を再現可能にできる。   That is, in this embodiment, information that could not be determined before the start of the gripping operation is determined using the sensing information acquired during the gripping operation. And the grasping operation was realized using the actual machine by adding the information determined by the sensing information to the information on the temporary grasping position and orientation and the information on the approach (here, the operation of moving down in the z-axis direction). It will be. If a gripping operation using an actual machine is realized, the gripping operation here can be made reproducible by using the information at that time as the second teaching data.

よって処理部120は、力覚センサー情報に基づいて、作業台に対する垂直方向での把持位置を決定し、決定した把持位置を含む第2の教示データを生成する。ここで、作業台に対する垂直方向での把持位置とは、図6等におけるz軸方向での位置のことであり、把持動作におけるアプローチの距離を特定する情報である。   Therefore, the processing unit 120 determines a grip position in the vertical direction with respect to the work table based on the force sensor information, and generates second teaching data including the determined grip position. Here, the gripping position in the vertical direction with respect to the work table is the position in the z-axis direction in FIG. 6 and the like, and is information for specifying the approach distance in the gripping operation.

また処理部120は、トルクリミット情報に基づいて、ワークを把持した状態での把持部の開き量情報を決定し、決定した開き量情報を含む第2の教示データを生成する。ここで把持部の開き量情報とは、把持部が開閉する可変部を有する場合に、当該可変部がどの程度開いているか(閉じているか)を表す情報である。可変部が1又は複数の関節により構成される場合、開き量情報は各関節の関節角で表現されてもよい。   Further, the processing unit 120 determines the opening amount information of the gripping portion in the state where the workpiece is gripped based on the torque limit information, and generates second teaching data including the determined opening amount information. Here, the opening amount information of the gripping part is information indicating how much the variable part is opened (closed) when the gripping part has a variable part that opens and closes. When the variable part is configured by one or a plurality of joints, the opening amount information may be expressed by a joint angle of each joint.

これにより、センシング情報を用いて、アプローチの停止位置や、指構造の閉じ具合等の、把持動作に必要な情報を決定することが可能になり、仮把持位置姿勢を用いた把持動作を実現することが可能になる。また、センシング情報に基づき取得された情報は、そのまま第2の教示データとして流用することで、仮把持位置姿勢を用いた把持動作を再現することが可能である。   This makes it possible to use sensing information to determine information necessary for the gripping operation, such as the approach stop position and the finger structure closing state, and realize the gripping operation using the temporary gripping position and orientation. It becomes possible. Further, the information acquired based on the sensing information can be used as the second teaching data as it is to reproduce the gripping operation using the temporary gripping position / posture.

例えば、仮把持位置姿勢を用いた把持動作におけるロボットパラメーター(例えばロボットに含まれる各関節の関節角の値)を逐一記憶しておき、当該ロボットパラメーターに従ったロボット制御を行うことで、把持動作を再現してもよい。   For example, the robot parameters (for example, the values of the joint angles of each joint included in the robot) in the gripping operation using the temporary gripping position and posture are stored one by one, and the robot control according to the robot parameters is performed, thereby performing the gripping operation. May be reproduced.

或いは、把持動作の柔軟性を向上させるために上記関節角等に比べて抽象化されたパラメーターを第2の教示データとして生成してもよい。ここでの第2の教示データは、例えば最終的な把持位置、把持姿勢、把持部の開き量情報を含む情報である。最終的な把持位置姿勢については、仮把持位置姿勢を用いた把持動作でのアプローチ終了時の把持部の位置姿勢を用いればよく、開き量情報はトルクリミット情報により決定される情報を用いればよい。   Alternatively, a parameter abstracted compared to the joint angle or the like may be generated as the second teaching data in order to improve the flexibility of the gripping operation. The second teaching data here is information including, for example, final gripping position, gripping posture, and opening amount information of the gripping part. For the final gripping position / posture, the position / posture of the gripping part at the end of the approach in the gripping operation using the temporary gripping position / posture may be used, and the opening amount information may be information determined by the torque limit information. .

第2の教示データを用いた実際のロボット制御においては、把持部を最終的な把持位置の鉛直上方に、最終的な把持姿勢となる状態でセットし、その状態から最終的な把持位置姿勢となるまでz軸方向に把持部を降下(アプローチ)させる。そしてアプローチ終了後に、開き量情報で指定される量だけ把持部の可動部を閉じれば把持動作が完了することになる。   In actual robot control using the second teaching data, the gripping unit is set vertically above the final gripping position in a final gripping posture, and from that state, the final gripping position and posture are determined. The grip part is lowered (approached) in the z-axis direction until After the approach is completed, the gripping operation is completed by closing the movable part of the gripper by the amount specified by the opening amount information.

なお本実施形態の手法は、ロボット実機を用いて実際にワークを把持し、その結果を用いることで安定した把持動作を可能にする教示データを作成するものである。つまり、本実施形態の手法により生成される教示データは、ワークとの関係を規定する情報となるべきである。それに対して、上述の説明では、仮把持位置姿勢も最終的な把持位置姿勢も、ロボットの把持部制御における目標を表す情報であって、ワークの位置を示すものではない。つまりこのままでは「所与の位置を目標として把持動作を行う」という教示データを作成したにすぎず、当該「所与の位置」に教示時と同様の位置姿勢でワークが配置されていなければ意味はないことになる。   Note that the method of the present embodiment creates teaching data that enables a stable gripping operation by actually gripping a workpiece using a real robot and using the result. That is, the teaching data generated by the method of the present embodiment should be information that defines the relationship with the workpiece. On the other hand, in the above description, the temporary gripping position / posture and the final gripping position / posture are information indicating the target in the gripping unit control of the robot, and do not indicate the position of the workpiece. In other words, as it is, only the teaching data that “the gripping operation is performed for the given position as a target” has been created, and it means that the workpiece is not placed at the “given position” in the same position and orientation as at the time of teaching. There will be no.

よって本実施形態では、画像認識部110は、ワークの位置姿勢を認識する物体認識処理を、画像認識処理として行い、処理部120は、物体認識処理により取得されたワークの位置姿勢と、最終的な把持位置と、最終的な把持姿勢とを含む教示データ(狭義には第2の教示データ)を生成する。   Therefore, in this embodiment, the image recognition unit 110 performs object recognition processing for recognizing the position and orientation of the workpiece as image recognition processing, and the processing unit 120 determines the position and orientation of the workpiece acquired by the object recognition processing, and finally Teaching data (second teaching data in a narrow sense) including a proper gripping position and a final gripping posture is generated.

ここで物体認識処理自体は、ワークのモデルデータをテンプレートとしたテンプレートマッチング等、広く知られた手法により実現できるため、詳細な説明は省略する。   Here, the object recognition process itself can be realized by a widely known method such as template matching using the workpiece model data as a template, and thus detailed description thereof is omitted.

これにより、ワークの画像上での位置姿勢を認識することが可能になる。また、マーカー認識処理と同様に座標変換処理を行うことで、ワークの位置姿勢をロボット座標系で取得することも可能になる。よって、所与の把持位置姿勢を目標とする教示データが得られた場合にも、当該把持位置姿勢をワークとの相対的な関係として理解することが可能になる。例えば、「ロボット座標系で(x,y,z,u,v,w)を目標として把持動作を行う」という教示データを、「ワーク上の所与の点を目標として把持動作を行う」という教示データに変形できる。よって、ワークの位置が変化した場合であっても、当該ワーク位置の変化に応じて把持動作も適切に変更することができ、多くの状況に柔軟に対応可能な教示データを生成することができる。   This makes it possible to recognize the position and orientation of the workpiece on the image. Further, by performing the coordinate conversion process in the same manner as the marker recognition process, the position and orientation of the workpiece can be acquired by the robot coordinate system. Therefore, even when teaching data targeting a given gripping position / posture is obtained, the gripping position / posture can be understood as a relative relationship with the workpiece. For example, teaching data “perform a gripping operation with (x, y, z, u, v, w) as targets in the robot coordinate system” is referred to as “perform a gripping operation with a given point on the workpiece as a target”. Can be transformed into teaching data. Therefore, even when the position of the workpiece changes, the gripping operation can be appropriately changed according to the change of the workpiece position, and teaching data that can flexibly cope with many situations can be generated. .

また、画像認識部110は、仮把持位置及び仮把持姿勢を目標として、ロボットの把持部319でワークを把持する把持動作をロボットに行わせた後に、物体認識処理を行ってもよい。   Further, the image recognition unit 110 may perform the object recognition process after causing the robot to perform a gripping operation of gripping the workpiece by the gripping unit 319 of the robot with the temporary gripping position and the temporary gripping posture as targets.

本実施形態では、仮把持位置姿勢を目標とする把持動作の前に、物体認識処理を行うことは妨げられない。しかし、ユーザーによるワークの配置や、ワーク自体の重量バランス、或いはロボットの把持部319の構成等によっては、把持動作の最中にワークの位置姿勢が変化してしまうことも考えられる。例えば、2本の指でワークを把持する場合、左指による力の方向と、右指による力の方向が同一直線上で反対方向となればワークの運動は考えにくい。しかし、ワークが斜めに配置されたり、把持部自体の剛性がそこまで高くない場合には、各指による力が同一直線上にならず、ワークを回転させるモーメントが発生する可能性もある。本実施形態での安定的な把持動作とは、把持動作が終了した最終的な状態を再現することで実現される。すなわち、ワークはユーザーにより配置された状態ではなく、把持動作により把持部319に把持された後の状態を教示データに利用することが好ましいと言える。つまり、物体認識処理を仮把持位置姿勢を目標とする把持動作の後に行うことで、把持動作によりワークが移動した場合等であっても、安定した把持動作を実現する教示データを生成することが可能になる。   In the present embodiment, it is not hindered to perform the object recognition process before the gripping operation targeting the temporary gripping position / posture. However, depending on the arrangement of the workpiece by the user, the weight balance of the workpiece itself, the configuration of the gripping portion 319 of the robot, the position and orientation of the workpiece may change during the gripping operation. For example, when gripping a workpiece with two fingers, it is difficult to think of the movement of the workpiece if the direction of the force of the left finger and the direction of the force of the right finger are on the same straight line and opposite directions. However, when the work is disposed obliquely or the gripping part itself is not so rigid, the force by each finger is not on the same straight line, and there is a possibility of generating a moment for rotating the work. The stable gripping operation in the present embodiment is realized by reproducing the final state after the gripping operation is completed. That is, it can be said that it is preferable to use the state after the workpiece is gripped by the grip portion 319 by the gripping operation as teaching data, not the state where the workpiece is placed by the user. In other words, by performing the object recognition processing after the gripping operation with the temporary gripping position / posture as a target, even when the workpiece is moved by the gripping operation, teaching data that realizes a stable gripping operation can be generated. It becomes possible.

3.3 変形例
上述してきたように、本実施形態では仮把持位置姿勢を用いた把持動作を容易に実現するために、当該把持動作におけるアプローチは図6(A)に示したようなシンプル且つ自動生成容易なものとしている。そのため、所与のワークに対して複数のアプローチ方向から把持動作を行うことが難しくなる。
3.3 Modifications As described above, in this embodiment, in order to easily realize the gripping operation using the temporary gripping position and orientation, the approach in the gripping operation is simple and simple as shown in FIG. It is assumed that automatic generation is easy. This makes it difficult to perform a gripping operation on a given workpiece from a plurality of approach directions.

例えば、図7(A)〜図7(F)を用いて上述したように、1つのワークに対しても、面A1の方向から把持したい場面もあれば、面A4の方向から把持したい場面もある。或いは、A1の方向から把持する場合にも、面A2,A3における接触点を変更したい場面もある。本実施形態では、教示時におけるアプローチ方向が一定であることから、ワーク側の位置姿勢を変更することで、種々の方向からの把持動作を教示する。   For example, as described above with reference to FIGS. 7A to 7F, there is a scene where one workpiece is desired to be gripped from the direction of the surface A1, and another scene is desired to be gripped from the direction of the surface A4. is there. Alternatively, there is a scene where it is desired to change the contact points on the surfaces A2 and A3 even when gripping from the direction of A1. In this embodiment, since the approach direction at the time of teaching is constant, the gripping operation from various directions is taught by changing the position and orientation on the workpiece side.

具体的には、第1〜第N(Nは2以上の整数)の面を有するワークを把持対象とした場合に、処理部120は、ワークの第i(iは1≦i≦Nを満たす整数)の面を処理対象面として、仮把持位置及び仮把持姿勢を目標とする把持動作をロボットに行わせ、把持動作において検出されたセンシング情報に基づいて、第iの面を処理対象面とした第2の教示データである第2の教示データを生成する。同様に、処理部120は、ワークの第2(jは1≦j≦N、j≠iを満たす整数)の面を処理対象面として、仮把持位置及び仮把持姿勢を目標とする把持動作を前記ロボットに行わせ、把持動作において検出されたセンシング情報に基づいて、第jの面を処理対象面とした第2の教示データである第2の教示データを生成する。 Specifically, when a workpiece having first to Nth (N is an integer equal to or greater than 2) surfaces is to be grasped, the processing unit 120 satisfies the i-th of the workpiece (i satisfies 1 ≦ i ≦ N). (Integer) surface as a processing target surface, the robot performs a gripping operation targeting the temporary gripping position and the temporary gripping posture, and the i-th surface is defined as the processing target surface based on sensing information detected in the gripping operation. The second i teaching data, which is the second teaching data, is generated. Similarly, the processing unit 120 uses the second j surface (j is an integer satisfying 1 ≦ j ≦ N, j ≠ i) as a processing target surface, and performs a gripping operation with a temporary gripping position and a temporary gripping posture as targets. And the second j teaching data, which is the second teaching data having the j th surface as the processing target surface, is generated based on the sensing information detected in the gripping operation.

これにより、所与のワークの異なる面の方向からの把持動作を教示することが可能になる。ここでの処理対象面とは、ワークの複数の面のうち、把持部319のアプローチポイント(アプローチを開始する把持部319の位置であり図6(A)の上側の位置に対応)の方向を向く面を表す。図7(A)であれば面A1が処理対象面であるし、図7(C)であれば面A4が処理対象面である。図7(A)、図7(C)に示したように、複数の方向からの把持動作を教示したい場合にも、各面を対象として上述の処理を繰り返すことで、適切に教示データを生成することが可能になる。   This makes it possible to teach a gripping operation from a different surface direction of a given workpiece. The processing target surface here refers to the direction of the approach point of the gripping unit 319 (corresponding to the upper position in FIG. 6A) of the gripping unit 319 among a plurality of surfaces of the workpiece. Represents the facing surface. In FIG. 7A, the surface A1 is the processing target surface, and in FIG. 7C, the surface A4 is the processing target surface. As shown in FIGS. 7A and 7C, even when it is desired to teach a gripping operation from a plurality of directions, the teaching data is appropriately generated by repeating the above processing for each surface. It becomes possible to do.

この際、ワークの第iの面が作業台の鉛直上方向を向く位置姿勢で、ワークが配置された場合に、処理部120は、ワークの第iの面を処理対象面として、仮把持位置及び仮把持姿勢を目標とする把持動作をロボットに行わせ、把持動作において検出されたセンシング情報に基づいて、第2の教示データを生成すればよい。 At this time, when the workpiece is arranged in a position and orientation in which the i-th surface of the workpiece faces the vertically upward direction of the work table, the processing unit 120 uses the i-th surface of the workpiece as a processing target surface and performs a temporary holding position. Then, the robot may perform a gripping operation targeting the temporary gripping posture, and the second i teaching data may be generated based on the sensing information detected in the gripping operation.

これにより、配置されたワークの位置姿勢に応じて、適切な教示データを生成することが可能になる。本実施形態では、仮把持位置姿勢を目標とした把持動作を実現する際に、システム側でのアプローチ動作生成についての処理負荷をできるだけ軽減することを考えている。つまりアプローチ動作についての多様性は高くないことになるが、ワークの位置姿勢を変更すれば、多様な把持動作を実現する教示データの生成が可能である。ワークの配置はユーザーに委ねられるため、制御装置100側の処理負荷は高くならない。また、ユーザーにとっても処理対象面を上にして所定の位置にワークを置くだけであるため、ワーク配置は大きな負担となるものではない。なお、本実施形態では図6(A)に示したように鉛直上方からアプローチするものとしたため、ワークの第iの面を鉛直上方に向けるものとした。つまり広義には、ワークの第iの面が把持部のアプローチポイントの方向を向く位置姿勢で、ワークが配置された場合に、処理部120は、ワークの第iの面を処理対象面として、仮把持位置及び仮把持姿勢を目標とする把持動作をロボットに行わせ、把持動作において検出されたセンシング情報に基づいて、第2の教示データを生成すればよい。 As a result, it is possible to generate appropriate teaching data according to the position and orientation of the placed workpiece. In the present embodiment, it is considered to reduce as much as possible the processing load for generating an approach motion on the system side when realizing a gripping operation targeting the temporary gripping position and orientation. That is, the diversity of approach motions is not high, but teaching data that realizes various gripping motions can be generated by changing the position and orientation of the workpiece. Since the work placement is left to the user, the processing load on the control device 100 side does not increase. In addition, since the user only places the work at a predetermined position with the processing target surface facing upward, the work placement is not a heavy burden. In the present embodiment, as shown in FIG. 6 (A), since the approach is made from the vertically upward direction, the i-th surface of the workpiece is directed vertically upward. That is, in a broad sense, when the workpiece is arranged in a position and orientation in which the i-th surface of the workpiece faces the direction of the approach point of the gripping unit, the processing unit 120 uses the i-th surface of the workpiece as a processing target surface. The robot may perform a gripping operation targeting the temporary gripping position and the temporary gripping posture, and the second i teaching data may be generated based on sensing information detected in the gripping operation.

また、教示する把持動作に関して、ユーザーが何らかの把持パラメーターを入力してもよい。例えば、把持の深さをユーザーが指定してもよい。ここで把持の深さとは、把持部の可動部分とワークの接触位置を表す情報である。例えば、図7(A)に示したように、面A2と面A3に把持部の指を押しつけてワークを把持する場合に、A2,A3と指の接触位置を作業台に近い位置にして把持してもよいし、或いは接触位置を面A1に近い位置にして把持してもよい。本実施形態では、処理対象面から遠い位置(作業台に近い位置)での把持状態を「把持が深い」と表現し、処理対象面に近い位置での把持状態を「把持が浅い」と表現する。   In addition, the user may input some gripping parameters regarding the gripping operation to be taught. For example, the user may specify the depth of gripping. Here, the gripping depth is information representing the contact position between the movable part of the gripping part and the workpiece. For example, as shown in FIG. 7A, when gripping the work by pressing the fingers of the gripping part against the surfaces A2 and A3, the contact positions of the fingers A2, A3 and the finger are close to the work table. Alternatively, it may be held with the contact position close to the surface A1. In the present embodiment, the grip state at a position far from the processing target surface (position close to the work table) is expressed as “deep grip”, and the grip state at a position close to the processing target surface is expressed as “shallow grip”. To do.

上述したように、本実施形態では、把持部とワークが接触する位置を把持位置とする。よって図5(A)に示した把持部のようにワークに接触するパーツと、指との相対位置が変化しない場合には、把持の深さを調節することは難しい。しかし図11(A)に示したように、パーツ3193が移動可能な構成であれば、パーツ3193と指3191,3192との相対位置を変化させられる。よって、図11(B)に示したようにパーツ3193を押し出した状態とすれば、指3191,3192によるワークの把持は浅いものとできる。一方、図11(C)に示したようにパーツ3193を引いた状態とすれば、指3191,3192によるワークの把持は深いものとできる。   As described above, in the present embodiment, the position where the gripping portion and the workpiece come into contact is set as the gripping position. Therefore, it is difficult to adjust the gripping depth when the relative position between the finger and the part in contact with the workpiece, such as the gripping portion shown in FIG. However, as shown in FIG. 11A, if the part 3193 is movable, the relative position between the part 3193 and the fingers 3191 and 3192 can be changed. Therefore, if the part 3193 is pushed out as shown in FIG. 11B, the gripping of the workpiece by the fingers 3191 and 3192 can be shallow. On the other hand, when the part 3193 is pulled as shown in FIG. 11C, the workpieces 3191 and 3192 can be deeply gripped.

つまり図11(A)に示したような把持部の構成であれば、ユーザーからの把持の深さに関する情報を受け付け、当該情報に対応した把持動作を実現する教示データを生成することが可能になる。図11(A)の構成であれば、把持を深くする指示があった場合にはパーツ3193を引き、逆に把持を浅くする指示があった場合にはパーツ3193を押し出す制御を行えばよい。パーツ3193の制御後に、仮把持位置姿勢を目標とする把持動作を行って教示データを生成すれば、当該教示データは把持の深さに関してユーザーの意図を反映したものとなる。   In other words, with the configuration of the gripping portion as shown in FIG. 11A, it is possible to receive information on the gripping depth from the user and generate teaching data that realizes a gripping operation corresponding to the information. Become. In the configuration of FIG. 11A, control may be performed to pull the part 3193 when instructed to deepen the grip and to push out the part 3193 when instructed to shallowly grip. If the teaching data is generated by performing a gripping operation targeting the temporary gripping position and orientation after the control of the part 3193, the teaching data reflects the user's intention regarding the gripping depth.

また、把持の強さをユーザーが指定してもよい。把持の強さは上述したように把持部の可変部(例えば指3191,3192)を駆動するモーターのトルクリミット情報により決定される。その際、リミットとする負荷の程度は設定により変更可能である。例えば、比較的小さな負荷でもリミットであると判定すれば、可変部によりワークに加えられる力は比較的小さくなるし、比較的大きな負荷にならなければリミットと判定しないものとすれば、可変部によりワークに加えられる力は比較的大きくなる。つまり、ユーザーから把持の強さに関する情報を受け付け、当該情報に基づいてトルクのリミットを設定することで、ユーザーの指示に対応した把持動作を実現する教示データを生成することが可能になる。   Further, the user may specify the strength of gripping. As described above, the strength of gripping is determined by the torque limit information of the motor that drives the variable portion of the gripper (for example, fingers 3191 and 3192). At that time, the degree of load as a limit can be changed by setting. For example, if it is determined that the load is a limit even with a relatively small load, the force applied to the workpiece by the variable unit is relatively small, and if the load is not relatively large, the limit is not determined. The force applied to the workpiece is relatively large. That is, it is possible to generate teaching data that realizes a gripping operation corresponding to a user instruction by receiving information on the gripping strength from the user and setting a torque limit based on the information.

また、上述してきた本実施形態の教示や、把持パラメーターの設定のユーザーインターフェースとしては、図12に示した画面等を用いてもよい。図12の例では、B1に示したように、スライダーを表示することで、把持パラメーターのうち把持の深さ(握り深さ)の入力を可能にしている。また、B2に示したように、ラジオボタンを表示することで、把持パラメーターのうち把持の強さ(握り強さ)の入力を可能にしている。   Further, the screen shown in FIG. 12 or the like may be used as the above-described teaching of the present embodiment and the user interface for setting the gripping parameters. In the example of FIG. 12, as shown in B <b> 1, by displaying a slider, it is possible to input a gripping depth (grip depth) among gripping parameters. Further, as shown in B2, by displaying radio buttons, it is possible to input grip strength (grip strength) among grip parameters.

また、B3には必要な動作をロボットに指示するための複数のボタンを表示している。ホームボタンは、ロボットをホームポジションに戻す指示を行うためのボタンである。ロボットのアーム310等が駆動していると、撮像画像IMにアーム310等が写り込んでしまい、マーカー認識処理や物体認識処理の精度が低下するおそれがある。ホームポジションとは、少なくとも撮像画像内にロボットのパーツが写り込まないようなロボットの位置(及び姿勢)を表すものである。ホームボタンは、マーカー認識処理や物体認識処理の前に押下されることが想定される。戻すボタンは、ロボット或いは制御装置100の動作を前の状態に戻すボタンである。   In B3, a plurality of buttons for instructing the robot to perform necessary operations are displayed. The home button is a button for giving an instruction to return the robot to the home position. When the robot arm 310 or the like is driven, the arm 310 or the like appears in the captured image IM, and the accuracy of the marker recognition process or the object recognition process may be reduced. The home position represents the position (and posture) of the robot so that at least the robot parts are not reflected in the captured image. It is assumed that the home button is pressed before the marker recognition process or the object recognition process. The return button is a button for returning the operation of the robot or the control device 100 to the previous state.

また、マーカー認識ボタンはマーカー認識処理を指示するボタンであり、物体認識ボタンは物体認識処理を指示するボタンである。また、把持ボタンは、仮把持位置姿勢を目標とした把持動作の開始を指示するボタンである。把持ボタンが押下された際には、B1のインターフェースで指示された把持の深さ、強さに対応する把持動作が実行される。   The marker recognition button is a button for instructing marker recognition processing, and the object recognition button is a button for instructing object recognition processing. The grip button is a button for instructing the start of a gripping operation with the temporary gripping position / posture as a target. When the grip button is pressed, a gripping operation corresponding to the grip depth and strength instructed by the interface of B1 is executed.

登録ボタンは、把持ボタンの押下による把持動作に基づいて生成された教示データをデータベースに登録するボタンである。このようなインターフェースでは、把持ボタンの押下により実行された把持動作が所望の動作でない場合に、ユーザーは登録ボタンを押下しなければよい。そのようにすれば、ユーザーの意図と合わない教示データが記憶されることを抑止できる。   The registration button is a button for registering teaching data generated based on the gripping operation by pressing the gripping button in the database. In such an interface, when the gripping operation executed by pressing the grip button is not a desired motion, the user does not have to press the registration button. By doing so, it is possible to prevent storing teaching data that does not match the user's intention.

なお、インターフェースにはB4に示したように、指方向に関する入力を行うものを設けてもよい。例えば図11(A)等では把持部の指は2つとしていたが、4つ等であってもよい。その場合、各指は四角形の頂点の位置に配置され、指のうち2つを使って第1の方向で挟み込む動作を行い、残りの2つを使って第1の方向と交差する(狭義には直交する)第2の方向で挟み込む動作を行う。B4のインターフェースは指の使い方を指示するものであり、指方向把持なしのチェックボックスにチェックを入れた場合、4つの指のうち2つの指を使わずに、一方向のみから挟み込む把持動作を実行させる。また指方向後のチェックボックスにチェックを入れた場合、2つの指による挟み込みと、残り2つの指による挟み込みに時間差を設ける把持動作を実行させる。   In addition, as shown to B4, you may provide an interface which performs the input regarding a finger direction. For example, in FIG. 11A and the like, the number of fingers of the gripping part is two, but may be four or the like. In that case, each finger is placed at the position of the apex of the quadrangle, and the two fingers are used to pinch in the first direction, and the remaining two are used to cross the first direction (in a narrow sense). Is sandwiched in the second direction. The interface of B4 is used to instruct how to use the finger. When the check box for no finger direction gripping is checked, a gripping operation is performed in which only one direction is sandwiched without using two of the four fingers. Let Also, when the check box after the finger direction is checked, a gripping operation is performed in which there is a time difference between pinching with two fingers and pinching with the remaining two fingers.

なお、本実施形態の手法における入力インターフェースは図12に限定されず、種々の変形実施が可能である。   In addition, the input interface in the method of this embodiment is not limited to FIG. 12, and various deformation | transformation implementation is possible.

4.処理の流れ
図13に本実施形態の処理を説明するフローチャートを示す。この処理が開始されると、まずマーカー認識処理を行う(S101)。マーカー認識処理の詳細は上述したとおりであり、S101の処理は例えば、図12のマーカー認識ボタンの押下をトリガーとして行われてもよい。
4). Process Flow FIG. 13 is a flowchart for explaining the process of this embodiment. When this process is started, a marker recognition process is first performed (S101). The details of the marker recognition process are as described above, and the process of S101 may be performed by, for example, pressing the marker recognition button in FIG. 12 as a trigger.

次にマーカー認識処理の結果に基づいて把持位置姿勢を特定し(S102)、特定した把持位置姿勢を目標として把持動作を行う(S103)。S103の処理では、上述したようにセンシング情報を取得し、アプローチの停止位置や指の開き量を決定する。   Next, a gripping position / orientation is specified based on the result of the marker recognition process (S102), and a gripping operation is performed with the specified gripping position / orientation as a target (S103). In the process of S103, sensing information is acquired as described above, and the approach stop position and the finger opening amount are determined.

そしてS103の把持動作終了時のワークの位置姿勢を物体認識処理により認識し(S104)、S103及びS104での処理結果に基づいて教示データを生成する(S105)。生成した教示データが適切な場合には、当該教示データをデータベースに登録する(S106)。   The position and orientation of the workpiece at the end of the gripping operation in S103 are recognized by object recognition processing (S104), and teaching data is generated based on the processing results in S103 and S104 (S105). If the generated teaching data is appropriate, the teaching data is registered in the database (S106).

その後、教示が終了したかの判定を行い(S107)、終了しない場合にはS101に戻って処理を継続する。なお、ロボットと作業台の相対位置が変わらない場合等には、S101及びS102の処理を再度行う必要はないため、S107でNoの場合にはS103に戻るものとしてもよい。S107でYesの場合には処理を終了する。   Thereafter, it is determined whether the teaching has been completed (S107). If not, the process returns to S101 to continue the processing. Note that if the relative position between the robot and the workbench does not change, it is not necessary to perform the processing of S101 and S102 again. Therefore, if No in S107, the process may return to S103. If Yes in S107, the process ends.

なお、本実施形態の制御装置100等は、その処理の一部または大部分をプログラムにより実現してもよい。この場合には、CPU等のプロセッサーがプログラムを実行することで、本実施形態の制御装置100等が実現される。具体的には、非一時的な情報記憶媒体に記憶されたプログラムが読み出され、読み出されたプログラムをCPU等のプロセッサーが実行する。ここで、情報記憶媒体(コンピューターにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリー(カード型メモリー、ROM等)などにより実現できる。そして、CPU等のプロセッサーは、情報記憶媒体に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち、情報記憶媒体には、本実施形態の各部としてコンピューター(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピューターに実行させるためのプログラム)が記憶される。   Note that the control device 100 or the like of the present embodiment may realize part or most of the processing by a program. In this case, the control device 100 according to the present embodiment is realized by a processor such as a CPU executing a program. Specifically, a program stored in a non-temporary information storage medium is read, and a processor such as a CPU executes the read program. Here, the information storage medium (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (DVD, CD, etc.), HDD (hard disk drive), or memory (card type). It can be realized by memory, ROM, etc. A processor such as a CPU performs various processes according to the present embodiment based on a program (data) stored in the information storage medium. That is, in the information storage medium, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit) Is memorized.

なお、以上のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また制御装置100等の構成、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described at least once together with a different term having a broader meaning or the same meaning in the specification or the drawings can be replaced with the different term in any part of the specification or the drawings. Further, the configuration and operation of the control device 100 and the like are not limited to those described in the present embodiment, and various modifications can be made.

EP エンドポイント、IM 撮像画像、L1〜L7 ライン、
M1〜M11 マーカー、100 制御装置、110 画像認識部、120 処理部、
121 仮把持位置姿勢検出部、123 センシング情報取得部、
125 教示データ生成部、130 ロボット制御部、300 ロボット本体、
310 アーム、311,313 関節、315,317 フレーム、319 把持部、320 第2のアーム、350 力覚センサー、400 ベースユニット部、
3191,3192 指、3193 パーツ、
EP end point, IM captured image, L1-L7 line,
M1 to M11 markers, 100 control device, 110 image recognition unit, 120 processing unit,
121 temporary gripping position and orientation detection unit, 123 sensing information acquisition unit,
125 teaching data generation unit, 130 robot control unit, 300 robot body,
310 arm, 311, 313 joint, 315, 317 frame, 319 gripping part, 320 second arm, 350 force sensor, 400 base unit part,
3191, 3192 fingers, 3193 parts,

Claims (15)

ワークとマーカーとを撮像した撮像画像を受け付ける画像認識部と、
ロボットの教示データを生成する処理部と、
を含み、
前記処理部は、
前記画像認識部が受け付けた前記撮像画像によって前記ロボットの第1の教示データを生成し、
前記ロボットの把持部に前記ワークを把持させて前記ロボットの第2の教示データを生成することを特徴とする制御装置。
An image recognition unit that accepts a captured image obtained by imaging the workpiece and the marker;
A processing unit for generating robot teaching data;
Including
The processor is
Generating first teaching data of the robot by the captured image received by the image recognition unit;
A control device, wherein the robot is configured to generate the second teaching data of the robot by gripping the workpiece.
請求項1において、
前記処理部は、
前記第1の教示データに基づいて前記把持部に前記ワークを把持させて、前記ロボットの前記第2の教示データを生成することを特徴とする制御装置。
In claim 1,
The processor is
A control apparatus that causes the gripper to grip the workpiece based on the first teaching data and generates the second teaching data of the robot.
請求項1又は2において、
前記処理部は、
前記把持部に前記ワークを把持させることで、前記ロボットに設けられた力覚センサーにより出力された力覚センサー情報を取得し、
前記力覚センサー情報に基づいて、作業台に対する垂直方向での把持位置を決定し、決定した前記把持位置を含む前記第2の教示データを生成することを特徴とする制御装置。
In claim 1 or 2,
The processor is
By causing the gripping part to grip the workpiece, the force sensor information output by a force sensor provided in the robot is obtained,
A control device that determines a grip position in a vertical direction with respect to a work table based on the force sensor information, and generates the second teaching data including the determined grip position.
請求項1乃至3のいずれかにおいて、
前記処理部は、
前記把持部に前記ワークを把持させることで、前記ロボットを駆動するモーターのトルクリミット情報を取得し、
前記トルクリミット情報に基づいて、前記ワークを把持した状態での前記把持部の開き量情報を決定し、決定した開き量情報を含む前記第2の教示データを生成することを特徴とする制御装置。
In any one of Claims 1 thru | or 3,
The processor is
By causing the gripping part to grip the work, obtain torque limit information of a motor that drives the robot,
Based on the torque limit information, the opening amount information of the gripping portion in a state where the workpiece is gripped is determined, and the second teaching data including the determined opening amount information is generated. .
請求項1乃至4のいずれかにおいて、
前記画像認識部は、
前記マーカーを認識する画像認識処理を行い、
前記処理部は、
前記マーカーについての前記画像認識処理の結果に基づいて、前記第1の教示データを生成することを特徴とする制御装置。
In any one of Claims 1 thru | or 4,
The image recognition unit
Perform image recognition processing to recognize the marker,
The processor is
The control device, wherein the first teaching data is generated based on a result of the image recognition processing for the marker.
請求項5において、
前記画像認識部は、
把持対象である前記ワークの周囲に配置された複数の前記マーカーを認識する前記画像認識処理を行い、
前記処理部は、
複数の前記マーカーについての前記画像認識処理の結果に基づいて、前記第1の教示データを生成することを特徴とする制御装置。
In claim 5,
The image recognition unit
Performing the image recognition processing for recognizing a plurality of the markers arranged around the workpiece to be grasped;
The processor is
The control device, wherein the first teaching data is generated based on a result of the image recognition processing for a plurality of the markers.
請求項6において、
前記画像認識部は、
第1の方向を示す前記マーカーである第1のマーカーと、前記第1の方向と交差する第2の方向を示す前記マーカーである第2のマーカーとを認識する前記画像認識処理を行い、
前記処理部は、
前記第1の方向と前記第2の方向が交差する位置に基づいて、仮把持位置を決定し、前記第1の方向及び前記第2の方向の少なくとも一方に基づいて、仮把持姿勢を決定し、
前記仮把持位置及び前記仮把持姿勢を含む前記第1の教示データを生成することを特徴とする制御装置。
In claim 6,
The image recognition unit
Performing the image recognition processing for recognizing a first marker that is the marker indicating a first direction and a second marker that is the marker indicating a second direction intersecting the first direction;
The processor is
A temporary gripping position is determined based on a position where the first direction and the second direction intersect, and a temporary gripping posture is determined based on at least one of the first direction and the second direction. ,
The control apparatus that generates the first teaching data including the temporary gripping position and the temporary gripping posture.
請求項1乃至7のいずれかにおいて、
第1〜第N(Nは2以上の整数)の面を有する前記ワークを把持対象とした場合に、
前記処理部は、
前記ワークの第i(iは1≦i≦Nを満たす整数)の面を処理対象面として、前記把持部に前記ワークを把持させて、前記第iの面を前記処理対象面とした前記第2の教示データである第2の教示データを生成し、
前記ワークの第j(jは1≦j≦N、j≠iを満たす整数)の面を前記処理対象面として、前記把持部に前記ワークを把持させて、前記第jの面を前記処理対象面とした前記第2の教示データである第2の教示データを生成することを特徴とする制御装置。
In any one of Claims 1 thru | or 7,
When the workpiece having the first to Nth surfaces (N is an integer of 2 or more) is a gripping target,
The processor is
The i-th surface of the workpiece (i is an integer satisfying 1 ≦ i ≦ N) is a processing target surface, the gripping part is gripped by the workpiece, and the i-th surface is the processing target surface. generating the teaching data of the 2 i is two teaching data,
Using the jth surface of the workpiece (j is an integer satisfying 1 ≦ j ≦ N, j ≠ i) as the processing target surface, the gripping portion is caused to grip the workpiece, and the jth surface is the processing target. A control apparatus for generating second j teaching data which is the second teaching data as a plane.
請求項8において、
前記ワークの前記第iの面が作業台の鉛直上方向を向く位置姿勢で、前記ワークが配置された場合に、
前記処理部は、
前記ワークの前記第iの面を前記処理対象面として、前記把持部に前記ワークを把持させて、前記第2の教示データを生成することを特徴とする制御装置。
In claim 8,
When the workpiece is arranged in a position and orientation in which the i-th surface of the workpiece is directed vertically upward of a work table,
The processor is
The control device, wherein the i-th surface of the workpiece is the processing target surface, and the gripping unit grips the workpiece to generate the second i- teach data.
請求項1乃至9のいずれかにおいて、
前記画像認識部は、
前記ワークの位置姿勢を認識する物体認識処理を行い、
前記処理部は、
前記物体認識処理により取得された前記ワークの位置姿勢と、最終的な把持位置と、最終的な把持姿勢とを含む前記第2の教示データを生成することを特徴とする制御装置。
In any one of Claims 1 thru | or 9,
The image recognition unit
Perform object recognition processing to recognize the position and orientation of the workpiece,
The processor is
A control apparatus that generates the second teaching data including a position and orientation of the workpiece, a final gripping position, and a final gripping posture acquired by the object recognition processing.
請求項10において、
前記画像認識部は、
前記第1の教示データに基づいて、前記把持部に前記ワークを把持させた後に、前記物体認識処理を行うことを特徴とする制御装置。
In claim 10,
The image recognition unit
A control apparatus that performs the object recognition process after the gripping unit grips the workpiece based on the first teaching data.
請求項1乃至11のいずれかにおいて、
前記処理部は、
前記撮像画像に基づいて、仮把持位置及び仮把持姿勢を含む前記第1の教示データを生成し、
前記仮把持位置及び前記仮把持姿勢を目標として、前記把持部に前記ワークを把持させて、最終的な把持位置及び最終的な把持姿勢を含む前記第2の教示データを生成することを特徴とする制御装置。
In any one of Claims 1 thru | or 11,
The processor is
Based on the captured image, generate the first teaching data including a temporary gripping position and a temporary gripping posture,
The second teaching data including the final gripping position and the final gripping posture are generated by causing the gripping part to grip the workpiece with the temporary gripping position and the temporary gripping posture as targets. Control device.
ワークを把持する把持部と、
前記把持部を動作させる制御装置と、
を含み、
前記制御装置は、
前記ワークとマーカーとを撮像して第1の教示データを生成し、
前記把持部に前記ワークを把持させて第2の教示データを生成することを特徴とするロボット。
A gripping part for gripping the workpiece;
A control device for operating the gripping part;
Including
The controller is
Imaging the workpiece and the marker to generate first teaching data;
A robot characterized in that the gripping unit grips the workpiece to generate second teaching data.
ワークとマーカーとを撮像してロボットの第1の教示データを生成することと、
前記ロボットの把持部に前記ワークを把持させて前記ロボットの第2の教示データを生成することと、を含むことを特徴とする教示データ生成方法。
Imaging a workpiece and a marker to generate first teaching data of the robot;
And generating a second teaching data of the robot by causing the gripping portion of the robot to grip the workpiece.
ワークを把持する把持部を備えるロボットと、
前記ロボットを動作させる制御装置と、
マーカーと、を含み、
前記制御装置は、
前記ワークと前記マーカーとを撮像して前記ロボットの第1の教示データを生成し、
前記把持部に前記ワークを把持させて前記ロボットの第2の教示データを生成することを特徴とするロボットシステム。
A robot having a gripping part for gripping a workpiece;
A control device for operating the robot;
A marker, and
The controller is
Imaging the workpiece and the marker to generate first teaching data of the robot;
A robot system, wherein the gripping unit grips the workpiece to generate second teaching data of the robot.
JP2013254757A 2013-12-10 2013-12-10 Control apparatus, robot, teaching data generation method, and robot system Pending JP2015112654A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013254757A JP2015112654A (en) 2013-12-10 2013-12-10 Control apparatus, robot, teaching data generation method, and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013254757A JP2015112654A (en) 2013-12-10 2013-12-10 Control apparatus, robot, teaching data generation method, and robot system

Publications (1)

Publication Number Publication Date
JP2015112654A true JP2015112654A (en) 2015-06-22

Family

ID=53526950

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013254757A Pending JP2015112654A (en) 2013-12-10 2013-12-10 Control apparatus, robot, teaching data generation method, and robot system

Country Status (1)

Country Link
JP (1) JP2015112654A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108290286A (en) * 2015-12-03 2018-07-17 Abb瑞士股份有限公司 Method for instructing industrial robot to pick up part
CN109275046A (en) * 2018-08-21 2019-01-25 华中师范大学 A kind of teaching data mask method based on double video acquisitions
WO2019130429A1 (en) * 2017-12-26 2019-07-04 Kyoto Robotics株式会社 System for registering pickable object grasping information
JP2020028970A (en) * 2018-08-24 2020-02-27 ジック アーゲー Method and instrument for automatically detecting gripper position
JP2020151837A (en) * 2019-03-22 2020-09-24 株式会社デンソーウェーブ Control device for robot and hand
US11254008B2 (en) 2018-07-18 2022-02-22 Canon Kabushiki Kaisha Method and device of controlling robot system
US11376732B2 (en) 2018-03-27 2022-07-05 Fanuc Corporation Robot system for correcting teaching of robot using image processing
CN114869470A (en) * 2022-04-13 2022-08-09 北京理工大学 Image recognition-based flexible clamping and force measuring device and method for vascular interventional surgical robot
US11590665B2 (en) 2019-03-27 2023-02-28 Seiko Epson Corporation Robot
JP7237249B1 (en) * 2022-02-25 2023-03-10 三菱電機株式会社 ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD AND ROBOT CONTROL PROGRAM
JP7491374B2 (en) 2020-06-05 2024-05-28 株式会社島津製作所 Automatic sample injection device

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108290286A (en) * 2015-12-03 2018-07-17 Abb瑞士股份有限公司 Method for instructing industrial robot to pick up part
WO2019130429A1 (en) * 2017-12-26 2019-07-04 Kyoto Robotics株式会社 System for registering pickable object grasping information
JPWO2019130429A1 (en) * 2017-12-26 2021-04-01 Kyoto Robotics株式会社 Picking object gripping information registration system
DE102019001969B4 (en) 2018-03-27 2022-07-28 Fanuc Corporation Robot system for correcting the teaching of a robot by image processing
US11376732B2 (en) 2018-03-27 2022-07-05 Fanuc Corporation Robot system for correcting teaching of robot using image processing
US11254008B2 (en) 2018-07-18 2022-02-22 Canon Kabushiki Kaisha Method and device of controlling robot system
CN109275046B (en) * 2018-08-21 2021-06-18 华中师范大学 Teaching data labeling method based on double video acquisition
CN109275046A (en) * 2018-08-21 2019-01-25 华中师范大学 A kind of teaching data mask method based on double video acquisitions
JP2020028970A (en) * 2018-08-24 2020-02-27 ジック アーゲー Method and instrument for automatically detecting gripper position
JP2020151837A (en) * 2019-03-22 2020-09-24 株式会社デンソーウェーブ Control device for robot and hand
JP7238523B2 (en) 2019-03-22 2023-03-14 株式会社デンソーウェーブ Robot and hand controller
US11590665B2 (en) 2019-03-27 2023-02-28 Seiko Epson Corporation Robot
JP7491374B2 (en) 2020-06-05 2024-05-28 株式会社島津製作所 Automatic sample injection device
JP7237249B1 (en) * 2022-02-25 2023-03-10 三菱電機株式会社 ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD AND ROBOT CONTROL PROGRAM
CN114869470A (en) * 2022-04-13 2022-08-09 北京理工大学 Image recognition-based flexible clamping and force measuring device and method for vascular interventional surgical robot

Similar Documents

Publication Publication Date Title
JP2015112654A (en) Control apparatus, robot, teaching data generation method, and robot system
US11090814B2 (en) Robot control method
CN108139747B (en) Determining input commands for a robot input by a force manually applied to the robot
JP6361213B2 (en) Robot control apparatus, robot, robot system, teaching method, and program
JP2015071206A (en) Control device, robot, teaching data generation method, and program
US20130054030A1 (en) Object gripping apparatus, object gripping method, and object gripping program
JP2019018272A (en) Motion generation method, motion generation device, system, and computer program
Suzuki et al. Grasping of unknown objects on a planar surface using a single depth image
JP2018167334A (en) Teaching device and teaching method
JP6326765B2 (en) Teaching apparatus, robot, robot system, method, and program
Gorjup et al. An intuitive, affordances oriented telemanipulation framework for a dual robot arm hand system: On the execution of bimanual tasks
JP2015054378A (en) Information processing device, robot, scenario information creation method and program
US20180215044A1 (en) Image processing device, robot control device, and robot
JP2018144228A (en) Robot control apparatus, robot, robot system, teaching method, and program
JP2015186834A (en) Robot control apparatus, holding unit control device, robot, holding unit, robot control method and program
JP2015074061A (en) Robot control device, robot system, robot, robot control method and robot control program
JP6706777B2 (en) Controller, robot, and robot system
JP6456557B1 (en) Gripping position / posture teaching apparatus, gripping position / posture teaching method, and robot system
JP2006130580A (en) Method for gripping arbitrarily-shaped object by robot
JP2019077026A (en) Control device, robot system, and control device operating method and program
US11897142B2 (en) Method and device for creating a robot control program
JP2015112655A (en) Control device, robot, teaching data generation method, and robot system
JP6322948B2 (en) Robot control apparatus, robot system, robot, robot control method, and program
US20230321823A1 (en) Robot control device, and robot system
CN115972188A (en) Robot program generating method based on human demonstration

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160616

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160624