JP2015071206A - Control device, robot, teaching data generation method, and program - Google Patents

Control device, robot, teaching data generation method, and program Download PDF

Info

Publication number
JP2015071206A
JP2015071206A JP2013208470A JP2013208470A JP2015071206A JP 2015071206 A JP2015071206 A JP 2015071206A JP 2013208470 A JP2013208470 A JP 2013208470A JP 2013208470 A JP2013208470 A JP 2013208470A JP 2015071206 A JP2015071206 A JP 2015071206A
Authority
JP
Japan
Prior art keywords
image recognition
robot
hand
orientation
teacher
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013208470A
Other languages
Japanese (ja)
Inventor
篤 原田
Atsushi Harada
篤 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013208470A priority Critical patent/JP2015071206A/en
Publication of JP2015071206A publication Critical patent/JP2015071206A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a control device, a robot, a teaching data generation method, and a program capable of reducing a teaching cost for a robot operation on a holding operation and an operation on a workpiece by a held tool.SOLUTION: A control device 100 comprises: an image recognition unit 110 for performing image recognition processing; and a processing unit 130 for performing specific processing of position attitude data indicating the position attitude of a holding part 310 and generation processing of teaching data of the robot 300. Moreover, the image recognition unit 110 performs image recognition processing on a picked-up image of the holding state, in which the hand of a teacher holds a tool. On the basis of the result of the image recognition processing of the holding state, moreover, the processing unit 130 creates the teaching data containing the position attitude data of the holding part 310 in the holding state.

Description

本発明は、制御装置、ロボット、教示データ生成方法及びプログラム等に関係する。   The present invention relates to a control device, a robot, a teaching data generation method, a program, and the like.

ロボットに対して所望の動作を行わせるためには、例えばロボットの関節(ジョイント)をどのように変化させ、ロボットの手先(TCP:tool center point)をどの時刻にどの位置にもっていくか、といった動作指令を逐一ロボットに与える必要がある。このような動作指令は人間が記述しており、かつ、ロボットに動作指令を与えた後は、人間が確認しながらロボットを動作させる必要がある。人間が行うこの手続きを「教示(ティーチング:teaching)」と呼ぶ。   In order to make the robot perform a desired action, for example, how to change the joints of the robot and how to move the robot's hand (TCP: tool center point) to which position It is necessary to give motion commands to the robot one by one. Such an operation command is described by a human, and after giving the operation command to the robot, it is necessary for the human to operate the robot while confirming the operation command. This procedure that humans perform is called "teaching".

そして、教示の具体的な方法としては、手動その他で所定の動きをロボットにさせ、その時の動作を記憶させるティーチングプレイバック(Teaching playback)や、教示者がロボットのアーム等を手で動かすことでロボット動作を教示するダイレクトティーチング(Direct teaching)、或いはロボットの実機を使用せずに、コンピューター上でシミュレーションを用いて教示を行うオフラインティーチング(Offline teaching)等が知られている。また、これらのロボット動作の教示方法に関する発明としては、特許文献1や特許文献2に記載される従来技術などがある。   As a specific method of teaching, teaching playback (Teaching playback) in which a robot performs predetermined movements manually and others, and memorizing the movement at that time, or a teacher moves a robot arm or the like by hand. Direct teaching that teaches robot operation or offline teaching that teaches using a simulation on a computer without using a real robot is known. In addition, as inventions related to these robot operation teaching methods, there are conventional techniques described in Patent Document 1 and Patent Document 2.

特開2001−38660号公報JP 2001-38660 A 特開平6−250730号公報JP-A-6-250730

ロボット動作の教示作業には長い時間と多大な労力がかかり、教示者にとって大きな負担となっている。   The teaching operation of robot operation takes a long time and a great amount of labor, which is a heavy burden on the teacher.

本発明の幾つかの態様によれば、把持作業及び把持したツールによるワークへの作業についてのロボット動作の教示コストを低減することができる制御装置、ロボット、教示データ生成方法及びプログラム等を提供することができる。   According to some aspects of the present invention, it is possible to provide a control device, a robot, a teaching data generation method, a program, and the like that can reduce the teaching cost of the robot operation regarding the gripping work and the work on the work by the gripped tool be able to.

本発明の一態様は、画像認識処理を行う画像認識部と、ロボットの把持部の位置姿勢を表す位置姿勢データの特定処理を行い、前記ロボットの教示データの生成処理を行う処理部と、を含み、前記画像認識部は、教示者の手がツールを把持した把持状態の撮像画像に対して前記画像認識処理を行い、前記処理部は、前記把持状態の前記画像認識処理の結果に基づいて、前記把持状態での前記把持部の前記位置姿勢データを含む前記教示データを生成する制御装置に関係する。   An aspect of the present invention includes an image recognition unit that performs image recognition processing, and a processing unit that performs processing for specifying position and orientation data representing the position and orientation of the gripping unit of the robot, and processing for generating teaching data of the robot. The image recognition unit performs the image recognition process on a captured image in a gripped state in which a teacher's hand grips the tool, and the processing unit is based on a result of the image recognition process in the gripped state. , And a control device that generates the teaching data including the position and orientation data of the gripper in the gripping state.

本発明の一態様では、教示者の手がツールを把持した把持状態を複数の撮像部により撮像する。そして、取得した撮像画像に対して画像認識処理を行って、教示者の手に対応するロボットの把持部が把持状態である時の、把持部の位置姿勢を表す位置姿勢データを特定する。さらに、特定した位置姿勢データを含むロボットの教示データを生成する。   In one embodiment of the present invention, a gripping state in which a teacher's hand grips a tool is imaged by a plurality of imaging units. Then, image recognition processing is performed on the acquired captured image, and position and orientation data representing the position and orientation of the gripping unit when the gripping unit of the robot corresponding to the teacher's hand is in the gripping state are specified. Furthermore, robot teaching data including the specified position and orientation data is generated.

よって、把持作業及び把持したツールによるワークへの作業についてのロボット動作の教示コストを低減することが可能となる。   Therefore, it is possible to reduce the teaching cost of the robot operation for the gripping work and the work on the work by the gripped tool.

また、本発明の一態様では、前記画像認識部は、前記把持状態の第1の撮像画像と、前記教示者の前記手により把持された前記ツールでワークに作業を行っている作業状態の第2の撮像画像とを取得し、前記第1の撮像画像に対する第1の画像認識処理と、前記第2の撮像画像に対する第2の画像認識処理とを行い、前記処理部は、前記第1の画像認識処理の結果と前記第2の画像認識処理の結果とに基づいて、前記作業状態での前記把持部の前記位置姿勢データの前記特定処理を行ってもよい。   Moreover, in one aspect of the present invention, the image recognition unit includes a first captured image in the gripping state and a work state in which a work is performed on the workpiece with the tool gripped by the teacher's hand. Two captured images, and performs a first image recognition process on the first captured image and a second image recognition process on the second captured image, and the processing unit includes the first image recognition process. Based on the result of the image recognition process and the result of the second image recognition process, the specifying process of the position and orientation data of the gripper in the working state may be performed.

これにより、作業状態の撮像画像からだけでは、教示者の手とツールの相対的な位置姿勢関係を特定することが困難な場合でも、作業状態における教示者の手とツールとワークの相対的な位置姿勢関係を特定すること等が可能になる。   As a result, even if it is difficult to specify the relative position and orientation relationship between the teacher's hand and the tool only from the captured image of the work state, It becomes possible to specify the position and orientation relationship.

また、本発明の一態様では、前記処理部は、前記教示者の前記手と、前記ツールと、前記ロボットの作業対象であるワークとの相対的な位置姿勢関係を求め、求めた前記位置姿勢関係に基づいて、前記教示者の前記手により把持された前記ツールで前記ワークに作業を行っている作業状態での、前記把持部の前記位置姿勢データの前記特定処理を行ってもよい。   In one embodiment of the present invention, the processing unit obtains a relative position and orientation relationship between the hand of the teacher, the tool, and a work that is a work target of the robot, and the obtained position and orientation Based on the relationship, the specifying process of the position / orientation data of the grip portion may be performed in a working state in which the tool gripped by the hand of the teacher is working on the workpiece.

これにより、教示者の手とツールとワークの三者の相対的な位置姿勢関係を求めること等が可能になる。   This makes it possible to obtain the relative position and orientation relationship between the teacher's hand, the tool, and the workpiece.

また、本発明の一態様では、前記画像認識部は、前記画像認識処理において、前記ツール及び前記ワークの少なくとも一方について輪郭線検出処理を行って、前記輪郭線検出処理の結果に基づいて、前記ツール及び前記ワークの少なくとも一方と、前記教示者の前記手との相対的な位置姿勢関係を求めてもよい。   In one aspect of the present invention, the image recognition unit performs contour detection processing on at least one of the tool and the workpiece in the image recognition processing, and based on the result of the contour detection processing, A relative position / orientation relationship between at least one of the tool and the workpiece and the hand of the teacher may be obtained.

これにより、ツール及びワークの少なくとも一方の輪郭線に基づいて、ツール及びワークの少なくとも一方と、教示者の手との相対的な位置姿勢を特定すること等が可能になる。   Accordingly, it is possible to specify the relative position and orientation of at least one of the tool and the workpiece and the teacher's hand based on the contour line of at least one of the tool and the workpiece.

また、本発明の一態様では、前記画像認識部は、前記画像認識処理において、前記教示者の前記手と前記ツールの少なくとも一方に設けられたマーカーについてのマーカー検出処理を行い、前記マーカー検出処理の結果に基づいて、前記教示者の前記手と前記ツールとの相対的な位置姿勢関係を求めてもよい。   In one aspect of the present invention, the image recognition unit performs a marker detection process on a marker provided on at least one of the hand of the teacher and the tool in the image recognition process, and the marker detection process. Based on the result, the relative position and orientation relationship between the hand of the teacher and the tool may be obtained.

これにより、手とツールの相対的な位置姿勢関係をより確実に求めること等が可能になる。   This makes it possible to more reliably obtain the relative position and orientation relationship between the hand and the tool.

また、本発明の一態様では、前記処理部は、前記教示者の前記手のモデルと、前記ロボットの前記把持部との対応関係に基づいて、前記把持部の前記位置姿勢データの前記特定処理を行ってもよい。   In one aspect of the present invention, the processing unit is configured to specify the position / orientation data of the gripper based on a correspondence relationship between the hand model of the teacher and the gripper of the robot. May be performed.

これにより、教示者の手とツールとワークの相対的な位置姿勢関係を、ロボットの把持部とツールとワークの相対的な位置姿勢関係に変換すること等が可能になる。   This makes it possible to convert the relative position / posture relationship between the teacher's hand, the tool, and the workpiece into the relative position / posture relationship between the gripping portion of the robot, the tool, and the workpiece.

また、本発明の一態様では、前記画像認識部は、前記画像認識処理において、前記教示者の前記手について特徴点検出処理を行って、前記手のモデルを生成し、生成した前記手の前記モデルに基づいて、前記把持部の前記位置姿勢データの前記特定処理を行ってもよい。   In one aspect of the present invention, the image recognition unit performs a feature point detection process on the hand of the instructor in the image recognition process to generate a model of the hand, and the generated hand Based on the model, the specifying process of the position and orientation data of the grip portion may be performed.

これにより、教示者の手のモデルにより、教示者の手の位置姿勢を特定すること等が可能になる。   Thus, it is possible to specify the position and orientation of the teacher's hand by using the model of the teacher's hand.

また、本発明の一態様では、前記画像認識部は、前記把持状態の第1の撮像画像に対する第1の画像認識処理を行い、前記処理部は、前記第1の画像認識処理の結果に基づいて、前記教示者の前記手と前記ツールとの相対的な第1の位置姿勢関係を求め、前記画像認識部は、前記教示者の前記手により把持された前記ツールでワークに作業を行っている作業状態の第2の撮像画像に対する第2の画像認識処理を行い、前記処理部は、前記第1の位置姿勢関係と前記第2の画像認識処理の結果とに基づいて、前記教示者の前記手と前記ツールと前記ワークとの相対的な第2の位置姿勢関係を求め、前記教示者の前記手のモデルと前記ロボットの前記把持部との対応関係と、求めた前記第2の位置姿勢関係とに基づいて、前記作業状態における前記ロボットの前記把持部と、前記ツールと、前記ワークとの相対的な第3の位置姿勢関係を求め、前記第3の位置姿勢関係に基づいて、前記作業状態における前記把持部の前記位置姿勢データを特定してもよい。   In the aspect of the invention, the image recognition unit performs a first image recognition process on the first captured image in the gripping state, and the processing unit is based on a result of the first image recognition process. The relative position and orientation relationship between the teacher's hand and the tool is obtained, and the image recognition unit performs work on the workpiece with the tool held by the teacher's hand. A second image recognition process is performed on the second captured image in a working state, and the processing unit is configured to perform a process based on the first position and orientation relationship and the result of the second image recognition process. The relative second position / orientation relationship between the hand, the tool, and the workpiece is obtained, the correspondence between the model of the hand of the teacher and the grip portion of the robot, and the obtained second position. Based on the posture relationship, A relative third position / orientation relationship among the gripper, the tool, and the workpiece of the robot is obtained, and the position / orientation data of the gripper in the working state is obtained based on the third position / orientation relationship. May be specified.

これにより、作業状態におけるロボットの把持部とツールとワークの相対的な位置姿勢関係を、正確に特定すること等が可能になる。   This makes it possible to accurately specify the relative position and orientation relationship between the gripping part of the robot, the tool, and the workpiece in the working state.

また、本発明の一態様では、前記処理部は、前記画像認識処理の結果に基づいて、前記把持部の前記位置姿勢データの前記特定処理を行った後に、前記教示者によるジョグツールの操作情報に基づいて、前記把持部の前記位置姿勢データの補正処理を行ってもよい。   In one aspect of the present invention, the processing unit performs operation information of a jog tool by the teacher after performing the specifying process of the position and orientation data of the gripping unit based on a result of the image recognition process. Based on the above, the correction processing of the position and orientation data of the grip portion may be performed.

これにより、教示データに含まれるロボットの把持部の位置姿勢が、教示者が期待する目標位置姿勢からずれている場合に、教示データを修正すること等が可能になる。   As a result, the teaching data can be corrected when the position and orientation of the gripping portion of the robot included in the teaching data is deviated from the target position and orientation expected by the teacher.

また、本発明の他の態様では、画像認識処理を行う画像認識部と、ロボットの把持部の位置姿勢を表す位置姿勢データの特定処理を行い、前記ロボットの教示データの生成処理を行う処理部と、を含み、前記画像認識部は、教示者の手により把持されたツールでワークに作業を行っている作業状態の撮像画像に対して前記画像認識処理を行い、前記処理部は、前記作業状態での前記画像認識処理の結果に基づいて、前記作業状態の前記把持部の前記位置姿勢データを含む前記教示データを生成する制御装置に関係する。   In another aspect of the present invention, an image recognition unit that performs image recognition processing and a processing unit that performs processing for specifying position and orientation data representing the position and orientation of the gripping unit of the robot, and processing for generating teaching data of the robot The image recognition unit performs the image recognition process on a captured image in a working state in which a work is performed on a work with a tool held by a teacher's hand, and the processing unit performs the work The present invention relates to a control device that generates the teaching data including the position and orientation data of the gripping unit in the working state based on the result of the image recognition processing in the state.

これにより、作業状態において、教示者が意図する位置姿勢をロボットの把持部にとらせること等が可能になる。   As a result, in the working state, it is possible to cause the gripping portion of the robot to take the position and orientation intended by the teacher.

また、本発明の他の態様では、画像認識処理を行う画像認識部と、ロボットの把持部の位置姿勢を表す位置姿勢データの特定処理を行い、前記ロボットの教示データの生成処理を行う処理部と、を含み、前記画像認識部は、教示者の手がツールを把持した把持状態の撮像画像に対して前記画像認識処理を行い、前記処理部は、前記把持状態の前記画像認識処理の結果に基づいて、前記把持状態での前記把持部の前記位置姿勢データを含む前記教示データを生成するロボットに関係する。   In another aspect of the present invention, an image recognition unit that performs image recognition processing and a processing unit that performs processing for specifying position and orientation data representing the position and orientation of the gripping unit of the robot, and processing for generating teaching data of the robot The image recognition unit performs the image recognition process on a captured image in a gripped state in which a teacher's hand grips the tool, and the processing unit is a result of the image recognition process in the gripped state. And the robot that generates the teaching data including the position and orientation data of the gripping part in the gripping state.

また、本発明の他の態様では、教示者の手がツールを把持した把持状態を撮像部により撮像し、取得した撮像画像に基づいて、前記教示者の前記手に対応するロボットの把持部が前記把持状態である時の、前記把持部の位置姿勢を表す位置姿勢データを特定し、特定した前記位置姿勢データを含む前記ロボットの教示データを生成する教示データ生成方法に関係する。   In another aspect of the present invention, a gripping state in which the teacher's hand grips the tool is captured by the imaging unit, and the robot gripping unit corresponding to the teacher's hand is based on the acquired captured image. The present invention relates to a teaching data generation method for specifying position and orientation data representing the position and orientation of the gripping part when in the gripping state, and generating teaching data for the robot including the specified position and orientation data.

また、本発明の他の態様では、上記各部としてコンピューターを機能させるプログラムに関係する。   Another aspect of the present invention relates to a program that causes a computer to function as each of the above-described units.

本実施形態のシステム構成例。The system configuration example of this embodiment. 図2(A)〜図2(C)は、教示者によるロボット動作の模擬の説明図。FIG. 2A to FIG. 2C are explanatory diagrams for simulating robot operation by a teacher. 把持状態を模擬して教示データを生成する処理の流れを説明するフローチャート。The flowchart explaining the flow of the process which simulates a holding | grip state and produces | generates teaching data. 作業状態を模擬して教示データを生成する処理の流れを説明するフローチャート。The flowchart explaining the flow of the process which simulates a working state and produces | generates teaching data. 把持状態と作業状態を模擬して教示データを生成する処理の流れを説明するフローチャート。The flowchart explaining the flow of the process which produces | generates teaching data simulating a holding | grip state and a working state. 手のモデルの生成処理と、ツール及びワークの輪郭線の検出処理の説明図。Explanatory drawing of the generation process of a hand model, and the detection process of the outline of a tool and a workpiece | work. 図7(A)〜図7(C)は、マーカーを用いた手のモデルの生成処理の説明図。FIG. 7A to FIG. 7C are explanatory diagrams of hand model generation processing using markers. 手とツールとワークの相対位置姿勢関係の説明図。Explanatory drawing of the relative position orientation relationship of a hand, a tool, and a workpiece | work. 図9(A)〜図9(C)は、手と把持部の対応関係の説明図。FIG. 9A to FIG. 9C are explanatory diagrams of the correspondence relationship between the hand and the grip portion. ジョグツールを用いた補正処理の説明図。Explanatory drawing of the correction | amendment process using a jog tool. 図11(A)、図11(B)は、本実施形態のロボットの一例の説明図。FIG. 11A and FIG. 11B are explanatory diagrams of an example of the robot of this embodiment.

以下、本実施形態について説明する。なお、以下で説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また、本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.本実施形態の手法
近年、ロボットは多軸化が進み、手先が器用になってきている。そして、ロボットの把持部によりワークやツールを把持する作業などが実際に行われている。
1. Technique of this embodiment In recent years, robots have become multi-axis and their hands are becoming dexterous. And the operation | work etc. which hold | grip a workpiece | work and a tool by the holding part of a robot are actually performed.

このような把持作業をロボットに行わせるためには、ロボットに把持動作を教示する必要がある。例えば、前述した特許文献1において開示されている方法では、ティーチングペンダントを用いたジョグベースの方法により教示作業を行う。この教示方法は、ティーチングプレイバックの一つである。   In order to cause the robot to perform such a gripping operation, it is necessary to teach the robot to perform a gripping operation. For example, in the method disclosed in Patent Document 1 described above, teaching work is performed by a jog base method using a teaching pendant. This teaching method is one of teaching playback.

具体的に、特許文献1において開示されている方法では、把持部で工具などを把持した状態の位置姿勢の教示を行うに当たり、事前に専用のダミー冶具を製作し、ダミー冶具と把持部(エンドエフェクター)を交換しておく必要がある。そして、教示のみを行う専用の状態で、教示者(人間)がティーチングペンダント又はリモートコントローラーを駆使して、ジョグを相当回数繰り返し、冶具先端の位置姿勢を教示する。しかし、このような教示作業には長い時間と多大な労力がかかり、教示者にとって大きな負担となっている。   Specifically, in the method disclosed in Patent Document 1, in order to teach the position and orientation of a state where a tool or the like is gripped by the gripping part, a dedicated dummy jig is manufactured in advance, and the dummy jig and the gripping part (end It is necessary to replace the effector). Then, in a dedicated state where only teaching is performed, a teacher (human) makes full use of the teaching pendant or remote controller and repeats jogging a considerable number of times to teach the position and orientation of the jig tip. However, such teaching work takes a long time and a lot of labor, which is a heavy burden on the teacher.

また他にも、ティーチングプレイバックの一つとして、ダイレクトティーチングという方法がある。ダイレクトティーチングは、ロボットの把持部やアームなどを教示者が直接手で持ち、目標位置まで動かして、一連の動作をロボットに記憶させるという方法である。   As another teaching playback, there is a method called direct teaching. Direct teaching is a method in which a teacher directly holds a gripping part or an arm of a robot with a hand and moves it to a target position to store a series of operations in the robot.

ダイレクトティーチングは、ティーチングペンダントを用いて教示を行う場合よりも、ロボットの目標位置(軌道)を直感的に教示できるため、非常に有用であり、教示工数も削減することができる。しかし、ダイレクトティーチングは、ロボットの実機を用いなければ教示を行うことができないという問題点がある。   Direct teaching is very useful and can reduce the number of teaching steps because it can intuitively teach the target position (trajectory) of the robot rather than teaching using the teaching pendant. However, direct teaching has a problem that teaching cannot be performed unless the actual robot is used.

一方で、ロボットの実機を実際に動作させる前に、PC(Personal Computer)上でロボット動作のシミュレーションを行い、ロボットが安全かつ期待通りに動作するかを確認することが増えてきた。この際には、ロボットの実機を用いずに、ロボットの動作を決定する。さらに、PC上で決定したロボット動作のシナリオデータを、実際のロボットの教示データとして用いることも行われる。このように、ロボットの実機を用いない教示方法を、オフラインティーチングと呼ぶ。オフラインティーチングは、ロボットの実機を用いないため、ロボットの実機がまだ完成していない段階に、予めロボット動作の検討をしておきたい場合や、ロボットが置かれた作業現場と離れたオフィス等でロボット動作を決定したい場合などにおいて、特に有用である。   On the other hand, before the actual robot is actually operated, a simulation of the robot operation on a PC (Personal Computer) is performed to check whether the robot operates safely and as expected. At this time, the operation of the robot is determined without using the actual robot. Further, the robot operation scenario data determined on the PC is used as teaching data for the actual robot. Such a teaching method that does not use the actual robot is called off-line teaching. Since offline teaching does not use the actual robot, it is necessary to examine the robot operation in advance when the actual robot has not been completed, or in an office away from the work site where the robot is placed. This is particularly useful when it is desired to determine the robot motion.

ただし、オフラインティーチングは、教示者がロボットの目標座標の数値を入力する等して行われることが多いが、これにはティーチングペンダントを用いて教示を行う場合と同等のコストがかかってしまう。   However, offline teaching is often performed by a teacher who inputs a numerical value of a target coordinate of a robot, but this costs as much as teaching using a teaching pendant.

そのため、実用上は、オフラインティーチングを行う際にも、ダイレクトティーチングのような直感的な教示ができることが望まれている。   Therefore, in practice, it is desired that intuitive teaching such as direct teaching can be performed even when performing offline teaching.

そこで、以下で説明する本実施形態の制御装置等は、ロボットを用いないオフラインティーチングでありながら、ダイレクトティーチングに類似した方法で教示を行う。具体的には、教示者の手でツールを把持した状態を撮像し、撮像した撮像画像に基づいてロボットの把持部の位置姿勢を教示する。そのため、本実施形態では、教示専用の冶具等を用いる必要もないし、ロボットの実機を用いる必要もない。これにより、ロボットの把持作業における教示コスト(教示工数、準備コスト)を低減する。   Therefore, the control device or the like of the present embodiment described below performs teaching by a method similar to direct teaching while being offline teaching without using a robot. Specifically, the state in which the tool is gripped by the teacher's hand is imaged, and the position and orientation of the grip portion of the robot is taught based on the captured image. Therefore, in this embodiment, it is not necessary to use a teaching tool or the like, and it is not necessary to use an actual robot. This reduces teaching costs (teaching man-hours and preparation costs) in the robot gripping operation.

ここで、教示コストとは、実際の教示作業にかかる教示工数や、教示作業を行うに当たり必要となる準備コスト等を指す。また、準備コストとは、例えば教示に用いる冶具の設計や製造にかかるコスト(工数、費用)などを指す。   Here, the teaching cost refers to the teaching man-hour required for the actual teaching work, the preparation cost necessary for performing the teaching work, and the like. In addition, the preparation cost refers to, for example, the cost (man-hour, cost) required for designing and manufacturing a jig used for teaching.

次に、本実施形態の制御装置100の構成例を図1に示す。本実施形態の制御装置100は、画像認識処理を行う画像認識部110と、ロボット300の把持部310の位置姿勢を表す位置姿勢データの特定処理を行い、ロボット300の教示データの生成処理を行う処理部130と、を含む。   Next, a configuration example of the control device 100 of this embodiment is shown in FIG. The control apparatus 100 according to the present embodiment performs processing for specifying position and orientation data representing the position and orientation of the image recognition unit 110 that performs image recognition processing and the gripping unit 310 of the robot 300, and performs processing for generating teaching data for the robot 300. And a processing unit 130.

そして、画像認識部110は、教示者の手がツールを把持した把持状態の撮像画像に対して画像認識処理を行う。ここで、画像認識処理とは、撮像画像に対して、特徴点検出処理や輪郭線検出処理等を行って、撮像画像に映る物体を認識する処理である。なお、画像認識処理の具体例については後述する。   Then, the image recognition unit 110 performs image recognition processing on a captured image in a gripped state in which a teacher's hand grips the tool. Here, the image recognition processing is processing for recognizing an object appearing in a captured image by performing feature point detection processing, contour detection processing, or the like on the captured image. A specific example of the image recognition process will be described later.

さらに、処理部130は、把持状態の画像認識処理の結果に基づいて、把持状態での把持部310の位置姿勢データを含む教示データを生成し、生成した教示データをロボット300に出力する。   Further, the processing unit 130 generates teaching data including the position and orientation data of the gripping unit 310 in the gripping state based on the result of the image recognition processing in the gripping state, and outputs the generated teaching data to the robot 300.

なお、画像認識部110及び処理部130の機能は、各種プロセッサー(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムなどにより実現できる。また、制御装置100は、図1の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。   The functions of the image recognition unit 110 and the processing unit 130 can be realized by hardware such as various processors (such as a CPU) and ASIC (such as a gate array), a program, and the like. Moreover, the control apparatus 100 is not limited to the structure of FIG. 1, and various deformation | transformation implementations, such as abbreviate | omitting some of these components and adding another component, are possible.

ここで、図2(A)、図2(B)及び図3のフローチャートを用いて、処理の流れを説明する。まず、図2(A)に示すように、教示者TPの手HDがツールTLを把持した把持状態を複数の撮像部(CM1〜CM3)により撮像する(S101)。そして、取得した撮像画像に対して画像認識処理を行って(S102)、図2(B)に示すように、教示者TPの手HDに対応するロボットRBの把持部HPが把持状態である時の、把持部HPの位置姿勢を表す位置姿勢データを特定する(S103)。さらに、特定した位置姿勢データを含むロボットRBの教示データを生成する(S104)。   Here, the flow of processing will be described with reference to the flowcharts of FIGS. 2 (A), 2 (B) and 3. First, as shown in FIG. 2A, the gripping state in which the hand HD of the teacher TP grips the tool TL is imaged by a plurality of imaging units (CM1 to CM3) (S101). Then, image recognition processing is performed on the acquired captured image (S102), and as shown in FIG. 2B, when the gripping part HP of the robot RB corresponding to the hand HD of the teacher TP is in the gripping state. The position and orientation data representing the position and orientation of the gripper HP are specified (S103). Further, teaching data of the robot RB including the specified position / orientation data is generated (S104).

すなわち、把持状態において、ロボットRBの把持部HPとツールTLの相対的な位置姿勢関係(以下、相対位置姿勢関係と呼ぶ)が、撮像画像に映る教示者TPの手HDとツールTLの相対位置姿勢関係と、同じになるような教示データを生成するのである。   That is, in the gripping state, the relative position and orientation relationship between the gripping portion HP of the robot RB and the tool TL (hereinafter referred to as a relative position and orientation relationship) is the relative position between the hand HD of the teacher TP reflected in the captured image and the tool TL. Teaching data that is the same as the posture relationship is generated.

ここで、ツールとは、ワークや作業対象に対して加工等の作業を行うための道具であって、例えばドリルやドライバーなどの工具を指す。なお、ツールは、把持部310により把持されるものであってもよいし、ロボット300のアームのエンドポイントに直接設けられるものであってもよい。   Here, the tool is a tool for performing work such as machining on a workpiece or work target, and refers to a tool such as a drill or a screwdriver, for example. Note that the tool may be gripped by the gripper 310 or may be provided directly at the end point of the arm of the robot 300.

また、把持状態とは、ロボット300の把持部310又は教示者の手が、ツール(又はワーク)を把持している状態のことである。例えば、図2(A)は、教示者TPが把持状態である時の様子を示している。   The gripping state refers to a state where the gripping unit 310 of the robot 300 or the teacher's hand is gripping the tool (or workpiece). For example, FIG. 2A shows a state when the teacher TP is in a gripping state.

そして、撮像画像とは、撮像部200によって撮像することにより得られる画像のことをいう。また、撮像画像は、外部の記憶部に記憶された画像や、ネットワークを介して取得される画像であってもよい。なお、本実施形態では、3次元空間での教示者の手やワーク等の位置姿勢を特定するため、複数の撮像部200を用いることが望ましい。撮像部200は、例えば3台であることが望ましく、少なくとも2台は必要である。   The captured image refers to an image obtained by capturing with the image capturing unit 200. The captured image may be an image stored in an external storage unit or an image acquired via a network. In the present embodiment, it is desirable to use a plurality of imaging units 200 in order to specify the position and orientation of the teacher's hand or work in the three-dimensional space. For example, three imaging units 200 are desirable, and at least two imaging units are necessary.

また、位置姿勢データとは、把持部310の位置及び姿勢を表すデータのことをいう。位置姿勢データは、例えば後述する図8のVT1やVT2などの位置姿勢ベクトルを表すデータである。   The position / orientation data refers to data representing the position and orientation of the gripper 310. The position and orientation data is data representing position and orientation vectors such as VT1 and VT2 in FIG.

そして、教示データとは、ロボット300が行う動作をロボット300に教示するために用いるデータであり、例えばシナリオデータのことである。シナリオデータとは、ロボット300が行う処理を規定するデータであり、さらに具体的に言うと、ロボット300が行う処理が時系列順に記述されたデータのことをいう。   The teaching data is data used to teach the robot 300 the operation performed by the robot 300, for example, scenario data. The scenario data is data that defines the processing performed by the robot 300. More specifically, the scenario data refers to data in which the processing performed by the robot 300 is described in chronological order.

これによれば、ロボット300に教示したい位置姿勢をロボット300の実機に取らせる必要がなく、教示したい位置姿勢を教示者自身が取ることで、教示を行うことが可能になる。さらには、細かい数値入力等を行うジョグを教示者が相当回数繰り返す必要もない。   According to this, it is not necessary to cause the actual machine of the robot 300 to take the position and orientation that the robot 300 wants to teach, and it is possible for the instructor himself to take the position and orientation that the robot 300 wants to teach. Furthermore, it is not necessary for the teacher to repeat jogging for inputting detailed numerical values and the like a considerable number of times.

このように、この方法は、ダイレクトティーチング又は他のティーチングプレイバックでロボット300の実機に行わせていた動作を、教示者(人間)が代わりに行うものであり、ロボット300の実機を用いて行うダイレクトティーチングよりもさらに手間を削減することができる。よって、把持作業及び把持したツールによるワークへの作業についてのロボット動作の教示コストを低減することが可能になる。   As described above, this method is performed by the teacher (human) instead of the operation performed by the actual machine of the robot 300 by direct teaching or other teaching playback, and is performed using the actual machine of the robot 300. The labor can be further reduced than direct teaching. Therefore, it is possible to reduce the teaching cost of the robot operation for the gripping work and the work on the work by the gripped tool.

また、本実施形態では特に、実際にロボット300がツールを用いてワークに対し作業を行う状態(作業状態)において、ロボット300の把持部310に、教示者が意図する位置姿勢を取らせたい。   In the present embodiment, in particular, in a state where the robot 300 actually performs a work on a workpiece using a tool (working state), it is desired that the gripper 310 of the robot 300 takes the position and orientation intended by the teacher.

そこで、本実施形態では、作業状態のロボット300の把持部310を教示者の手で模擬することにより、教示を行っても良い。つまり、教示者自身の手を、作業状態のロボット300の把持部310にとらせたい位置姿勢と同じ位置姿勢にして、この時の教示者の手を撮像し、取得した撮像画像に基づいて教示を行う。   Therefore, in the present embodiment, teaching may be performed by simulating the gripping portion 310 of the robot 300 in a working state with a teacher's hand. That is, the teacher's own hand is placed in the same position and orientation as the position and orientation desired to be held by the gripping unit 310 of the robot 300 in the working state, and the teacher's hand at this time is imaged and teaching is performed based on the acquired captured image. I do.

具体的には、画像認識部110は、教示者の手により把持されたツールでワークに作業を行っている作業状態の撮像画像に対して画像認識処理を行う。そして、処理部130は、作業状態での画像認識処理の結果に基づいて、作業状態の把持部310の位置姿勢データを含む教示データを生成する。   Specifically, the image recognition unit 110 performs image recognition processing on a captured image in a working state in which work is performed on a work with a tool held by a teacher's hand. Then, the processing unit 130 generates teaching data including the position and orientation data of the gripping unit 310 in the working state based on the result of the image recognition processing in the working state.

ここで、図2(B)、図2(C)及び図4のフローチャートを用いて処理の流れを説明する。例えば、図2(B)に示す状態が、ロボットRBの作業状態であるとする。ここで、作業状態とは、ロボットRBの把持部HP又は教示者TPの手HDが、ツールTLを把持して、ツールTLによりワークWKに作業をする状態のことである。すなわち、作業状態は、把持状態の特別な状態であるとも言える。具体的に図2(B)では、ロボットRBがドライバー(ツールTL)の先端をネジ(ワークWK)のネジ穴に挿し込む作業を示している。   Here, the flow of processing will be described with reference to the flowcharts of FIGS. 2B, 2C, and 4. FIG. For example, it is assumed that the state shown in FIG. 2B is the working state of the robot RB. Here, the working state is a state in which the gripping part HP of the robot RB or the hand HD of the teacher TP grips the tool TL and works on the workpiece WK with the tool TL. That is, it can be said that the working state is a special state of the gripping state. Specifically, FIG. 2B shows an operation in which the robot RB inserts the tip of the driver (tool TL) into the screw hole of the screw (work WK).

そして、図2(C)に示すように、図2(B)に示すロボットRBの作業状態を、教示者TPが模擬する。この様子を複数の撮像部CM1〜CM3により撮像し(S201)、取得した撮像画像に対して画像認識処理を行って(S202)、作業状態における教示者TPの手HDとツールTLとワークWKの相対位置姿勢を特定する(S203)。そして、作業状態において、ロボットRBの把持部HPとツールTLとワークWKの相対位置姿勢関係が、撮像画像に映る教示者TPの手HDとツールTLとワークWKの相対位置姿勢関係と同じになるような教示データを生成する(S204)。   Then, as shown in FIG. 2C, the teacher TP simulates the working state of the robot RB shown in FIG. This state is imaged by a plurality of imaging units CM1 to CM3 (S201), and an image recognition process is performed on the acquired captured image (S202), and the hand HD of the instructor TP, the tool TL, and the work WK in the working state. The relative position and orientation are specified (S203). Then, in the working state, the relative position and orientation relationship between the gripping portion HP of the robot RB, the tool TL, and the work WK is the same as the relative position and orientation relationship between the hand HD of the teacher TP, the tool TL, and the work WK shown in the captured image. Such teaching data is generated (S204).

このようにして生成した教示データを用いてロボット300を動作させれば、作業状態において、教示者が意図する位置姿勢をロボット300の把持部310にとらせること等が可能になる。   If the robot 300 is operated using the teaching data generated in this way, it is possible to cause the gripper 310 of the robot 300 to take the position and orientation intended by the teacher in the working state.

ここで、前述したように、作業状態での把持部310の位置姿勢を特定するためには、教示者の手とツールとワークの三者の相対位置姿勢関係を特定する必要がある。しかし、教示者の手により作業状態を模擬して得られた撮像画像には、ワークの周辺に配置された障害物が映り込む場合などがあるため、教示者の手とツールの相対位置姿勢関係を特定することが困難な場合がある。   Here, as described above, in order to specify the position and orientation of the gripping unit 310 in the working state, it is necessary to specify the relative position and orientation relationship between the teacher, the hand, the tool, and the workpiece. However, the captured image obtained by simulating the work state with the teacher's hand may include obstacles placed around the workpiece, so the relative position and orientation relationship between the teacher's hand and the tool It may be difficult to identify.

そこで、本実施形態では、教示者の手とツールの相対位置姿勢関係を特定した後に、これらとワークの相対位置姿勢関係を特定する。すなわち、教示者の手とツールとワークの三者の相対位置姿勢関係を特定する処理を二つに分ける。   Therefore, in this embodiment, after specifying the relative position / posture relationship between the teacher's hand and the tool, the relative position / posture relationship between these and the workpiece is specified. That is, the process of specifying the relative position and orientation relationship between the teacher, the hand, the tool, and the work is divided into two.

具体的には、画像認識部110は、把持状態の第1の撮像画像と、教示者の手により把持されたツールでワークに作業を行っている作業状態の第2の撮像画像とを取得し、第1の撮像画像に対する第1の画像認識処理と、第2の撮像画像に対する第2の画像認識処理とを行う。そして、処理部130は、第1の画像認識処理の結果と第2の画像認識処理の結果とに基づいて、作業状態での把持部310の位置姿勢データの特定処理を行う。   Specifically, the image recognition unit 110 acquires a first captured image in a gripping state and a second captured image in a working state in which work is performed on a workpiece with a tool gripped by a teacher's hand. The first image recognition process for the first captured image and the second image recognition process for the second captured image are performed. Then, the processing unit 130 performs position / posture data specifying processing of the gripping unit 310 in the working state based on the result of the first image recognition process and the result of the second image recognition process.

例えば、図2(A)に示すように、教示者TPが把持状態を模擬し、この時の様子を撮像して、第1の撮像画像を取得する。そして、取得した第1の撮像画像に基づいて、教示者TPの手HDとツールTLの相対位置姿勢関係を特定する。なお、第1の画像認識処理とは、この時に、第1の撮像画像に映る教示者の手とツールを認識する処理のことである。   For example, as shown in FIG. 2A, the teacher TP simulates the gripping state, images the situation at this time, and acquires the first captured image. Then, based on the acquired first captured image, the relative position and orientation relationship between the hand HD of the teacher TP and the tool TL is specified. Note that the first image recognition process is a process for recognizing the teacher's hand and tool shown in the first captured image at this time.

次に、図2(C)に示すように、教示者TPが作業状態を模擬し、この時の様子を撮像して、第2の撮像画像を取得する。そして、取得した第2の撮像画像に基づいて、教示者TPの手HDとツールTLとワークWKの相対位置姿勢関係を特定する。なお、教示者TPの手HDとツールTLの相対位置姿勢関係は、第1の撮像画像から既に特定されているため、ここでは、ワークWKとの相対位置姿勢関係だけを特定すればよい。また、第2の画像認識処理とは、この時に、少なくとも第2の撮像画像に映るワークを認識する処理のことである。   Next, as shown in FIG. 2C, the teacher TP simulates the working state, images the situation at this time, and obtains a second captured image. Then, based on the acquired second captured image, the relative position and orientation relationship between the hand HD of the teacher TP, the tool TL, and the work WK is specified. Since the relative position and orientation relationship between the hand HD of the teacher TP and the tool TL has already been specified from the first captured image, only the relative position and orientation relationship with the workpiece WK need be specified here. The second image recognition process is a process for recognizing at least the work shown in the second captured image at this time.

そして、以上の処理結果に基づいて、図2(B)に示すような、作業状態におけるロボットRBの把持部HPの位置姿勢を特定する。   Then, based on the above processing result, the position and orientation of the gripping part HP of the robot RB in the working state as shown in FIG.

これにより、作業状態の撮像画像からだけでは、教示者の手とツールの相対位置姿勢関係を特定することが困難な場合でも、作業状態における教示者の手とツールとワークの相対位置姿勢関係を特定すること等が可能になる。   As a result, even if it is difficult to specify the relative position / posture relationship between the teacher's hand and the tool only from the captured image of the work state, the relative position / posture relationship between the teacher's hand, the tool, and the workpiece in the work state can be determined. It becomes possible to specify.

ここで、図5のフローチャートを用いて、前述した第1の画像認識処理と第2の画像認識処理とを行う場合の処理の流れについて説明する。   Here, the flow of processing when performing the above-described first image recognition processing and second image recognition processing will be described using the flowchart of FIG.

まず、図2(A)のように、教示者がツールを把持した把持状態を、撮像部200が撮像し、画像認識部110が、把持状態の第1の撮像画像を取得し(S301)、第1の撮像画像に対する第1の画像認識処理を行う(S302)。   First, as shown in FIG. 2A, the imaging unit 200 captures the gripping state in which the teacher grips the tool, and the image recognition unit 110 acquires the first captured image in the gripping state (S301). A first image recognition process is performed on the first captured image (S302).

次に、処理部130が、第1の画像認識処理の結果に基づいて、教示者の手とツールとの相対的な第1の位置姿勢関係を求める(S303)。   Next, the processing unit 130 obtains a relative first position / orientation relationship between the teacher's hand and the tool based on the result of the first image recognition process (S303).

そして、撮像部200が、図2(C)のように、教示者の手により把持されたツールでワークに作業を行っている作業状態を撮像する。次に、画像認識部110が、作業状態の第2の撮像画像を取得し(S304)、第2の撮像画像に対する第2の画像認識処理を行う(S305)。   Then, as shown in FIG. 2C, the imaging unit 200 captures an image of a work state in which work is performed on a work with a tool held by a teacher's hand. Next, the image recognition unit 110 acquires a second captured image in the working state (S304), and performs a second image recognition process on the second captured image (S305).

さらに、処理部130は、第1の位置姿勢関係と第2の画像認識処理の結果とに基づいて、教示者の手とツールとワークとの相対的な第2の位置姿勢関係を求める(S306)。   Further, the processing unit 130 obtains a relative second position / orientation relationship between the teacher's hand, the tool, and the workpiece based on the first position / orientation relationship and the result of the second image recognition process (S306). ).

この後に、処理部130は、教示者の手のモデルとロボット300の把持部310との対応関係を取得する(S307)。そして、処理部130は、取得した対応関係と、求めた第2の位置姿勢関係とに基づいて、作業状態におけるロボット300の把持部310と、ツールと、ワークとの相対的な第3の位置姿勢関係を求める(S308)。   Thereafter, the processing unit 130 acquires the correspondence between the model of the teacher's hand and the gripping unit 310 of the robot 300 (S307). Then, the processing unit 130, based on the acquired correspondence and the obtained second position and orientation relationship, the relative third position of the gripping unit 310 of the robot 300, the tool, and the workpiece in the working state. The posture relationship is obtained (S308).

最後に、処理部130は、第3の位置姿勢関係に基づいて、作業状態における把持部310の位置姿勢データを特定し(S309)、作業状態の把持部310の位置姿勢データを含む教示データを生成する(S310)。   Finally, the processing unit 130 identifies position / posture data of the gripping unit 310 in the working state based on the third position / posture relationship (S309), and teach data including the position / posture data of the gripping unit 310 in the working state. Generate (S310).

これにより、作業状態におけるロボット300の把持部310とツールとワークの相対的な位置姿勢関係を、正確に特定すること等が可能になる。なお、各処理の詳細については後述する。   This makes it possible to accurately specify the relative position and orientation relationship between the gripping portion 310 of the robot 300 in the working state, the tool, and the workpiece. Details of each process will be described later.

また、比較例として、前述した特許文献2において開示されるロボット動作の教示装置に関する発明がある。特許文献2の発明では、同文献の図1に示すように、教示者Pがワーク(W1、W2)に対して作業を行い、その様子を撮像して、ワーク(W1、W2)の位置情報を時系列順に取得し、取得した位置情報に基づいて、ロボット1の動作プログラムを生成する。   As a comparative example, there is an invention related to a robot motion teaching device disclosed in Patent Document 2 described above. In the invention of Patent Document 2, as shown in FIG. 1 of the same document, the teacher P works on the work (W1, W2), images the situation, and positional information of the work (W1, W2). Are acquired in time series, and an operation program of the robot 1 is generated based on the acquired position information.

このように、特許文献2の発明では、ワークの位置情報のみを撮像画像から特定し、取得したワークの位置情報に基づいて、ロボット1の動作プログラム(教示データ)を生成する。   As described above, in the invention of Patent Document 2, only the position information of the workpiece is specified from the captured image, and the operation program (teaching data) of the robot 1 is generated based on the acquired position information of the workpiece.

また、特許文献2の図2のフローチャートのステップS5では、ロボットの設置位置とハンド(把持部)の把持位置に関するデータに基づいて、ワークの位置姿勢をロボット座標系での位置姿勢に変換している。ここで、ハンドの把持位置とは、把持状態におけるハンドとワーク(又はツール)の相対位置姿勢関係のことであり、ハンドの把持位置に関するデータは、メモリ6にあらかじめ格納されている。さらに、特許文献2の発明では、前提として、ハンドの把持位置が一義的に決まる場合を想定していると考えられる。つまり、ワークを把持する方向は常に一定方向(例えば上から)であり、ワークとハンドが接触する位置も一定の位置(例えばワークの両側面の中心位置)である場合を想定していると考えられる。この場合には、メモリ6に格納されているハンドの把持位置のデータは、実際の把持状態を正しく表すため、ワークの位置姿勢をロボット座標系での位置姿勢に、実際の把持状態と相違なく変換することが可能である。   In step S5 of the flowchart of FIG. 2 of Patent Document 2, the position and orientation of the workpiece are converted into a position and orientation in the robot coordinate system based on data relating to the installation position of the robot and the gripping position of the hand (gripping unit). Yes. Here, the gripping position of the hand is a relative position and orientation relationship between the hand and the work (or tool) in the gripping state, and data regarding the gripping position of the hand is stored in the memory 6 in advance. Furthermore, in the invention of Patent Document 2, it is assumed that the hand holding position is uniquely determined as a premise. In other words, it is assumed that the direction in which the workpiece is gripped is always a certain direction (for example, from above), and the position where the workpiece and the hand are in contact is also a certain position (for example, the center position on both sides of the workpiece). It is done. In this case, since the data on the gripping position of the hand stored in the memory 6 correctly represents the actual gripping state, the position / posture of the workpiece is the same as the position / posture in the robot coordinate system. It is possible to convert.

しかし実際には、ロボットの構造や経路設定の都合上、ハンドの把持位置は場合によって変わることが多い。例えば、ワークの位置姿勢が同じであっても、ワークを上から把持することもあるし、横から把持することもある。また、ワークとハンドの接触位置も、ワークの種類によって変わることが通常である。このように、ハンドの把持位置がその都度変わる場合には、メモリ6に格納されているハンドの把持位置のデータは、必ずしも実際の把持状態を正しく表すとは限らない。よって、把持位置が一義的に決まるものでない場合には、特許文献2の図2のステップS5において、実際の把持状態とは一致しない座標変換を行ってしまい、教示者の期待通りの教示データを生成することができないことがある。言い換えれば、特許文献2の発明では、把持部がどのようにツールを把持すればよいかを教示することができない。   However, in practice, the gripping position of the hand often varies depending on circumstances due to the structure of the robot and the route setting. For example, even if the position and orientation of the workpiece are the same, the workpiece may be gripped from above or may be gripped from the side. In addition, the contact position between the workpiece and the hand usually changes depending on the type of the workpiece. As described above, when the gripping position of the hand changes each time, the data of the gripping position of the hand stored in the memory 6 does not necessarily accurately represent the actual gripping state. Therefore, if the gripping position is not uniquely determined, in step S5 of FIG. 2 of Patent Document 2, coordinate conversion that does not match the actual gripping state is performed, and teaching data as expected by the teacher is obtained. It may not be generated. In other words, the invention of Patent Document 2 cannot teach how the gripper should grip the tool.

これに対して本実施形態では、ワークの位置情報だけではなく、教示者の手(ロボット300の把持部310)とツールの相対位置姿勢関係を、撮像画像から特定する。そのため、特定した相対位置姿勢関係は、実際の把持状態を正しく表すものである。そして、特定した相対位置姿勢関係に基づいて、教示データを生成する。これにより、把持状態における把持部310とツールの位置姿勢関係を、教示者が意図する通りに教示することができる。つまり、本実施形態では、特許文献2の発明とは異なり、状況に適した様々な把持位置姿勢をロボットに教示することが可能である。   On the other hand, in this embodiment, not only the position information of the workpiece but also the relative position and orientation relationship between the teacher's hand (the gripping portion 310 of the robot 300) and the tool is specified from the captured image. Therefore, the specified relative position / posture relationship correctly represents the actual gripping state. Then, teaching data is generated based on the specified relative position and orientation relationship. As a result, the position / posture relationship between the gripper 310 and the tool in the gripping state can be taught as intended by the teacher. That is, in this embodiment, unlike the invention of Patent Document 2, it is possible to teach the robot various gripping positions and postures suitable for the situation.

2.処理の詳細
次に、本実施形態の各処理の詳細について説明する。
2. Details of Processing Next, details of each processing of the present embodiment will be described.

まず、画像認識処理について説明する。なお、以下で説明する各画像認識処理は、前述した図3のフローチャートのステップS102や、図4のフローチャートのステップS202、図5のフローチャートのステップS302及びステップS305のいずれにおいても行うことができる。   First, the image recognition process will be described. Each image recognition process described below can be performed in any of step S102 of the flowchart of FIG. 3 described above, step S202 of the flowchart of FIG. 4, and step S302 and step S305 of the flowchart of FIG.

画像認識部110は、画像認識処理において、教示者の手について特徴点検出処理を行って、手のモデルを生成し、生成した手のモデルに基づいて、把持部310の位置姿勢データの特定処理を行う。   In the image recognition process, the image recognition unit 110 performs a feature point detection process on the teacher's hand to generate a hand model, and based on the generated hand model, the position / orientation data specifying process of the grip unit 310 I do.

具体的には、例えば図6に示すような撮像画像PIMにおいて、教示者の手HDの複数の特徴点(SP1〜SP8)を検出し、これらの特徴点を結んで、手HDのモデルMDを生成する。   Specifically, for example, in the captured image PIM as shown in FIG. 6, a plurality of feature points (SP1 to SP8) of the teacher's hand HD are detected, and these feature points are connected to determine the model MD of the hand HD. Generate.

ここで、特徴点とは、画像中から際立って観測できる点のことをいう。例えば、図6ではSP1〜SP8の点により表される。本例では、特徴点の検出方法として、コーナー検出法等を用いるが、その他の一般的なコーナー部検出(固有値、FAST特徴検出)を用いても良いし、SIFT(Scale invariant feature transform)に代表される局所特徴量記述子やSURF(Speeded Up Robust Feature)等を用いても良い。   Here, the feature point refers to a point that can be clearly observed from the image. For example, in FIG. 6, it is represented by points SP1 to SP8. In this example, a corner detection method or the like is used as a feature point detection method, but other general corner detection (eigenvalue, FAST feature detection) may be used, and a representative example is SIFT (Scale invariant feature transform). Local feature descriptors, SURF (Speeded Up Robust Feature), etc. may be used.

また、手のモデルとは、教示者の手の大まかな外形を表す2次元図形や3次元CAD(Computer Aided Design)モデルデータ等のことを指す。例えば図6では、手のモデルはMDにより表される。なお、CADとは、コンピューター支援設計とも呼ばれ、コンピューターを用いて設計することを指す。また、CADモデルデータとは、CADにおいて設計される設計対象を表すデータのことをいう。   The hand model refers to a two-dimensional figure representing a rough outline of a teacher's hand, three-dimensional CAD (Computer Aided Design) model data, or the like. For example, in FIG. 6, the hand model is represented by MD. Note that CAD is also called computer-aided design and refers to designing using a computer. CAD model data refers to data representing a design object designed in CAD.

これにより、教示者の手のモデルに基づいて、教示者の手の位置姿勢を特定し、特定した教示者の手の位置姿勢に基づいて、ロボット300の把持部310の位置姿勢を特定すること等が可能になる。   Thus, the position and orientation of the teacher's hand is specified based on the model of the teacher's hand, and the position and orientation of the grip unit 310 of the robot 300 is specified based on the specified position and orientation of the teacher's hand. Etc. becomes possible.

また、画像認識部110は、画像認識処理において、ツール及びワークの少なくとも一方について輪郭線検出処理を行って、輪郭線検出処理の結果に基づいて、ツール及びワークの少なくとも一方と、教示者の手との相対的な位置姿勢関係を求める。   Further, the image recognition unit 110 performs contour detection processing on at least one of the tool and the workpiece in the image recognition processing, and based on the result of the contour detection processing, at least one of the tool and the workpiece and the teacher's hand. The relative position and orientation relationship is obtained.

具体的には、例えば図6に示すような撮像画像PIMにおいて、ツールTLの輪郭線OL1と、ワークWKの輪郭線OL2とを検出する。   Specifically, for example, the contour line OL1 of the tool TL and the contour line OL2 of the workpiece WK are detected in the captured image PIM as shown in FIG.

ここで、輪郭線検出処理とは、撮像画像上に映るワークやツールなどの物体の輪郭線を抽出し、輪郭情報を特定する処理のことをいう。例えば、画像の輝度勾配の大きさが所与の値以上の領域を黒く塗りつぶした二値画像を生成し、この二値画像に対して細線化処理を行うことにより、輪郭線を抽出する。なお、輪郭情報とは、物体の輪郭を表す情報である。輪郭情報は、例えば、輪郭の始点と終点の画像上での座標位置や、ベクトルとその大きさ等である。   Here, the contour detection process refers to a process of extracting contour lines of an object such as a work or a tool shown on a captured image and specifying contour information. For example, a contour image is extracted by generating a binary image in which a region where the magnitude of the brightness gradient of the image is equal to or greater than a given value is blacked out and performing a thinning process on the binary image. Note that the contour information is information representing the contour of an object. The contour information is, for example, a coordinate position on the image of the start point and end point of the contour, a vector, its size, and the like.

これにより、ツール及びワークの少なくとも一方の輪郭線に基づいて、ツール及びワークの少なくとも一方と、教示者の手との相対位置姿勢を特定すること等が可能になる。   Accordingly, it is possible to specify the relative position and orientation between at least one of the tool and the workpiece and the teacher's hand based on the contour line of at least one of the tool and the workpiece.

また、教示者の手とツールの相対的な位置姿勢関係をより確実に求めたい場合には、教示者の手とツールにマーカーをあらかじめ貼付しておき、貼付したマーカーの検出結果に基づいて、手とツールの相対位置姿勢関係を求めてもよい。   Also, if you want to more reliably determine the relative position and orientation relationship between the teacher's hand and the tool, pre-apply a marker to the teacher's hand and the tool, and based on the detection result of the attached marker, The relative position and orientation relationship between the hand and the tool may be obtained.

すなわち、画像認識部110は、画像認識処理において、教示者の手とツールの少なくとも一方に設けられたマーカーについてのマーカー検出処理を行い、マーカー検出処理の結果に基づいて、教示者の手とツールとの相対的な位置姿勢関係を求めてもよい。   That is, in the image recognition process, the image recognition unit 110 performs a marker detection process for a marker provided on at least one of the teacher's hand and tool, and based on the result of the marker detection process, the teacher's hand and tool The relative position / orientation relationship may be obtained.

具体的には、例えば図7(A)に示すような撮像画像PIMにおいて、教示者の手HDに貼付された第1のマーカーMK1を検出し、これらの第1のマーカーMK1の位置を結んで、図6に示すものと同様な手HDのモデルMDを生成する。なお、教示者の手には、図7(B)に示すような丸い第1のマーカーMK1が複数貼付されているものとする。この第1のマーカーMK1は、貼付された教示者の手の位置姿勢によって、見え方(すなわち、撮像画像PIMに映る第1のマーカーMK1の形状)が変化する。そのため、教示者の手の位置姿勢を特定することができる。   Specifically, for example, in the captured image PIM as shown in FIG. 7A, the first marker MK1 attached to the teacher's hand HD is detected, and the positions of these first markers MK1 are connected. A hand HD model MD similar to that shown in FIG. 6 is generated. Note that it is assumed that a plurality of round first markers MK1 as shown in FIG. The first marker MK1 changes in appearance (that is, the shape of the first marker MK1 shown in the captured image PIM) depending on the position and orientation of the hand of the attached teacher. Therefore, the position and orientation of the teacher's hand can be specified.

同様にして、ツールTLにも、図7(C)に示すような三角形の第2のマーカーMK2をあらかじめ貼付しておき、撮像画像PIMにおける第2のマーカーMK2の検出結果に基づいて、ツールTLの輪郭線OLを検出する。この処理でも、撮像画像PIMでの第2のマーカーMK2の映り方に基づいて、ツールTLの位置姿勢を推定可能である。そして、これらの結果に基づいて、教示者の手とツールとの相対的な位置姿勢関係を求める。   Similarly, a triangular second marker MK2 as shown in FIG. 7C is attached in advance to the tool TL, and the tool TL is based on the detection result of the second marker MK2 in the captured image PIM. The contour line OL is detected. Even in this process, the position and orientation of the tool TL can be estimated based on the way the second marker MK2 appears in the captured image PIM. Based on these results, the relative position and orientation relationship between the teacher's hand and the tool is obtained.

ここで、マーカーとは、目印として利用することができる文字、図形、記号、模様もしくは立体的形状もしくはこれらの結合又はこれらと色彩との結合を形成する有体物で、物体に固定可能なものである。例えば、シールやステッカー、ラベル等であり、図7(B)のMK1や、図7(C)のMK2のような形状をしたものである。なお、マーカーの形状や、色彩、模様等がどのようなものであるかは問わないが、他の領域と区別しやすいもの、例えば赤色一色からなる画像やシールなどが望ましい。   Here, the marker is a tangible object that can be used as a mark, a character, a figure, a symbol, a pattern, a three-dimensional shape, a combination thereof, or a combination of these and a color, and can be fixed to an object. . For example, it is a sticker, a sticker, a label, or the like, and has a shape such as MK1 in FIG. 7B or MK2 in FIG. It does not matter what the shape, color, pattern, etc. of the marker is, but a marker that is easily distinguishable from other regions, for example, an image or sticker made of a single red color is desirable.

これにより、手とツールの相対的な位置姿勢関係をより確実に求めること等が可能になる。   This makes it possible to more reliably obtain the relative position and orientation relationship between the hand and the tool.

次に、図5のフローチャートのステップS306の処理の詳細について説明する。処理部130は、教示者の手と、ツールと、ロボット300の作業対象であるワークとの相対的な位置姿勢関係を求める(S306)。そして、処理部130は、求めた位置姿勢関係に基づいて、教示者の手により把持されたツールでワークに作業を行っている作業状態での、把持部310の位置姿勢データの特定処理を行う(S309)。   Next, details of the processing in step S306 in the flowchart of FIG. 5 will be described. The processing unit 130 obtains a relative position and orientation relationship between the teacher's hand, the tool, and the work that is the work target of the robot 300 (S306). Then, the processing unit 130 performs processing for specifying the position and orientation data of the gripping unit 310 in a working state in which the work is performed on the workpiece with the tool gripped by the teacher's hand based on the obtained position and orientation relationship. (S309).

ここで、相対的な位置姿勢関係(相対位置姿勢関係)とは、一方の物体についてのローカル座標系における他方の物体の位置姿勢のことである。   Here, the relative position and orientation relationship (relative position and orientation relationship) refers to the position and orientation of the other object in the local coordinate system for one object.

例えば、教示者の手とツールの相対位置姿勢関係は、図8に示すように、教示者の手HDについてのローカル座標系において、ツールTLの位置姿勢を表すベクトルVT1として求められる。なお、教示者の手HDのローカル座標系の原点は、例えば、図6を用いて説明した手HDのモデルMDの重心位置や中心位置等である。   For example, as shown in FIG. 8, the relative position and orientation relationship between the teacher's hand and the tool is obtained as a vector VT1 representing the position and orientation of the tool TL in the local coordinate system for the teacher's hand HD. Note that the origin of the local coordinate system of the teacher's hand HD is, for example, the center of gravity or the center position of the model MD of the hand HD described with reference to FIG.

同様に、ツールとワークの相対位置姿勢関係は、図8に示すように、ツールTLについてのローカル座標系において、ワークWKの位置姿勢を表すベクトルVT2として求められる。ツールTLのローカル座標系の原点は、例えば、図6を用いて説明したツールTLの輪郭線OL1により囲まれる領域の重心位置や中心位置等である。   Similarly, the relative position and orientation relationship between the tool and the work is obtained as a vector VT2 representing the position and orientation of the work WK in the local coordinate system for the tool TL, as shown in FIG. The origin of the local coordinate system of the tool TL is, for example, the position of the center of gravity or the center position of the region surrounded by the contour OL1 of the tool TL described with reference to FIG.

そして、この二つの相対位置姿勢関係により、教示者の手とツールとワークの三者の相対位置姿勢関係を求めること等が可能になる。なお、教示者の手とツールとワークの相対位置姿勢関係の求め方は、前述した方法に限定されず、例えばワークのローカル座標系を基準として求めても良い。   Then, it is possible to obtain the relative position / posture relationship between the teacher's hand, the tool, and the workpiece by using the two relative position / posture relationships. The method for obtaining the relative position and orientation relationship between the teacher's hand, the tool, and the workpiece is not limited to the method described above, and may be obtained, for example, based on the local coordinate system of the workpiece.

次に、以上の処理で求められた教示者の手とツールとワークの相対位置姿勢関係を、ロボット300の把持部310とツールとワークの相対位置姿勢関係に置き換える必要がある。   Next, it is necessary to replace the relative position / posture relationship between the teacher's hand, the tool, and the work obtained by the above processing with the relative position / posture relationship between the grasping unit 310 of the robot 300, the tool, and the work.

そこで、図5のフローチャートのステップS307〜ステップS309では、処理部130は、教示者の手のモデルと、ロボット300の把持部310との対応関係に基づいて、把持部310の位置姿勢データの特定処理を行う。   Therefore, in steps S307 to S309 in the flowchart of FIG. 5, the processing unit 130 specifies the position and orientation data of the gripping unit 310 based on the correspondence between the model of the teacher's hand and the gripping unit 310 of the robot 300. Process.

そのためには、教示者の手とロボット300の把持部310との対応関係を求める必要がある。本実施形態ではその際に、例えば図9(A)に示す手HDのモデルMDと、図9(B)に示すロボットの把持部HPとを、画像上又は3次元仮想空間上で、図9(C)のように重ね合わせる。そして、手HDのモデルMDと、ロボットの把持部HPとのサイズ差や形状の差などを、対応関係を表す情報として特定する。なお、手と把持部の対応関係を求める処理は、あらかじめ行っておき、記憶部に記憶していてもよいし、初めに手のモデルを生成した際に行ってもよい。   For this purpose, it is necessary to obtain the correspondence between the teacher's hand and the gripping part 310 of the robot 300. In this embodiment, for example, the hand MD model MD shown in FIG. 9A and the robot gripping part HP shown in FIG. 9B are displayed on the image or in the three-dimensional virtual space. Overlay as in (C). Then, a size difference or a shape difference between the hand MD model MD and the robot gripping part HP is specified as information indicating the correspondence. Note that the processing for obtaining the correspondence between the hand and the gripper may be performed in advance and stored in the storage unit, or may be performed when the hand model is first generated.

これにより、教示者の手とツールとワークの相対位置姿勢関係を、ロボット300の把持部310とツールとワークの相対位置姿勢関係に置き換えること等が可能になる。   This makes it possible to replace the relative position / posture relationship between the teacher's hand, tool, and workpiece with the relative position / posture relationship between the gripper 310 of the robot 300, the tool, and the workpiece.

そして、以上の処理を行った後、把持状態又は作業状態でのロボット300の把持部310の位置姿勢データを特定する。なお、この際、例えば図5のステップS309においては、把持部310のローカル座標系等で表される把持部310の位置姿勢を、ワールド座標系での位置姿勢に座標変換する処理を行う。そして、特定した位置姿勢データを含む教示データを生成する。これにより、教示データに従って、ロボット300を動作させ、教示者が行った動作と同様の動きをロボット300に行わせること等が可能になる。   Then, after performing the above processing, the position and orientation data of the grip unit 310 of the robot 300 in the gripping state or working state is specified. At this time, for example, in step S309 in FIG. 5, a process of performing coordinate conversion of the position / orientation of the gripper 310 represented by the local coordinate system of the gripper 310 to the position / orientation in the world coordinate system is performed. Then, teaching data including the specified position / orientation data is generated. Accordingly, the robot 300 can be operated according to the teaching data, and the robot 300 can perform the same movement as the operation performed by the teacher.

ただし、図10に示すように、教示データに従って、ロボット動作をシミュレーションした結果、ロボットの把持部HPの位置姿勢P1が、教示者が期待する目標位置姿勢P2から僅かにずれていることもある。なお、図10では説明のため、P1とP2の位置を大きくずらして図示しているが、実際には数cm〜数mm以下のずれを想定している。   However, as shown in FIG. 10, as a result of simulating the robot operation in accordance with the teaching data, the position / posture P1 of the robot gripper HP may be slightly shifted from the target position / posture P2 expected by the teacher. In FIG. 10, for the sake of explanation, the positions of P1 and P2 are greatly shifted, but actually, a shift of several centimeters to several millimeters or less is assumed.

この際には、処理部130は、画像認識処理の結果に基づいて、把持部310の位置姿勢データの特定処理を行った後に、教示者によるジョグツールの操作情報に基づいて、把持部310の位置姿勢データの補正処理を行ってもよい。   At this time, the processing unit 130 performs the position / orientation data specifying process of the gripping unit 310 based on the result of the image recognition processing, and then, based on the operation information of the jog tool by the teacher, Position / orientation data correction processing may be performed.

例えば図10の例では、教示者がジョグツールを操作して、ロボットの把持部HPの位置姿勢P1を、教示者が期待する目標位置姿勢P2に変更し、この時の把持部HPの位置姿勢データを作業状態での位置姿勢データとして特定する。ここでは、このような微調整を行うことを、把持部310の位置姿勢データの補正処理と呼ぶ。   For example, in the example of FIG. 10, the teacher operates the jog tool to change the position / posture P1 of the gripper HP of the robot to the target position / posture P2 expected by the teacher, and the position / posture of the gripper HP at this time The data is specified as position and orientation data in the working state. Here, performing such fine adjustment is referred to as correction processing for the position and orientation data of the grip portion 310.

ここで、ジョグツールとは、ジョグ(JOG)動作を行うために、教示者が操作する道具のことである。具体的には、ティーチングペンダントやPCなどである。また、ジョグ動作とは、移動距離を指定しない移動動作のことであり、ロボットの実機を用いる場合には、手動でモーターの作動と停止を制御する動作のことである。一方で、コンピューターによるシミュレーションでは、教示者がロボット動作のシミュレーション結果を確認しながら、ロボットの制御パラメーターを微調整することが、ジョグ動作に相当する。   Here, the jog tool is a tool operated by a teacher to perform a jog (JOG) operation. Specifically, it is a teaching pendant or a PC. The jog operation is a movement operation in which the movement distance is not specified, and is an operation for manually controlling the operation and stop of the motor when using an actual robot. On the other hand, in the computer simulation, it is equivalent to the jog operation that the instructor fine-tunes the control parameters of the robot while checking the simulation result of the robot operation.

これにより、教示データに含まれるロボットの把持部HPの位置姿勢が、教示者が期待する目標位置姿勢からずれている場合に、教示データを修正すること等が可能になる。なお、ジョグツールの操作情報に基づく把持部310の位置姿勢データの補正処理は、シミュレーション時に行ってもよいし、生成した教示データに基づいて実際にロボットを駆動させた際に行ってもよい。   As a result, when the position and orientation of the robot gripping part HP included in the teaching data is deviated from the target position and orientation expected by the teacher, the teaching data can be corrected. Note that the position / orientation data correction processing of the gripper 310 based on the operation information of the jog tool may be performed during simulation or may be performed when the robot is actually driven based on the generated teaching data.

また、以上の本実施形態で用いる撮像部(カメラ)200は、例えばCCD(charge-coupled device)等の撮像素子と光学系を含む。また、撮像部200は、画像処理用等に用いられるデバイス(プロセッサー)を含むことができる。撮像部200は、例えば天井や作業台の上などに、教示者やワークが撮像範囲内に入るような角度で配置される。なお、ワークとは、ロボット300における加工対象物のことをいう。また、前述したように、教示者の手等の位置姿勢を特定するためには、少なくとも2台の撮像部200が必要であり、本実施形態では3台の撮像部200を用いるものとする。そして、撮像部200は、撮像画像の情報を制御装置100等に出力する。ただし、本実施形態においては、撮像画像の情報をそのまま制御装置100に出力するものとするが、これに限定されるものではない。例えば、制御装置100の画像認識部110や処理部130の機能の一部を撮像部200に持たせてもよい。その場合、撮像画像に対して画像処理が施された後の情報が出力されることになる。   Further, the imaging unit (camera) 200 used in the above-described embodiment includes an imaging element such as a charge-coupled device (CCD) and an optical system. The imaging unit 200 can include a device (processor) used for image processing and the like. The imaging unit 200 is disposed at an angle such that a teacher or a work falls within the imaging range, for example, on a ceiling or a work table. Note that the work refers to an object to be processed in the robot 300. Further, as described above, in order to specify the position and orientation of the teacher's hand or the like, at least two imaging units 200 are required, and in this embodiment, three imaging units 200 are used. Then, the imaging unit 200 outputs information of the captured image to the control device 100 or the like. However, in the present embodiment, the information of the captured image is output as it is to the control device 100, but the present invention is not limited to this. For example, the imaging unit 200 may have some of the functions of the image recognition unit 110 and the processing unit 130 of the control device 100. In this case, information after image processing is performed on the captured image is output.

3.ロボット
次に、図11(A)及び図11(B)に、本実施形態の制御装置100が適用されるロボット300の構成例を示す。図11(A)及び図11(B)のどちらの場合にも、ロボット300は、把持部310を有する。
3. Robot Next, FIG. 11A and FIG. 11B show a configuration example of a robot 300 to which the control device 100 of this embodiment is applied. In both cases of FIG. 11A and FIG. 11B, the robot 300 includes a grip portion 310.

ここで、把持部(ハンド)310とは、ワークを把持したり、持ち上げたり、吊り上げたり、吸着させたりするために用いる部品のことをいう。把持部310は、ハンドであってもよいし、フックであってもよいし、吸盤等であってもよい。なお、1本のアームに対して、複数のハンドを設けても良い。   Here, the gripping part (hand) 310 refers to a part used for gripping, lifting, lifting, or attracting a workpiece. The gripping part 310 may be a hand, a hook, a suction cup or the like. A plurality of hands may be provided for one arm.

例えば、図11(A)のロボットは、ロボット本体300(ロボット)と制御装置100とが別体に構成されている。この場合には、制御装置100の一部又は全部の機能は、例えばPCにより実現される。また、制御装置100の一部又は全部の機能は、有線及び無線の少なくとも一方を含むネットワークによりロボット300と接続されたサーバーにより実現されてもよい。   For example, in the robot of FIG. 11A, the robot body 300 (robot) and the control device 100 are configured separately. In this case, some or all of the functions of the control device 100 are realized by a PC, for example. In addition, some or all of the functions of the control device 100 may be realized by a server connected to the robot 300 via a network including at least one of wired and wireless.

一方で、本実施形態のロボットは図11(A)の構成に限定されず、図11(B)のようにロボット本体300と制御装置100とが一体に構成されていてもよい。すなわち、ロボット300は、制御装置100を含んでいても良い。具体的には図11(B)に示したように、ロボット300は、ロボット本体(アーム及びハンドを有する)及びロボット本体を支えるベースユニット部を有し、当該ベースユニット部に制御装置100が格納されるものであってもよい。図11(B)のロボット300には、ベースユニット部に車輪等が設けられ、ロボット全体が移動可能な構成となっている。なお、図11(A)は単腕型の例であるが、ロボット300は図11(B)に示すように双腕型等の多腕型のロボットであってもよい。また、ロボット300は、人手により移動させられるものであってもよいし、車輪を駆動させるモーターを設け、当該モーターを制御装置100により制御することにより、移動させられるものであってもよい。また、制御装置100は、図11(B)のようにロボット300の下に設けられたベースユニット部に設けられるとは限られない。   On the other hand, the robot of the present embodiment is not limited to the configuration of FIG. 11A, and the robot body 300 and the control device 100 may be configured integrally as shown in FIG. That is, the robot 300 may include the control device 100. Specifically, as illustrated in FIG. 11B, the robot 300 includes a robot main body (having an arm and a hand) and a base unit that supports the robot main body, and the control device 100 is stored in the base unit. It may be done. A robot 300 in FIG. 11B is configured such that wheels and the like are provided in the base unit portion so that the entire robot can move. 11A shows an example of a single arm type, the robot 300 may be a multi-arm type robot such as a double arm type as shown in FIG. 11B. The robot 300 may be moved manually, or may be moved by providing a motor for driving wheels and controlling the motor by the control device 100. Moreover, the control apparatus 100 is not necessarily provided in the base unit part provided under the robot 300 as shown in FIG.

なお、本実施形態の制御装置、ロボット及び教示データ生成方法等は、その処理の一部または大部分をプログラムにより実現してもよい。この場合には、CPU等のプロセッサーがプログラムを実行することで、本実施形態の制御装置、ロボット及び教示データ生成方法等が実現される。具体的には、情報記憶媒体に記憶されたプログラムが読み出され、読み出されたプログラムをCPU等のプロセッサーが実行する。ここで、情報記憶媒体(コンピューターにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリー(カード型メモリー、ROM等)などにより実現できる。そして、CPU等のプロセッサーは、情報記憶媒体に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち、情報記憶媒体には、本実施形態の各部としてコンピューター(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピューターに実行させるためのプログラム)が記憶される。   Note that the control device, the robot, the teaching data generation method, and the like according to the present embodiment may implement part or most of the processing by a program. In this case, a control device, a robot, a teaching data generation method, and the like according to the present embodiment are realized by a processor such as a CPU executing a program. Specifically, a program stored in the information storage medium is read, and a processor such as a CPU executes the read program. Here, the information storage medium (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (DVD, CD, etc.), HDD (hard disk drive), or memory (card type). It can be realized by memory, ROM, etc. A processor such as a CPU performs various processes according to the present embodiment based on a program (data) stored in the information storage medium. That is, in the information storage medium, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit) Is memorized.

以上のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、制御装置、ロボット、教示データ生成方法及びプログラムの構成、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described at least once together with a different term having a broader meaning or the same meaning in the specification or the drawings can be replaced with the different term in any part of the specification or the drawings. Further, the configuration and operation of the control device, robot, teaching data generation method and program are not limited to those described in the present embodiment, and various modifications can be made.

100 制御装置、110 画像認識部、130 処理部、200 撮像部、
300 ロボット、310 把持部
100 control device, 110 image recognition unit, 130 processing unit, 200 imaging unit,
300 robot, 310 gripping part

Claims (13)

画像認識処理を行う画像認識部と、
ロボットの把持部の位置姿勢を表す位置姿勢データの特定処理を行い、前記ロボットの教示データの生成処理を行う処理部と、
を含み、
前記画像認識部は、
教示者の手がツールを把持した把持状態の撮像画像に対して前記画像認識処理を行い、
前記処理部は、
前記把持状態の前記画像認識処理の結果に基づいて、前記把持状態での前記把持部の前記位置姿勢データを含む前記教示データを生成することを特徴とする制御装置。
An image recognition unit for performing image recognition processing;
A processing unit that performs processing for specifying position and orientation data representing the position and orientation of the gripping unit of the robot, and processing for generating teaching data of the robot;
Including
The image recognition unit
Performing the image recognition process on the captured image of the gripped state where the teacher's hand grips the tool,
The processor is
A control apparatus that generates the teaching data including the position and orientation data of the gripping unit in the gripping state based on a result of the image recognition processing in the gripping state.
請求項1において、
前記画像認識部は、
前記把持状態の第1の撮像画像と、前記教示者の前記手により把持された前記ツールでワークに作業を行っている作業状態の第2の撮像画像とを取得し、前記第1の撮像画像に対する第1の画像認識処理と、前記第2の撮像画像に対する第2の画像認識処理とを行い、
前記処理部は、
前記第1の画像認識処理の結果と前記第2の画像認識処理の結果とに基づいて、前記作業状態での前記把持部の前記位置姿勢データの前記特定処理を行うことを特徴とする制御装置。
In claim 1,
The image recognition unit
A first captured image in the gripping state and a second captured image in a working state in which a work is performed on the workpiece with the tool gripped by the hand of the teacher, and the first captured image is acquired. Performing a first image recognition process for the second captured image and a second image recognition process for the second captured image,
The processor is
A control apparatus that performs the specifying process of the position / orientation data of the gripper in the working state based on a result of the first image recognition process and a result of the second image recognition process. .
請求項1又は2において、
前記処理部は、
前記教示者の前記手と、前記ツールと、前記ロボットの作業対象であるワークとの相対的な位置姿勢関係を求め、求めた前記位置姿勢関係に基づいて、前記教示者の前記手により把持された前記ツールで前記ワークに作業を行っている作業状態での、前記把持部の前記位置姿勢データの前記特定処理を行うことを特徴とする制御装置。
In claim 1 or 2,
The processor is
A relative position / orientation relationship between the hand of the teacher, the tool, and a work that is a work target of the robot is obtained, and the gripper is grasped by the hand of the teacher based on the obtained position / orientation relationship. A control apparatus that performs the specifying process of the position / orientation data of the gripper in a working state in which the tool is working on the workpiece.
請求項3において、
前記画像認識部は、
前記画像認識処理において、前記ツール及び前記ワークの少なくとも一方について輪郭線検出処理を行って、前記輪郭線検出処理の結果に基づいて、前記ツール及び前記ワークの少なくとも一方と、前記教示者の前記手との相対的な位置姿勢関係を求めることを特徴とする制御装置。
In claim 3,
The image recognition unit
In the image recognition processing, contour detection processing is performed for at least one of the tool and the workpiece, and at least one of the tool and the workpiece and the hand of the instructor are performed based on the result of the contour detection processing. A control device characterized by obtaining a relative position and orientation relationship with the control unit.
請求項1乃至4のいずれかにおいて、
前記画像認識部は、
前記画像認識処理において、前記教示者の前記手と前記ツールの少なくとも一方に設けられたマーカーについてのマーカー検出処理を行い、前記マーカー検出処理の結果に基づいて、前記教示者の前記手と前記ツールとの相対的な位置姿勢関係を求めることを特徴とする制御装置。
In any one of Claims 1 thru | or 4,
The image recognition unit
In the image recognition processing, marker detection processing is performed for a marker provided on at least one of the hand of the teacher and the tool, and the hand of the teacher and the tool are performed based on a result of the marker detection processing. A control device characterized by obtaining a relative position and orientation relationship with the control unit.
請求項1乃至5のいずれかにおいて、
前記処理部は、
前記教示者の前記手のモデルと、前記ロボットの前記把持部との対応関係に基づいて、前記把持部の前記位置姿勢データの前記特定処理を行うことを特徴とする制御装置。
In any one of Claims 1 thru | or 5,
The processor is
A control apparatus that performs the specifying process of the position / orientation data of the gripper based on a correspondence relationship between the model of the hand of the teacher and the gripper of the robot.
請求項1乃至6のいずれかにおいて、
前記画像認識部は、
前記画像認識処理において、前記教示者の前記手について特徴点検出処理を行って、前記手のモデルを生成し、生成した前記手の前記モデルに基づいて、前記把持部の前記位置姿勢データの前記特定処理を行うことを特徴とする制御装置。
In any one of Claims 1 thru | or 6.
The image recognition unit
In the image recognition process, a feature point detection process is performed on the hand of the teacher to generate a model of the hand, and the position and orientation data of the gripping unit based on the generated model of the hand A control device that performs specific processing.
請求項1において、
前記画像認識部は、
前記把持状態の第1の撮像画像に対する第1の画像認識処理を行い、
前記処理部は、
前記第1の画像認識処理の結果に基づいて、前記教示者の前記手と前記ツールとの相対的な第1の位置姿勢関係を求め、
前記画像認識部は、
前記教示者の前記手により把持された前記ツールでワークに作業を行っている作業状態の第2の撮像画像に対する第2の画像認識処理を行い、
前記処理部は、
前記第1の位置姿勢関係と前記第2の画像認識処理の結果とに基づいて、前記教示者の前記手と前記ツールと前記ワークとの相対的な第2の位置姿勢関係を求め、
前記教示者の前記手のモデルと前記ロボットの前記把持部との対応関係と、求めた前記第2の位置姿勢関係とに基づいて、前記作業状態における前記ロボットの前記把持部と、前記ツールと、前記ワークとの相対的な第3の位置姿勢関係を求め、
前記第3の位置姿勢関係に基づいて、前記作業状態における前記把持部の前記位置姿勢データを特定することを特徴とする制御装置。
In claim 1,
The image recognition unit
Performing a first image recognition process on the first captured image in the gripping state;
The processor is
Based on the result of the first image recognition process, a relative first position / orientation relationship between the hand of the teacher and the tool is obtained,
The image recognition unit
Performing a second image recognition process on a second captured image in a working state in which a work is being performed on the workpiece with the tool held by the teacher's hand;
The processor is
Based on the first position and orientation relationship and the result of the second image recognition process, a relative second position and orientation relationship between the hand of the teacher, the tool, and the workpiece is obtained.
Based on the correspondence between the model of the hand of the teacher and the grip portion of the robot and the obtained second position and orientation relationship, the grip portion of the robot in the working state, the tool, , To obtain a third position and orientation relationship relative to the workpiece,
The control device that identifies the position and orientation data of the gripper in the working state based on the third position and orientation relationship.
請求項1乃至8のいずれかにおいて、
前記処理部は、
前記画像認識処理の結果に基づいて、前記把持部の前記位置姿勢データの前記特定処理を行った後に、前記教示者によるジョグツールの操作情報に基づいて、前記把持部の前記位置姿勢データの補正処理を行うことを特徴とする制御装置。
In any one of Claims 1 thru | or 8.
The processor is
Based on the result of the image recognition process, the position / orientation data of the gripper is corrected based on the operation information of the jog tool by the teacher after performing the specifying process of the position / orientation data of the gripper. A control device that performs processing.
画像認識処理を行う画像認識部と、
ロボットの把持部の位置姿勢を表す位置姿勢データの特定処理を行い、前記ロボットの教示データの生成処理を行う処理部と、
を含み、
前記画像認識部は、
教示者の手により把持されたツールでワークに作業を行っている作業状態の撮像画像に対して前記画像認識処理を行い、
前記処理部は、
前記作業状態の前記画像認識処理の結果に基づいて、前記作業状態での前記把持部の前記位置姿勢データを含む前記教示データを生成することを特徴とする制御装置。
An image recognition unit for performing image recognition processing;
A processing unit that performs processing for specifying position and orientation data representing the position and orientation of the gripping unit of the robot, and processing for generating teaching data of the robot;
Including
The image recognition unit
Performing the image recognition process on a captured image in a working state in which a work is performed on a workpiece with a tool held by a teacher's hand;
The processor is
A control apparatus that generates the teaching data including the position and orientation data of the gripping unit in the working state based on a result of the image recognition processing in the working state.
画像認識処理を行う画像認識部と、
ロボットの把持部の位置姿勢を表す位置姿勢データの特定処理を行い、前記ロボットの教示データの生成処理を行う処理部と、
を含み、
前記画像認識部は、
教示者の手がツールを把持した把持状態の撮像画像に対して前記画像認識処理を行い、
前記処理部は、
前記把持状態の前記画像認識処理の結果に基づいて、前記把持状態での前記把持部の前記位置姿勢データを含む前記教示データを生成することを特徴とするロボット。
An image recognition unit for performing image recognition processing;
A processing unit that performs processing for specifying position and orientation data representing the position and orientation of the gripping unit of the robot, and processing for generating teaching data of the robot;
Including
The image recognition unit
Performing the image recognition process on the captured image of the gripped state where the teacher's hand grips the tool,
The processor is
A robot that generates the teaching data including the position and orientation data of the gripping unit in the gripping state based on a result of the image recognition processing in the gripping state.
教示者の手がツールを把持した把持状態を撮像部により撮像し、
取得した撮像画像に基づいて、前記教示者の前記手に対応するロボットの把持部が前記把持状態である時の、前記把持部の位置姿勢を表す位置姿勢データを特定し、
特定した前記位置姿勢データを含む前記ロボットの教示データを生成することを特徴とする教示データ生成方法。
The grasping state where the teacher's hand grasps the tool is imaged by the imaging unit,
Based on the acquired captured image, the position and orientation data representing the position and orientation of the gripping part when the gripping part of the robot corresponding to the hand of the teacher is in the gripping state are specified,
A teaching data generation method comprising generating teaching data of the robot including the specified position and orientation data.
画像認識処理を行う画像認識部と、
ロボットの把持部の位置姿勢を表す位置姿勢データの特定処理を行い、前記ロボットの教示データの生成処理を行う処理部として、
コンピューターを機能させ、
前記画像認識部は、
教示者の手がツールを把持した把持状態の撮像画像に対して前記画像認識処理を行い、
前記処理部は、
前記把持状態の前記画像認識処理の結果に基づいて、前記把持状態での前記把持部の前記位置姿勢データを含む前記教示データを生成することを特徴とするプログラム。
An image recognition unit for performing image recognition processing;
As a processing unit that performs processing for specifying position and orientation data representing the position and orientation of the gripping unit of the robot and performs processing for generating teaching data of the robot,
Make the computer work,
The image recognition unit
Performing the image recognition process on the captured image of the gripped state where the teacher's hand grips the tool,
The processor is
A program that generates the teaching data including the position and orientation data of the gripping unit in the gripping state based on a result of the image recognition processing in the gripping state.
JP2013208470A 2013-10-03 2013-10-03 Control device, robot, teaching data generation method, and program Pending JP2015071206A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013208470A JP2015071206A (en) 2013-10-03 2013-10-03 Control device, robot, teaching data generation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013208470A JP2015071206A (en) 2013-10-03 2013-10-03 Control device, robot, teaching data generation method, and program

Publications (1)

Publication Number Publication Date
JP2015071206A true JP2015071206A (en) 2015-04-16

Family

ID=53013998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013208470A Pending JP2015071206A (en) 2013-10-03 2013-10-03 Control device, robot, teaching data generation method, and program

Country Status (1)

Country Link
JP (1) JP2015071206A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016105212A1 (en) 2015-03-31 2016-10-06 Fuji Jukogyo Kabushiki Kaisha Process for forming a coating film
JP2016221645A (en) * 2015-06-02 2016-12-28 セイコーエプソン株式会社 Robot, robot control device and robot system
WO2017033351A1 (en) * 2015-08-25 2017-03-02 川崎重工業株式会社 Remote control robot system
JP2017164863A (en) * 2016-03-17 2017-09-21 ファナック株式会社 Robot control device for causing robot to execute machining operation, and robot program generation device
JP2019217607A (en) * 2018-06-21 2019-12-26 三菱電機株式会社 Teaching device, robot control system and teaching method
US10603793B2 (en) 2016-10-07 2020-03-31 Fanuc Corporation Work assisting system including machine learning unit
JP2020175467A (en) * 2019-04-17 2020-10-29 アズビル株式会社 Teaching device and teaching method
JP2020175466A (en) * 2019-04-17 2020-10-29 アズビル株式会社 Teaching device and teaching method
JP2021536633A (en) * 2018-09-05 2021-12-27 ヴァイケーリアス エフピーシー, インコーポレイテッドVicarious FPC, Inc. Methods and systems for understanding machine concepts
WO2021260898A1 (en) * 2020-06-25 2021-12-30 株式会社日立ハイテク Robot teaching device and method for teaching work
DE102020124285B4 (en) 2019-09-20 2022-06-09 Nvidia Corporation Vision-based teleoperation of a moving robotic system
WO2022195680A1 (en) * 2021-03-15 2022-09-22 株式会社日立ハイテク Robot task teaching device and method for teaching task
JP2022551885A (en) * 2019-10-11 2022-12-14 トヨタ モーター ヨーロッパ Methods and systems for determining three-dimensional positions of object grip points, local frames of reference and grip patterns
WO2023203747A1 (en) * 2022-04-22 2023-10-26 株式会社日立ハイテク Robot teaching method and device
WO2023248602A1 (en) * 2022-06-20 2023-12-28 株式会社日立製作所 Robot teaching device and robot teaching method

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016105212A1 (en) 2015-03-31 2016-10-06 Fuji Jukogyo Kabushiki Kaisha Process for forming a coating film
JP2016221645A (en) * 2015-06-02 2016-12-28 セイコーエプソン株式会社 Robot, robot control device and robot system
WO2017033351A1 (en) * 2015-08-25 2017-03-02 川崎重工業株式会社 Remote control robot system
TWI609748B (en) * 2015-08-25 2018-01-01 Kawasaki Heavy Ind Ltd Remote operating robot system
CN107921620A (en) * 2015-08-25 2018-04-17 川崎重工业株式会社 Tele-manipulator system
JPWO2017033351A1 (en) * 2015-08-25 2018-06-07 川崎重工業株式会社 Remote control robot system
EP3342541A4 (en) * 2015-08-25 2019-05-01 Kawasaki Jukogyo Kabushiki Kaisha Remote control robot system
US10980605B2 (en) 2015-08-25 2021-04-20 Kawasaki Jukogyo Kabushiki Kaisha Remote control robot system
JP2017164863A (en) * 2016-03-17 2017-09-21 ファナック株式会社 Robot control device for causing robot to execute machining operation, and robot program generation device
DE102017123088B4 (en) * 2016-10-07 2021-01-28 Fanuc Corporation Work support system comprising a machine learning unit
US10603793B2 (en) 2016-10-07 2020-03-31 Fanuc Corporation Work assisting system including machine learning unit
JP2019217607A (en) * 2018-06-21 2019-12-26 三菱電機株式会社 Teaching device, robot control system and teaching method
JP2021536633A (en) * 2018-09-05 2021-12-27 ヴァイケーリアス エフピーシー, インコーポレイテッドVicarious FPC, Inc. Methods and systems for understanding machine concepts
US11633860B2 (en) 2018-09-05 2023-04-25 Intrinsic Innovation Llc Method and system for machine concept understanding
JP7241450B2 (en) 2018-09-05 2023-03-17 イントリンシック イノベーション リミテッド ライアビリティー カンパニー METHOD AND SYSTEM FOR MACHINE CONCEPT UNDERSTANDING
JP2020175467A (en) * 2019-04-17 2020-10-29 アズビル株式会社 Teaching device and teaching method
JP2020175466A (en) * 2019-04-17 2020-10-29 アズビル株式会社 Teaching device and teaching method
DE102020124285B4 (en) 2019-09-20 2022-06-09 Nvidia Corporation Vision-based teleoperation of a moving robotic system
JP2022551885A (en) * 2019-10-11 2022-12-14 トヨタ モーター ヨーロッパ Methods and systems for determining three-dimensional positions of object grip points, local frames of reference and grip patterns
JP7385747B2 (en) 2019-10-11 2023-11-22 トヨタ モーター ヨーロッパ Method and system for determining the three-dimensional position, local reference frame, and grasping pattern of a grasping point on an object
JPWO2021260898A1 (en) * 2020-06-25 2021-12-30
WO2021260898A1 (en) * 2020-06-25 2021-12-30 株式会社日立ハイテク Robot teaching device and method for teaching work
JP7454046B2 (en) 2020-06-25 2024-03-21 株式会社日立ハイテク Robot teaching device and work teaching method
WO2022195680A1 (en) * 2021-03-15 2022-09-22 株式会社日立ハイテク Robot task teaching device and method for teaching task
JP7546143B2 (en) 2021-03-15 2024-09-05 株式会社日立ハイテク Robot work teaching device
WO2023203747A1 (en) * 2022-04-22 2023-10-26 株式会社日立ハイテク Robot teaching method and device
WO2023248602A1 (en) * 2022-06-20 2023-12-28 株式会社日立製作所 Robot teaching device and robot teaching method

Similar Documents

Publication Publication Date Title
JP2015071206A (en) Control device, robot, teaching data generation method, and program
JP2012254518A (en) Robot control system, robot system and program
JP6826069B2 (en) Robot motion teaching device, robot system and robot control device
JP2011110621A (en) Method of producing teaching data of robot and robot teaching system
JP2014180720A (en) Robot system and calibration method
Gu et al. Automated assembly skill acquisition and implementation through human demonstration
JP2015112654A (en) Control apparatus, robot, teaching data generation method, and robot system
JP2017170571A (en) Robot, robot control apparatus, and robot system
JP2016187846A (en) Robot, robot controller and robot system
Suzuki et al. Grasping of unknown objects on a planar surface using a single depth image
US20220203517A1 (en) Non-transitory storage medium and method and system of creating control program for robot
Zhu et al. Robot performing peg-in-hole operations by learning from human demonstration
JP7112528B2 (en) Work coordinate creation device
JP6390088B2 (en) Robot control system, robot, program, and robot control method
JP2018122376A (en) Image processing device, robot control device, and robot
JP5857803B2 (en) Industrial machine interference determination device, interference determination method, computer program, and recording medium
Cai et al. 6D image-based visual servoing for robot manipulators with uncalibrated stereo cameras
JP2015003348A (en) Robot control system, control device, robot, control method for robot control system and robot control method
JP6455869B2 (en) Robot, robot system, control device, and control method
Gu et al. Automated assembly skill acquisition through human demonstration
JP6123364B2 (en) Robot control system, robot, program, and robot control method
CN112171664A (en) Production line robot track compensation method, device and system based on visual identification
Stramandinoli et al. Robot learning from human demonstration in virtual reality
CN115556102B (en) Robot sorting and planning method and planning equipment based on visual recognition
JP2019111588A (en) Robot system, information processor, and program