JP2016013589A - Teaching device, and robot system - Google Patents

Teaching device, and robot system Download PDF

Info

Publication number
JP2016013589A
JP2016013589A JP2014136315A JP2014136315A JP2016013589A JP 2016013589 A JP2016013589 A JP 2016013589A JP 2014136315 A JP2014136315 A JP 2014136315A JP 2014136315 A JP2014136315 A JP 2014136315A JP 2016013589 A JP2016013589 A JP 2016013589A
Authority
JP
Japan
Prior art keywords
screen
teaching
unit
posture
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014136315A
Other languages
Japanese (ja)
Other versions
JP6488571B2 (en
Inventor
信之 説田
Nobuyuki Setsuda
信之 説田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014136315A priority Critical patent/JP6488571B2/en
Priority to CN201510367312.0A priority patent/CN105269578B/en
Priority to EP15174247.5A priority patent/EP2963513B1/en
Priority to US14/753,401 priority patent/US9981380B2/en
Publication of JP2016013589A publication Critical patent/JP2016013589A/en
Priority to US15/960,884 priority patent/US20180236661A1/en
Application granted granted Critical
Publication of JP6488571B2 publication Critical patent/JP6488571B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a teaching device capable of simply performing a teaching of high accuracy.SOLUTION: A teaching device for a robot to move a workpiece to predetermined place and position, comprises: a display for displaying a screen for setting predetermined place and position; an operation part for opening a screen; and an operation part for operating a predetermined place and position, in which the screen includes: a first screen for operating the robot to move the workpiece within an imaging range of an imaging device; and a second screen for moving the workpiece to target place and position. The operation part operates a predetermined place and position by using an imaging image of the workpiece taken by the imaging device, and the target place and position.

Description

この発明は、教示装置、及びロボットシステムに関する。   The present invention relates to a teaching device and a robot system.

従来から、ロボットにより把持された作業対象を所定の位置及び姿勢に整列させるロボットシステムが研究・開発されている。   2. Description of the Related Art Conventionally, research and development have been conducted on robot systems that align work objects held by a robot in a predetermined position and posture.

これに関連し、被把持部材の外観に拠らずに、被把持部材を損なうことなく確実に把持することができる適切な把持力で被把持部材を把持することができるロボットの制御方法が知られている(特許文献1参照)。   Related to this, there is known a control method for a robot that can grip a member to be gripped with an appropriate gripping force that can reliably grip the member to be gripped without damaging the member to be gripped without depending on the appearance of the member to be gripped. (See Patent Document 1).

特開2013−132726号公報JP 2013-132726 A

このような従来の方法では、前述の作業対象を所定の位置及び姿勢に正しく整列させるために、当該所定の位置及び姿勢をロボットに正確に教示する必要がある。また、その他の方法においても、作業対象の所定の位置及び姿勢をロボットに正確に教示することは重要である。しかし、従来の方法では、当該所定の位置及び姿勢を正確に教示することは困難であった。   In such a conventional method, in order to correctly align the above-described work target in a predetermined position and posture, it is necessary to accurately teach the predetermined position and posture to the robot. Also in other methods, it is important to accurately teach the robot the predetermined position and posture of the work target. However, with the conventional method, it is difficult to accurately teach the predetermined position and posture.

そこで本発明は、上記従来技術の問題に鑑みてなされたものであり、簡易に高精度の教示を行うことができる教示装置、及びロボットシステムを提供する。   Therefore, the present invention has been made in view of the above-described problems of the prior art, and provides a teaching apparatus and a robot system that can easily perform highly accurate teaching.

本発明の一態様は、ワークを所定の位置及び姿勢に移動させるロボットの教示装置であって、前記所定の位置及び姿勢を設定するための画面を表示する表示部と、前記画面を操作する操作部と、前記所定の位置及び姿勢を演算する演算部と、を含み、前記画面は、前記ロボットを動作させ、撮像装置の撮像範囲内に前記ワークを移動させるための第1画面と、目標位置及び姿勢に、前記ワークを移動させるための第2画面と、を含み、前記演算部は、前記撮像装置が前記ワークを撮像した撮像画像と前記目標位置及び姿勢とを用いて、前記所定の位置及び姿勢を演算する、教示装置である。
この構成により、教示装置は、ロボットを動作させ、撮像装置の撮像範囲内にワークを移動させるための第1画面と、目標位置及び姿勢に、ワークを移動させるための第2画面と、が操作部により操作されることにより、撮像装置がワークを撮像した撮像画像と目標位置及び姿勢とを用いて、所定の位置及び姿勢を演算する。これにより、教示装置は、簡易に高精度の教示を行うことができる。
One aspect of the present invention is a robot teaching apparatus that moves a workpiece to a predetermined position and posture, a display unit that displays a screen for setting the predetermined position and posture, and an operation for operating the screen A first screen for operating the robot and moving the work within the imaging range of the imaging device, and a target position. And a second screen for moving the workpiece in the posture, and the calculation unit uses the captured image obtained by the imaging device to capture the workpiece, the target position, and the predetermined position. And a teaching device for calculating a posture.
With this configuration, the teaching apparatus operates a first screen for operating the robot and moving the workpiece within the imaging range of the imaging device, and a second screen for moving the workpiece to the target position and posture. When operated by the unit, the imaging apparatus calculates a predetermined position and orientation using a captured image obtained by imaging the workpiece and a target position and orientation. Thereby, the teaching device can easily perform highly accurate teaching.

また、本発明の他の態様は、教示装置において、前記第1画面と前記第2画面のうちいずれか一方又は両方は、前記撮像装置により撮像された撮像画像が表示される領域を有する、構成が用いられてもよい。
この構成により、教示装置は、第1画面と第2画面のうちいずれか一方又は両方に、撮像装置により撮像された撮像画像を表示する。これにより、教示装置は、ユーザーに撮像画像を確認しながらロボットをジョグ操作によって移動させる環境を提供することができる。
According to another aspect of the present invention, in the teaching device, any one or both of the first screen and the second screen have a region in which a captured image captured by the imaging device is displayed. May be used.
With this configuration, the teaching device displays a captured image captured by the imaging device on one or both of the first screen and the second screen. Thereby, the teaching apparatus can provide an environment in which the robot is moved by a jog operation while confirming a captured image with the user.

また、本発明の他の態様は、教示装置において、前記第1画面と前記第2画面のうちいずれか一方又は両方は、作業手順が表示される領域を有する、構成が用いられてもよい。
この構成により、教示装置は、第1画面と第2画面のうちいずれか一方又は両方に、作業手順を表示する。これにより、教示装置は、ユーザーのマニュアルを読む手間を抑制させることで、ユーザーに効率的な作業を行わせることができる。
As another aspect of the present invention, in the teaching device, a configuration may be used in which one or both of the first screen and the second screen have an area where a work procedure is displayed.
With this configuration, the teaching apparatus displays a work procedure on one or both of the first screen and the second screen. Thereby, the teaching device can make the user perform an efficient operation by suppressing the trouble of reading the user's manual.

また、本発明の他の態様は、教示装置において、前記演算部は、前記第1画面を介して前記操作部により受け付けられた操作に基づいて前記撮像画像を用いて前記目標位置及び姿勢と前記所定の位置及び姿勢との間の相対的な位置及び姿勢を算出し、前記第2画面を介して前記操作部により受け付けられた操作に基づいて前記目標位置及び姿勢を取得し、算出された前記相対的な位置及び姿勢と、取得された前記目標位置及び姿勢とを用いて前記所定の位置及び姿勢を演算する、構成が用いられてもよい。
この構成により、教示装置は、第1画面を介して操作部により受け付けられた操作に基づいて撮像画像を用いて目標位置及び姿勢と所定の位置及び姿勢との間の相対的な位置及び姿勢を算出し、第2画面を介して操作部により受け付けられた操作に基づいて目標位置及び姿勢を取得し、算出された相対的な位置及び姿勢と、取得された目標位置及び姿勢とを用いて所定の位置及び姿勢を演算する。これにより、教示装置は、作業毎に目標位置及び姿勢と所定の位置及び姿勢との間の相対的な位置及び姿勢を算出することで、精度の高い作業を実現することができる。
According to another aspect of the present invention, in the teaching device, the calculation unit uses the captured image and the target position and posture based on an operation received by the operation unit via the first screen. Calculating a relative position and posture between a predetermined position and posture, obtaining the target position and posture based on an operation received by the operation unit via the second screen, and calculating the calculated position A configuration in which the predetermined position and orientation are calculated using the relative position and orientation and the acquired target position and orientation may be used.
With this configuration, the teaching device uses the captured image based on the operation received by the operation unit via the first screen to determine the relative position and posture between the target position and posture and the predetermined position and posture. Calculate and acquire the target position and orientation based on the operation received by the operation unit via the second screen, and use the calculated relative position and orientation and the acquired target position and orientation to determine Is calculated. Accordingly, the teaching device can realize a highly accurate operation by calculating a relative position and orientation between the target position and orientation and a predetermined position and orientation for each operation.

また、本発明の他の態様は、ワークを所定の位置及び姿勢に移動させるロボットと、前記ロボットに前記所定の位置及び姿勢を教示する教示装置と、を含み、前記教示装置は、前記所定の位置及び姿勢を設定するための画面を表示する表示部と、前記画面を操作する操作部と、前記所定の位置及び姿勢を演算する演算部と、を含み、前記画面は、前記ロボットを動作させ、撮像装置の撮像範囲内に前記ワークを移動させるための第1画面と、目標位置及び姿勢に、前記ワークを移動させるための第2画面と、を含み、前記演算部は、前記撮像装置が前記ワークを撮像した撮像画像と前記目標位置及び姿勢とを用いて、前記所定の位置及び姿勢を演算する、ロボットシステムである。
この構成により、ロボットシステムは、ロボットを動作させ、撮像装置の撮像範囲内にワークを移動させるための第1画面と、目標位置及び姿勢に、ワークを移動させるための第2画面と、が操作部により操作されることにより、撮像装置がワークを撮像した撮像画像と目標位置及び姿勢とを用いて、所定の位置及び姿勢を演算する。これにより、ロボットシステムは、簡易に高精度の教示を行うことができる。
Further, another aspect of the present invention includes a robot that moves a workpiece to a predetermined position and posture, and a teaching device that teaches the robot the predetermined position and posture, wherein the teaching device includes the predetermined device A display unit that displays a screen for setting a position and an orientation; an operation unit that operates the screen; and an arithmetic unit that calculates the predetermined position and orientation. The screen operates the robot. A first screen for moving the workpiece within an imaging range of the imaging device, and a second screen for moving the workpiece to a target position and posture, and the computing unit is configured to The robot system calculates the predetermined position and orientation using a captured image obtained by imaging the workpiece and the target position and orientation.
With this configuration, the robot system operates the first screen for operating the robot and moving the workpiece within the imaging range of the imaging device, and the second screen for moving the workpiece to the target position and posture. When operated by the unit, the imaging apparatus calculates a predetermined position and orientation using a captured image obtained by imaging the workpiece and a target position and orientation. Thereby, the robot system can perform highly accurate teaching easily.

以上により、教示装置、及びロボットシステムは、ロボットを動作させ、撮像装置の撮像範囲内にワークを移動させるための第1画面と、目標位置及び姿勢に、ワークを移動させるための第2画面と、が操作部により操作されることにより、撮像装置がワークを撮像した撮像画像と目標位置及び姿勢とを用いて、所定の位置及び姿勢を演算する。これにより、教示装置、及びロボットシステムは、簡易に高精度の教示を行うことができる。   As described above, the teaching device and the robot system operate the robot and move the workpiece into the imaging range of the imaging device, and the second screen for moving the workpiece to the target position and posture. Are operated by the operation unit, the image pickup apparatus calculates a predetermined position and posture using the picked-up image obtained by picking up the workpiece and the target position and posture. Thereby, the teaching device and the robot system can easily perform highly accurate teaching.

本実施形態に係るロボットシステム1においてロボット20が所定の作業を行う様子の一例と、ロボットシステム1の構成の一例とを示す図である。2 is a diagram illustrating an example of a state in which a robot 20 performs a predetermined work in the robot system 1 according to the present embodiment, and an example of a configuration of the robot system 1. FIG. ロボットシステム1が備える各装置による所定の作業に係る処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process which concerns on the predetermined | prescribed operation | work by each apparatus with which the robot system 1 is provided. 教示装置5のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the teaching apparatus. 教示装置5の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the teaching apparatus. 教示装置5が基準オフセットと目標点位置姿勢とを制御装置30に教示する処理の流れの一例を示すフローチャートである。5 is a flowchart illustrating an example of a flow of processing in which the teaching device 5 teaches a control device 30 with a reference offset and a target point position and orientation. 設定画面の一例を示す図である。It is a figure which shows an example of a setting screen. 第1教示画面の一例を示す図である。It is a figure which shows an example of a 1st teaching screen. 第1教示画面UI1及びジョグ画面UI1−1の一例を示す図である。It is a figure which shows an example of the 1st teaching screen UI1 and the jog screen UI1-1. 所定の撮像位置における作業対象Oと撮像部10の位置関係の一例を示す図である。It is a figure which shows an example of the positional relationship of the operation target O and the imaging part 10 in a predetermined imaging position. 第2教示画面の一例を示す図である。It is a figure which shows an example of a 2nd teaching screen. 第2教示画面UI2及びジョグ画面UI2−1の一例を示す図である。It is a figure which shows an example of the 2nd teaching screen UI2 and jog screen UI2-1. 設定完了画面の一例を示す図である。It is a figure which shows an example of a setting completion screen.

<概要>
まず、以下に示す実施形態に係るロボットシステム1の概要を説明し、その後により詳細な実施形態を説明する。図1は、本実施形態に係るロボットシステム1においてロボットシステム1の構成の一例を示すとともに、ロボット20が所定の作業を行う様子の一例を示す図である。ロボットシステム1は、教示装置5と、撮像部10と、把持部HND(エンドエフェクター)及びマニピュレーターMNPを備える単腕のロボット20と、制御装置30を具備する。本実施形態で、単腕のロボットとは、把持部HNDとマニピュレーターMNPにより構成される1本の腕を有するロボットを示す。
<Overview>
First, an outline of the robot system 1 according to the embodiment described below will be described, and then a more detailed embodiment will be described. FIG. 1 is a diagram illustrating an example of a configuration of the robot system 1 in the robot system 1 according to the present embodiment and an example of how the robot 20 performs a predetermined work. The robot system 1 includes a teaching device 5, an imaging unit 10, a single arm robot 20 including a gripping unit HND (end effector) and a manipulator MNP, and a control device 30. In the present embodiment, a single arm robot refers to a robot having one arm composed of a gripping unit HND and a manipulator MNP.

ロボットシステム1は、教示装置5に表示されたGUI(Graphical User Interface)をユーザーが操作することにより、ロボット20に所定の作業を行わせるために必要なパラメーター情報を、ロボット20に所定の作業を行わせる前にロボット20を制御する制御装置30に対して教示する。本実施形態で、所定の作業とは、ロボット20が把持部HNDにより作業対象Oを把持し、把持された作業対象Oを目標領域TAに配置することである。   The robot system 1 allows a user to operate a GUI (Graphical User Interface) displayed on the teaching device 5 to provide parameter information necessary for causing the robot 20 to perform a predetermined operation, and to perform a predetermined operation on the robot 20. Prior to the execution, the controller 30 that controls the robot 20 is taught. In the present embodiment, the predetermined work means that the robot 20 grasps the work object O by the grasping unit HND and arranges the grasped work object O in the target area TA.

図1に示したロボットシステム1は、この所定の作業において把持された作業対象Oを目標領域TAに配置する際、ロボット20に作業対象Oを所定の撮影位置まで移動させ、移動させた作業対象Oを撮像部10により撮像させる。そして、ロボットシステム1は、撮像部10により撮像された撮像画像に基づいて、把持部HNDにより把持された作業対象Oを目標領域TAに配置するようにロボット20を制御する。   The robot system 1 shown in FIG. 1 moves the work target O to a predetermined photographing position and moves the work target O to the robot 20 when placing the work target O gripped in the predetermined work in the target area TA. O is imaged by the imaging unit 10. Then, the robot system 1 controls the robot 20 based on the captured image captured by the imaging unit 10 so that the work target O gripped by the gripping unit HND is arranged in the target area TA.

この撮像画像に基づいて把持部HNDにより把持された作業対象Oを目標領域TAに配置するようにロボット20を制御する時、ロボットシステム1は、所定の作業を行う前に教示装置5により教示されたパラメーター情報を用いる。より具体的には、作業対象Oを目標領域TAに配置するとは、作業対象Oに予め設定された代表点OPの位置及び姿勢(以下、作業対象位置姿勢と称する)が目標領域TAの目標点TPの位置姿勢(以下、目標点位置姿勢と称する)に一致するように把持部HNDを移動させることである。目標点位置姿勢は、目標位置及び姿勢の一例である。   When the robot 20 is controlled so as to place the work object O gripped by the gripper HND on the target area TA based on the captured image, the robot system 1 is taught by the teaching device 5 before performing a predetermined work. Parameter information is used. More specifically, when the work target O is arranged in the target area TA, the position and posture of the representative point OP set in advance on the work target O (hereinafter referred to as work target position / posture) is the target point of the target area TA. This is to move the gripper HND so as to coincide with the position and orientation of the TP (hereinafter referred to as the target point position and orientation). The target point position / posture is an example of a target position and posture.

ここで、作業対象Oとは、ロボット20により把持可能な物体であり、例えば、ネジやボルト、歯車、治具等の工業用の部品等であるが、これらに限られず、ロボット20により把持可能であれば他の物体であってもよい。作業対象Oの代表点OPとは、制御装置30に予め設定された点であって作業対象Oの特徴的な点であり、この一例において、図1に示した作業対象Oの角の1つである。なお、この角は、ロボットシステム1が行う計算が容易になるため、目標領域TAに配置する時に底面となる面における角であることが好ましい。作業対象Oは、ワークの一例である。   Here, the work object O is an object that can be gripped by the robot 20, such as industrial parts such as screws, bolts, gears, and jigs, but is not limited thereto, and can be gripped by the robot 20. Any other object may be used. The representative point OP of the work target O is a point preset in the control device 30 and is a characteristic point of the work target O. In this example, one of the corners of the work target O illustrated in FIG. It is. Note that this angle is preferably the angle on the surface that becomes the bottom surface when the robot system 1 is arranged in the target area TA because the calculation performed by the robot system 1 is easy. The work target O is an example of a work.

目標領域TAとは、ロボット20により作業対象Oを配置させる領域であり、図1においては、テーブルTB上に設けられている。テーブルTBとは、例えば、ロボット20が作業対象Oを配置する台等である。目標点TPとは、ロボット20により作業対象Oが配置される目標領域TAにおける点であって作業対象Oが正しい位置姿勢で目標領域TAに配置された時に代表点OPが一致する点である。   The target area TA is an area in which the work target O is arranged by the robot 20 and is provided on the table TB in FIG. The table TB is, for example, a table on which the robot 20 places the work target O. The target point TP is a point in the target area TA where the work target O is placed by the robot 20, and the representative point OP coincides when the work target O is placed in the target area TA in the correct position and orientation.

ここで、図1に示したロボットシステム1は、ロボット20に把持部HNDを移動させる際、把持部HNDの制御点TCPの位置及び姿勢(以下、制御点位置姿勢と称する)を把持部HNDの位置及び姿勢として移動させる。把持部HNDの制御点TCPとは、制御装置30がロボット20の把持部HND及びマニピュレーターMNPを動かす時の把持部HNDの位置姿勢を表す点であり、この一例において、把持部HNDが設けられるマニピュレーターMNPの端部に備えられたフランジの中心点(ツール・センター・ポイント)を示す。   Here, when the robot system 1 shown in FIG. 1 moves the gripping part HND to the robot 20, the position and orientation of the control point TCP of the gripping part HND (hereinafter referred to as control point position and orientation) are controlled by the gripping part HND. Move as position and posture. The control point TCP of the gripper HND is a point representing the position and orientation of the gripper HND when the control device 30 moves the gripper HND and the manipulator MNP of the robot 20, and in this example, the manipulator provided with the gripper HND. The center point (tool center point) of the flange provided at the end of the MNP is shown.

この制御点位置姿勢は、一般的に(特殊な場合を除いて)作業対象位置姿勢とは一致しない。そのため、図1に示したロボットシステム1は、把持部HNDの制御点位置姿勢と作業対象位置姿勢との間の相対位置及び相対姿勢(以下、オフセットと称する)と、目標点位置姿勢とに基づいて、作業対象位置姿勢と目標点位置姿勢とが一致した時の制御点位置姿勢(以下、制御点目標位置姿勢と称する)を算出することで、作業対象Oを目標領域TAに所望の状態(すなわち、作業対象位置姿勢と目標点位置姿勢とが一致する状態)で配置することができる。ロボットシステム1は、算出された制御点目標位置姿勢に制御点位置姿勢が一致するように把持部HND(すなわち、制御点TCP)を移動させることで、作業対象Oを目標領域TAに所望の状態で配置することができる。制御点目標位置姿勢は、所定の位置及び姿勢の一例である。   This control point position / posture generally does not coincide with the work target position / posture (except in special cases). Therefore, the robot system 1 shown in FIG. 1 is based on the relative position and relative attitude (hereinafter referred to as offset) between the control point position and orientation of the gripper HND and the work target position and orientation, and the target point position and orientation. Thus, by calculating a control point position / posture (hereinafter referred to as control point target position / posture) when the work target position / posture coincides with the target point position / posture, the work target O is placed in a desired state ( In other words, the work target position / posture and the target point position / posture coincide with each other. The robot system 1 moves the gripper HND (that is, the control point TCP) so that the control point position / posture coincides with the calculated control point target position / posture, thereby bringing the work target O into the target area TA in a desired state. Can be arranged. The control point target position / posture is an example of a predetermined position and posture.

教示装置5は、この制御点目標位置姿勢を算出するために必要なオフセットと、目標点位置姿勢とを制御装置30に教示する。また、教示装置5は、専用のアプリケーションによって実現されるGUIによって、オフセットと目標点位置姿勢をユーザーが簡易に制御装置30に教示することができるインターフェースを、ユーザーに提供する。これにより、ロボットシステム1は、教示装置5により、簡易に高精度の教示を行うことができる。以下では、教示装置5により制御装置30に教示されたオフセットを、基準オフセットと称して説明する。   The teaching device 5 teaches the control device 30 about the offset required for calculating the control point target position and orientation and the target point position and orientation. In addition, the teaching device 5 provides the user with an interface that allows the user to easily teach the control device 30 about the offset and the target point position and orientation using a GUI realized by a dedicated application. Thereby, the robot system 1 can simply and highly accurately teach by the teaching device 5. Hereinafter, the offset taught to the control device 30 by the teaching device 5 will be referred to as a reference offset.

以下では、教示装置5によるこの教示について詳しく説明する。なお、ロボットシステム1は、教示装置5により制御装置30にオフセットと目標点位置姿勢の教示が行われた後、複数の作業対象Oに対して所定の作業を繰り返し行う。この繰り返し所定の作業を行う時、ロボットシステム1は、所定の作業を1回行う毎(すなわち、新しい作業対象Oを把持部HNDにより把持する毎)に、撮像部10により作業対象Oを撮像し、撮像された撮像画像に基づいてオフセットを算出する。以下では、この所定の作業を行っている最中に算出されるオフセットを、算出オフセットと称して説明する。   Hereinafter, this teaching by the teaching device 5 will be described in detail. The robot system 1 repeatedly performs a predetermined work on the plurality of work objects O after the teaching device 5 teaches the control device 30 the offset and the target point position and orientation. When the predetermined work is repeatedly performed, the robot system 1 images the work object O by the imaging unit 10 every time the predetermined work is performed once (that is, every time the new work object O is grasped by the grasping part HND). The offset is calculated based on the captured image. Hereinafter, the offset calculated during the predetermined work is referred to as a calculated offset.

算出オフセットは、新しい作業対象Oを把持する際に生じる誤差の影響のため、一般的に基準オフセットとは一致しない。ロボットシステム1は、基準オフセットと、目標点位置姿勢と、算出オフセットとに基づいて、この算出オフセットが実現している状態での制御点目標位置姿勢を算出する。これにより、ロボットシステム1は、ロボット20に高い精度で所定の作業を行わせることができる。これは、ロボットシステム1において、教示装置5が制御装置30に基準オフセットと目標点位置姿勢を教示することができた結果として得られる効果である。なお、所定の作業は、ロボット20が把持している作業対象Oを目標領域TAに配置することに代えて、作業対象Oの移動に係る他の作業であってもよい。   The calculated offset generally does not match the reference offset due to the influence of an error that occurs when gripping a new work object O. The robot system 1 calculates the control point target position and orientation in a state where the calculated offset is realized based on the reference offset, the target point position and orientation, and the calculated offset. Thereby, the robot system 1 can make the robot 20 perform a predetermined operation with high accuracy. This is an effect obtained as a result of the teaching device 5 in the robot system 1 being able to teach the control device 30 the reference offset and the target point position and orientation. The predetermined work may be another work related to the movement of the work object O, instead of placing the work object O held by the robot 20 in the target area TA.

ここで、図2を参照して、ロボットシステム1が備える各装置による所定の作業に係る処理について説明する。図2は、ロボットシステム1が備える各装置による所定の作業に係る処理の流れの一例を示すフローチャートである。まず、制御装置30は、作業対象Oを把持する(ステップS50)。次に、制御装置30は、作業対象Oを所定の撮像位置へ移動させる(ステップS51)。   Here, with reference to FIG. 2, a process related to a predetermined work by each device included in the robot system 1 will be described. FIG. 2 is a flowchart illustrating an example of a flow of processing related to a predetermined work performed by each device included in the robot system 1. First, the control device 30 holds the work object O (step S50). Next, the control device 30 moves the work target O to a predetermined imaging position (step S51).

次に、制御装置30は、教示装置5を介して撮像部10に撮像画像を撮像させる(ステップS52)。次に、教示装置5は、撮像部10に撮像された撮像画像に基づいて作業対象Oを検出する(ステップS53)。次に、教示装置5は、撮像部10により撮像された撮像画像に基づいて、ステップS53で検出された作業対象Oに係る算出オフセットを算出する(ステップS54)。そして、教示装置5は、算出された算出オフセットを制御装置30に出力する。   Next, the control device 30 causes the imaging unit 10 to capture a captured image via the teaching device 5 (step S52). Next, the teaching device 5 detects the work target O based on the captured image captured by the imaging unit 10 (step S53). Next, the teaching device 5 calculates a calculation offset related to the work target O detected in Step S53 based on the captured image captured by the imaging unit 10 (Step S54). Then, the teaching device 5 outputs the calculated calculation offset to the control device 30.

次に、制御装置30は、教示装置5から取得された算出オフセットと、教示装置5から教示された基準オフセット及び目標点位置姿勢とに基づいて、制御点目標位置姿勢を算出する(ステップS55)なお、教示装置5が制御点目標位置姿勢を算出し、教示装置5により算出された制御点目標位置姿勢を制御装置30が取得する構成であってもよい。次に、制御装置30は、ステップS55で算出された制御点目標位置姿勢に制御点位置姿勢が一致するようにロボット20を動かすことで、作業対象Oを目標領域TAに配置する(ステップS56)。   Next, the control device 30 calculates the control point target position and orientation based on the calculated offset acquired from the teaching device 5 and the reference offset and target point position and orientation taught from the teaching device 5 (step S55). The teaching device 5 may calculate the control point target position and orientation, and the control device 30 may acquire the control point target position and orientation calculated by the teaching device 5. Next, the control device 30 moves the robot 20 so that the control point position / posture coincides with the control point target position / posture calculated in step S55, thereby placing the work target O in the target area TA (step S56). .

<実施形態>
以下、本発明の実施形態について、図面を参照して説明する。前述した通り、図1に示した本実施形態に係るロボットシステム1は、教示装置5と、撮像部10と、ロボット20と、制御装置30を具備する。
<Embodiment>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. As described above, the robot system 1 according to the present embodiment illustrated in FIG. 1 includes the teaching device 5, the imaging unit 10, the robot 20, and the control device 30.

教示装置5は、例えば、ノートPC(Personal Computer)であるとするが、これに代えて、デスクトップPCやタブレットPC、携帯電話端末、多機能携帯電話端末(スマートフォン)、PDA(Personal Digital Assistant)等であってもよい。教示装置5は、撮像部10とケーブルによって通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。なお、教示装置5と撮像部10とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続される構成であってもよい。   The teaching device 5 is, for example, a notebook PC (Personal Computer). Instead, a desktop PC, a tablet PC, a mobile phone terminal, a multi-function mobile phone terminal (smartphone), a PDA (Personal Digital Assistant), etc. It may be. The teaching device 5 is communicably connected to the imaging unit 10 via a cable. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB (Universal Serial Bus), for example. The teaching device 5 and the imaging unit 10 may be connected by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

教示装置5は、撮像部10から撮像画像を取得する。また、教示装置5は、専用のアプリケーションがインストールされており、そのアプリケーションが実現するGUIを表示する。教示装置5は、GUIを介してユーザーからの操作を受け付け、受け付けられた操作と、撮像部10から取得された撮像画像とに基づいて、作業対象Oの作業対象位置姿勢と目標点TPの制御点位置姿勢との間の基準オフセットを算出する。   The teaching device 5 acquires a captured image from the imaging unit 10. The teaching device 5 has a dedicated application installed therein, and displays a GUI realized by the application. The teaching device 5 receives an operation from the user via the GUI, and controls the work target position and orientation of the work target O and the target point TP based on the received operation and the captured image acquired from the imaging unit 10. A reference offset between the point position and orientation is calculated.

また、教示装置5は、ユーザーがジョグ操作によって把持部HNDを移動させることで作業対象位置姿勢と目標点位置姿勢とを一致させた後、GUIを介してユーザーからの操作を受け付け、制御装置30から制御点目標位置姿勢を示す情報を取得する。そして、教示装置5は、取得された制御点目標位置姿勢と、算出された基準オフセットとに基づいて、目標領域TAの目標点位置姿勢を算出する。これにより、教示装置5は、撮像部により目標領域TAを含む範囲を撮像し、撮像された撮像画像に基づいて目標点位置姿勢を検出する処理を必要とせず、目標点位置姿勢を制御装置30に教示することができる。なお、ジョグ操作を行うためのジョグは、教示装置5に備えられていてもよく、制御装置30に備えられていてもよい。ジョグが教示装置5に備えられている場合、教示装置5は、制御装置30を介してロボット20をジョグ操作によって動かす。   In addition, the teaching device 5 accepts an operation from the user via the GUI after the user moves the gripping part HND by a jog operation so that the work target position / posture coincides with the target point position / posture. To obtain information indicating the control point target position and orientation. Then, the teaching device 5 calculates the target point position and orientation of the target area TA based on the acquired control point target position and orientation and the calculated reference offset. Thereby, the teaching device 5 captures the range including the target area TA by the imaging unit, and does not require processing for detecting the target point position and orientation based on the captured image, and the control unit 30 determines the target point position and orientation. Can be taught. The jog for performing the jog operation may be provided in the teaching device 5 or in the control device 30. When the jog is provided in the teaching device 5, the teaching device 5 moves the robot 20 by a jog operation via the control device 30.

教示装置5は、基準オフセットを示す情報と目標点位置姿勢を制御装置30に出力(教示)する。なお、教示装置5は、基準オフセットを示す情報のみを制御装置30に出力する構成であってもよい。この場合、制御装置30には、予め目標点位置姿勢が記憶されているものとする。以下では、教示装置5は、基準オフセットを示す情報と目標点位置姿勢を制御装置30に出力するとして説明する。   The teaching device 5 outputs (teaches) information indicating the reference offset and the target point position and orientation to the control device 30. The teaching device 5 may be configured to output only information indicating the reference offset to the control device 30. In this case, it is assumed that the target point position and orientation are stored in the control device 30 in advance. Hereinafter, the teaching device 5 will be described assuming that information indicating the reference offset and the target point position and orientation are output to the control device 30.

また、教示装置5は、ロボットシステム1がロボット20に所定の作業を行わせている時、制御装置30からの要求に応じて撮像部10に作業対象Oを含む範囲を撮像させる。そして、教示装置5は、撮像された撮像画像に基づいて算出オフセットを算出する。教示装置5は、制御装置30からの要求に応じて、所定の作業毎に算出オフセットを算出し、基準オフセットと、目標点位置姿勢と、算出オフセットに基づいて、所定の作業毎に制御点目標位置姿勢を算出する。この場合、教示装置5は、算出された制御点目標位置姿勢を示す情報を制御装置30に出力する。また、他の構成例として、教示装置5は、制御装置30からの要求に応じて、所定の作業毎に算出オフセットを示す情報を制御装置30に出力する。この場合、教示装置5は、制御点目標位置姿勢を算出せず、制御装置30が制御点目標位置姿勢を算出する。   In addition, when the robot system 1 causes the robot 20 to perform a predetermined work, the teaching device 5 causes the imaging unit 10 to image a range including the work target O in response to a request from the control device 30. Then, the teaching device 5 calculates a calculation offset based on the captured image. The teaching device 5 calculates a calculated offset for each predetermined operation in response to a request from the control device 30, and controls the control point target for each predetermined operation based on the reference offset, the target point position and orientation, and the calculated offset. Calculate the position and orientation. In this case, the teaching device 5 outputs information indicating the calculated control point target position and orientation to the control device 30. As another configuration example, the teaching device 5 outputs information indicating the calculated offset to the control device 30 for each predetermined work in response to a request from the control device 30. In this case, the teaching device 5 does not calculate the control point target position and orientation, and the control device 30 calculates the control point target position and orientation.

撮像部10は、例えば、集光された光を電気信号に変換する撮像素子であるCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を備えたカメラである。また、撮像部10は、単眼のカメラであるが、例えば、ステレオカメラのように2台以上のカメラによって構成されてもよい。   The imaging unit 10 is a camera including, for example, a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like, which is an imaging element that converts collected light into an electrical signal. Moreover, although the imaging part 10 is a monocular camera, it may be comprised by 2 or more cameras like a stereo camera, for example.

撮像部10は、ケーブルによって教示装置5と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、撮像部10と教示装置5とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続される構成であってもよい。また、撮像部10と教示装置5とは、別体ではなく、一体の構成であってもよい。   The imaging unit 10 is connected to the teaching device 5 via a cable so as to be communicable. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. Note that the imaging unit 10 and the teaching device 5 may be configured to be connected by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark). In addition, the imaging unit 10 and the teaching device 5 may be integrated instead of separate.

撮像部10は、作業対象Oを把持している把持部HNDが所定の撮像位置に移動された時に、前述した制御点TCPと、把持部HNDにより把持された作業対象Oの代表点OPとを含む範囲(以下、撮像範囲と称する)を撮像可能な位置に設置される。また、図1において、撮像部10は、鉛直下方から鉛直上方に向けて前述の撮像範囲を撮像可能な位置に設置されている。   The imaging unit 10 uses the control point TCP and the representative point OP of the work target O gripped by the gripping part HND when the gripping part HND gripping the work target O is moved to a predetermined imaging position. It is installed at a position where an image can be captured in a range (hereinafter referred to as an imaging range). Moreover, in FIG. 1, the imaging part 10 is installed in the position which can image the above-mentioned imaging range from the vertically downward direction to the vertically upward direction.

なお、撮像部10は、鉛直下方から鉛直上方に向けて前述の撮像範囲を撮像可能な位置に設置されている構成に代えて、水平方向に撮像範囲を撮像可能な位置に設置される構成であってもよく、鉛直上方から鉛直下方に向けて撮像範囲を撮像可能な位置に設置される構成であってもよく、他の方向から撮像範囲を撮像可能に設置される構成であってもよい。また、撮像部10は、動画像を撮像画像として撮像する構成であるとするが、これに代えて、静止画像や半静止画像を撮像画像として撮像する構成であってもよい。撮像部10は、撮像装置の一例である。   Note that the imaging unit 10 is configured to be installed at a position where the imaging range can be imaged in the horizontal direction, instead of being configured at a position where the imaging range can be imaged from vertically downward to vertically upward. It may be configured to be installed at a position where the imaging range can be imaged from vertically upward to vertically downward, or may be configured to be able to image the imaging range from other directions. . Further, although the imaging unit 10 is configured to capture a moving image as a captured image, the imaging unit 10 may be configured to capture a still image or a semi-still image as a captured image instead. The imaging unit 10 is an example of an imaging device.

ロボット20は、例えば、把持部HNDと、マニピュレーターMNPと、図示しない複数のアクチュエーターを備えた単腕のロボットである。なお、ロボット20は、単腕のロボットに代えて、スカラーロボット(水平多関節ロボット)や双腕のロボット等であってもよい。スカラーロボットとは、マニピュレーターが水平方向にのみ動き、マニピュレーターの先端のスライド軸のみが上下に動くロボットである。また、双腕のロボットとは、把持部HNDとマニピュレーターMNPによりそれぞれ構成される2本の腕を有するロボットを示す。   The robot 20 is, for example, a single-arm robot including a gripping unit HND, a manipulator MNP, and a plurality of actuators (not shown). The robot 20 may be a scalar robot (horizontal articulated robot), a double-arm robot, or the like instead of the single-arm robot. A scalar robot is a robot in which the manipulator moves only in the horizontal direction and only the slide shaft at the tip of the manipulator moves up and down. Further, the double-armed robot refers to a robot having two arms each constituted by a gripper HND and a manipulator MNP.

ロボット20の腕は、6軸垂直多関節型となっており、支持台とマニピュレーターMNPと把持部HNDとがアクチュエーターによる連携した動作によって6軸の自由度の動作を行うことができる。なお、ロボット20の腕は、5自由度(5軸)以下で動作するものであってもよいし、7自由度(7軸)以上で動作するものであってもよい。以下では、把持部HND及びマニピュレーターMNPを備えた腕によって行われるロボット20の動作について説明する。なお、ロボット20の把持部HNDには、物体を把持可能な爪部が備えられている。   The arm of the robot 20 is a 6-axis vertical articulated type, and the support base, the manipulator MNP, and the gripping part HND can perform an operation with 6 degrees of freedom by an operation in which the actuator is linked. The arm of the robot 20 may operate with 5 degrees of freedom (5 axes) or less, or may operate with 7 degrees of freedom (7 axes) or more. Below, the operation | movement of the robot 20 performed with the arm provided with the holding part HND and the manipulator MNP is demonstrated. Note that the grip portion HND of the robot 20 includes a claw portion that can grip an object.

ロボット20は、例えばケーブルによって制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、ロボット20と制御装置30とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続されてもよい。また、ロボットシステム1では、ロボット20は、図1に示したようにロボット20の外部に設置された制御装置30と接続されている構成とするが、この構成に代えて、制御装置30がロボット20に内蔵されている構成であってもよい。
ロボット20は、制御装置30が生成した制御信号を取得し、取得した制御信号に基づいてロボット20の把持部HNDとマニピュレーターMNPを移動させる。
The robot 20 is communicably connected to the control device 30 by a cable, for example. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. The robot 20 and the control device 30 may be connected by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark). Further, in the robot system 1, the robot 20 is configured to be connected to the control device 30 installed outside the robot 20 as shown in FIG. The structure built in 20 may be sufficient.
The robot 20 acquires the control signal generated by the control device 30, and moves the grip unit HND and the manipulator MNP of the robot 20 based on the acquired control signal.

制御装置30は、教示装置5からの要求に応じて、教示装置5により教示が行われている状態であってユーザーによるジョグ操作によって作業対象位置姿勢と目標点位置姿勢とが一致している状態が実現している時の制御点位置姿勢(すなわち、制御点目標位置姿勢)を示す情報を教示装置5に出力する。その後、制御装置30は、教示装置5から基準オフセットを示す情報と、目標点位置姿勢を示す情報とを取得する。   The control device 30 is in a state where teaching is performed by the teaching device 5 in response to a request from the teaching device 5, and the work target position / posture coincides with the target point position / posture by a jog operation by the user. Is output to the teaching device 5 as information indicating the control point position and orientation (that is, the control point target position and orientation). Thereafter, the control device 30 acquires information indicating the reference offset and information indicating the target point position and orientation from the teaching device 5.

また、制御装置30は、ロボットシステム1によりロボット20に所定の作業を行わせている時、撮像された撮像画像であって教示装置5が取得した撮像画像に基づいて、教示装置5に算出オフセットを算出させる。制御装置30は、教示装置5から算出された算出オフセットを取得する。制御装置30は、基準オフセットと、目標点位置姿勢と、算出オフセットとに基づいて、所定の作業が行われている時の制御点目標位置姿勢を算出する。   Further, when the robot system 1 causes the robot 20 to perform a predetermined operation, the control device 30 calculates a calculated offset to the teaching device 5 based on a captured image that is captured and acquired by the teaching device 5. Is calculated. The control device 30 acquires the calculated offset calculated from the teaching device 5. The control device 30 calculates the control point target position and orientation when a predetermined work is being performed based on the reference offset, the target point position and orientation, and the calculated offset.

次に、図3を参照して、教示装置5のハードウェア構成について説明する。図3は、教示装置5のハードウェア構成の一例を示す図である。教示装置5は、例えば、CPU(Central Processing Unit)51と、記憶部52と、入力受付部53と、通信部54と、表示部55を備え、通信部54を介して制御装置30と通信を行う。これらの構成要素は、バスBusを介して相互に通信可能に接続されている。CPU51は、記憶部52に格納された各種プログラムを実行する。   Next, the hardware configuration of the teaching device 5 will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of a hardware configuration of the teaching device 5. The teaching device 5 includes, for example, a central processing unit (CPU) 51, a storage unit 52, an input receiving unit 53, a communication unit 54, and a display unit 55, and communicates with the control device 30 via the communication unit 54. Do. These components are connected to each other via a bus Bus so that they can communicate with each other. The CPU 51 executes various programs stored in the storage unit 52.

記憶部52は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、ROM(Read−Only Memory)、RAM(Random Access Memory)などを含み、教示装置5が処理する各種情報や画像、プログラムを格納する。なお、記憶部52は、教示装置5に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置でもよい。   The storage unit 52 includes, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), an EEPROM (Electrically Erasable Programmable Read-Only Memory), a ROM (Read-Only Memory), a RAM (Random Access Memory), and the like. Various information, images, and programs processed by the teaching device 5 are stored. The storage unit 52 may be an external storage device connected by a digital input / output port or the like such as a USB instead of the one built in the teaching device 5.

入力受付部53は、例えば、キーボードやマウス、タッチパッド、その他の入力装置である。なお、入力受付部53は、表示部として機能することでタッチパネルとして構成されてもよい。入力受付部53は、操作部の一例である。
通信部54は、例えば、USB等のデジタル入出力ポートやイーサネットポート等を含んで構成される。
表示部55は、例えば、液晶ディスプレイパネル、あるいは、有機EL(ElectroLuminescence)ディスプレイパネルである。
The input receiving unit 53 is, for example, a keyboard, mouse, touch pad, or other input device. In addition, the input reception part 53 may be comprised as a touch panel by functioning as a display part. The input receiving unit 53 is an example of an operation unit.
The communication unit 54 includes, for example, a digital input / output port such as a USB or an Ethernet port.
The display unit 55 is, for example, a liquid crystal display panel or an organic EL (ElectroLuminescence) display panel.

次に、図4を参照して、教示装置5の機能構成について説明する。図4は、教示装置5の機能構成の一例を示す図である。教示装置5は、入力受付部53と、通信部54と、表示部55と、画像取得部56と、制御部60を備える。制御部60が備える機能部のうち一部又は全部は、例えば、CPU51が、記憶部52に記憶された各種プログラムを実行することで実現される。また、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。   Next, the functional configuration of the teaching device 5 will be described with reference to FIG. FIG. 4 is a diagram illustrating an example of a functional configuration of the teaching device 5. The teaching device 5 includes an input receiving unit 53, a communication unit 54, a display unit 55, an image acquisition unit 56, and a control unit 60. Part or all of the functional units included in the control unit 60 is realized by the CPU 51 executing various programs stored in the storage unit 52, for example. Some or all of these functional units may be hardware functional units such as LSI (Large Scale Integration) and ASIC (Application Specific Integrated Circuit).

画像取得部56は、撮像部10から撮像画像を取得する。画像取得部56は、取得された撮像画像を制御部60に出力する。
制御部60は、表示制御部61と、演算部62と、通信制御部67と、撮像制御部68を備える。制御部60は、教示装置5の全体を制御する。
The image acquisition unit 56 acquires a captured image from the imaging unit 10. The image acquisition unit 56 outputs the acquired captured image to the control unit 60.
The control unit 60 includes a display control unit 61, a calculation unit 62, a communication control unit 67, and an imaging control unit 68. The control unit 60 controls the entire teaching device 5.

表示制御部61は、取得された撮像画像に基づいて、基準オフセットと目標点位置姿勢とを制御装置30に教示するためのGUIを生成し、生成されたGUIを表示する。より具体的には、表示制御部61は、入力受付部53により受け付けられたユーザーからの操作に基づいて、基準オフセットを算出するための画面(GUI)を第1教示画面として生成する。表示制御部61は、生成された第1教示画面を表示するように表示部55を制御する。また、表示制御部61は、目標点位置姿勢を算出するための画面を第2教示画面として生成する。表示制御部61は、入力受付部53により受け付けられたユーザーからの操作に基づいて、第2教示画面を表示するように表示部55を制御する。   The display control unit 61 generates a GUI for teaching the control device 30 of the reference offset and the target point position and orientation based on the acquired captured image, and displays the generated GUI. More specifically, the display control unit 61 generates a screen (GUI) for calculating a reference offset as a first teaching screen based on an operation from the user received by the input receiving unit 53. The display control unit 61 controls the display unit 55 to display the generated first teaching screen. Further, the display control unit 61 generates a screen for calculating the target point position and orientation as the second teaching screen. The display control unit 61 controls the display unit 55 to display the second teaching screen based on the operation from the user received by the input receiving unit 53.

演算部62は、第1算出部63と、第2算出部64と、第3算出部65を備える。
第1算出部63は、画像取得部56から取得された撮像画像に基づいて、作業対象Oの制御点位置姿勢と作業対象位置姿勢の間の基準オフセット又は算出オフセットを算出(演算)する。また、第1算出部63は、基準オフセットを算出すると、算出された基準オフセットを記憶部52に記憶させる。
The calculation unit 62 includes a first calculation unit 63, a second calculation unit 64, and a third calculation unit 65.
The first calculation unit 63 calculates (calculates) a reference offset or a calculation offset between the control point position and orientation of the work target O and the work target position and posture based on the captured image acquired from the image acquisition unit 56. Further, after calculating the reference offset, the first calculation unit 63 stores the calculated reference offset in the storage unit 52.

第2算出部64は、通信制御部67により通信部54を介して制御点目標位置姿勢を示す情報を制御装置30から取得する。第2算出部64は、記憶部52から基準オフセットを読み込む。第2算出部64は、制御装置30から取得された制御点目標位置姿勢と、記憶部52から読み込まれた(すなわち、第1算出部63により算出された)基準オフセットとに基づいて、目標点位置姿勢を算出(演算)する。   The second calculation unit 64 acquires information indicating the control point target position and orientation from the control device 30 via the communication unit 54 by the communication control unit 67. The second calculation unit 64 reads the reference offset from the storage unit 52. Based on the control point target position and orientation acquired from the control device 30 and the reference offset read from the storage unit 52 (that is, calculated by the first calculation unit 63), the second calculation unit 64 sets the target point. Calculate (calculate) the position and orientation.

第3算出部65は、記憶部52から基準オフセットを読み込む。第3算出部65は、記憶部52から読み込まれた(すなわち、第1算出部63により算出された)基準オフセットと、第1算出部63により算出された算出オフセットと、第2算出部により算出された目標点位置姿勢とに基づいて、ロボットシステム1がロボット20に所定の作業を行わせている時の制御点目標位置姿勢を算出(演算)する。   The third calculation unit 65 reads the reference offset from the storage unit 52. The third calculation unit 65 is calculated by the reference offset read from the storage unit 52 (that is, calculated by the first calculation unit 63), the calculation offset calculated by the first calculation unit 63, and the second calculation unit. Based on the target point position and orientation, the robot system 1 calculates (calculates) the control point target position and orientation when the robot 20 is performing a predetermined operation.

通信制御部67は、表示制御部61により表示部55に表示された第1教示画面に対して入力受付部53から受け付けられたユーザーからの操作に基づいて、第1算出部63により算出された基準オフセットを制御装置30に出力するように通信部54を制御する。また、通信制御部67は、表示制御部61により表示部55に表示された第2教示画面に対して入力受付部53から受け付けられたユーザーからの操作に基づいて、第2算出部64により算出された目標点位置姿勢を制御装置30に出力するように通信部54を制御する。また、通信制御部67は、制御装置30からの要求に応じて、第1算出部63により算出された算出オフセット又は第3算出部65により算出された制御点目標位置姿勢を制御装置30に出力する。
撮像制御部68は、撮像部10に撮像可能な範囲を撮像するように制御する。
The communication control unit 67 is calculated by the first calculation unit 63 based on a user operation received from the input reception unit 53 with respect to the first teaching screen displayed on the display unit 55 by the display control unit 61. The communication unit 54 is controlled so as to output the reference offset to the control device 30. In addition, the communication control unit 67 is calculated by the second calculation unit 64 based on the operation from the user received from the input reception unit 53 with respect to the second teaching screen displayed on the display unit 55 by the display control unit 61. The communication unit 54 is controlled so as to output the target position / orientation thus set to the control device 30. Further, the communication control unit 67 outputs the calculated offset calculated by the first calculation unit 63 or the control point target position and orientation calculated by the third calculation unit 65 to the control device 30 in response to a request from the control device 30. To do.
The imaging control unit 68 controls the imaging unit 10 to capture an imageable range.

以下、図5を参照して、教示装置5が基準オフセットと目標点位置姿勢とを制御装置30に教示する処理について説明する。図5は、教示装置5が基準オフセットと目標点位置姿勢とを制御装置30に教示する処理の流れの一例を示すフローチャートである。まず、表示制御部61は、入力受付部53により受け付けられたユーザーからの操作に基づいて、設定画面を表示する(ステップS80)。次に、教示装置5の制御部60は、入力受付部53により設定画面を介したユーザーからの操作を受け付ける(ステップS90)。ここで、図6を参照して、設定画面について説明する。図6は、設定画面の一例を示す図である。   Hereinafter, a process in which the teaching device 5 teaches the control device 30 the reference offset and the target point position and orientation will be described with reference to FIG. FIG. 5 is a flowchart showing an example of the flow of processing in which the teaching device 5 teaches the control device 30 the reference offset and the target point position and orientation. First, the display control unit 61 displays a setting screen based on an operation from the user received by the input receiving unit 53 (step S80). Next, the control unit 60 of the teaching device 5 receives an operation from the user via the setting screen by the input receiving unit 53 (step S90). Here, the setting screen will be described with reference to FIG. FIG. 6 is a diagram illustrating an example of the setting screen.

表示制御部61は、画像取得部56から撮像部10により撮像された撮像画像を取得し、取得された撮像画像を領域V1に表示させる。また、表示制御部61は、図6に示した設定画面中のプロパティー欄Q1を表示させる。プロパティー欄Q1とは、教示装置5によって制御装置30に教示することが可能な項目の一覧を表示する欄であり、その項目毎の名称と、その項目毎の設定値とが対応付けられて表示される欄である。   The display control unit 61 acquires the captured image captured by the imaging unit 10 from the image acquisition unit 56, and displays the acquired captured image in the region V1. Further, the display control unit 61 displays the property column Q1 in the setting screen shown in FIG. The property column Q1 is a column for displaying a list of items that can be taught to the control device 30 by the teaching device 5, and the name for each item and the setting value for each item are displayed in association with each other. It is a column to be done.

ここで、入力受付部53を介してユーザーがプロパティー:CalRobotPlacePos(前記の項目の一例)に対応付けられた設定値の欄B0のClick to calibrateB0を押す(クリックする)と、表示制御部61は、ステップS100で説明する第1教示画面を表示する。   Here, when the user presses (clicks) Click to calibrate B0 in the setting value field B0 associated with the property: CalRobotPlacePos (an example of the above item) via the input reception unit 53, the display control unit 61 A first teaching screen described in step S100 is displayed.

また、表示制御部61は、図6に示した設定画面中のリザルト欄Q2を表示させる。リザルト欄Q2とは、撮像部10により撮像された撮像画像に基づいて、すでに検出された情報であって制御装置30に教示する各種の情報を表示する欄であり、その項目毎の名称と、その項目毎の検出結果とが対応付けられて表示される欄である。   Moreover, the display control part 61 displays the result column Q2 in the setting screen shown in FIG. The result column Q2 is a column for displaying various types of information that is already detected and taught to the control device 30 based on the captured image captured by the imaging unit 10, and includes a name for each item, This is a column in which the detection results for each item are displayed in association with each other.

以下では、ステップS90でユーザーが入力受付部53を介して図6に示したボタンB0を押したとして説明する。次に、表示制御部61は、ステップS90で入力受付部53により受け付けられたユーザーからの操作(すなわち、ボタンB0を押す操作)に基づいて、第1教示画面を生成する。そして、表示制御部61は、生成された第1教示画面を表示するように表示部55を制御する(ステップS100)。   In the following description, it is assumed that the user has pressed the button B0 shown in FIG. Next, the display control unit 61 generates a first teaching screen based on an operation from the user (that is, an operation of pressing the button B0) received by the input receiving unit 53 in step S90. Then, the display control unit 61 controls the display unit 55 so as to display the generated first teaching screen (step S100).

次に、教示装置5の制御部60は、入力受付部53により第1教示画面を介したユーザーからの操作を受け付ける(ステップS110)。ここで、図7を参照して、第1教示画面について説明する。図7は、第1教示画面の一例を示す図である。第1教示画面UI1には、第1教示画面UI1を介して制御装置30に教示を行う際の手順を示すための説明画像E1が表示される。この説明画像E1の説明に従うことで、ユーザーは、マニュアルを読むことなく容易に制御装置30へ教示を行うための操作を行うことができる。   Next, the control unit 60 of the teaching device 5 receives an operation from the user via the first teaching screen by the input receiving unit 53 (step S110). Here, the first teaching screen will be described with reference to FIG. FIG. 7 is a diagram illustrating an example of the first teaching screen. On the first teaching screen UI1, an explanation image E1 for displaying a procedure for teaching the control device 30 via the first teaching screen UI1 is displayed. By following the explanation of the explanation image E1, the user can easily perform an operation for teaching the control device 30 without reading the manual.

また、第1教示画面UI1には、説明画像E1に加えて、さらに撮像部10により撮像された撮像画像が領域P1に表示される。表示制御部61は、画像取得部56から撮像部10により撮像された撮像画像を取得し、取得された撮像画像を領域P1に表示させる。ユーザーは、第1教示画面UI1が表示部55に表示されると、第1教示画面UI1内に表示されるボタンB1を押す。これにより、ユーザーは、説明画像E1に示された内容の手順に沿って制御装置30へ教示を行うための操作を行うことができる。   In addition to the explanation image E1, a captured image captured by the imaging unit 10 is displayed in the region P1 on the first teaching screen UI1. The display control unit 61 acquires the captured image captured by the imaging unit 10 from the image acquisition unit 56, and displays the acquired captured image in the region P1. When the first teaching screen UI1 is displayed on the display unit 55, the user presses the button B1 displayed in the first teaching screen UI1. Thereby, the user can perform an operation for teaching the control device 30 along the procedure of the contents shown in the explanation image E1.

ユーザーがボタンB1を押すと、表示制御部61は、図8に示すように、第1教示画面UI1のサブ画面としてジョグ画面UI1−1を表示させる。図8は、第1教示画面UI1及びジョグ画面UI1−1の一例を示す図である。ジョグ画面UI1−1には、領域JGに、ロボット20の把持部HNDの制御点をユーザーの所望の位置へ動かすための複数のボタンが表示される。例えば、+Xボタンは、把持部HNDの制御点をX軸の正方向へ移動させるボタンであり、−Xボタンは、把持部HNDの制御点をX軸の負方向へ移動させるボタンである。   When the user presses the button B1, the display control unit 61 displays the jog screen UI1-1 as a sub screen of the first teaching screen UI1, as shown in FIG. FIG. 8 is a diagram illustrating an example of the first teaching screen UI1 and the jog screen UI1-1. On the jog screen UI1-1, a plurality of buttons for moving the control point of the gripper HND of the robot 20 to a user's desired position is displayed in the area JG. For example, the + X button is a button that moves the control point of the gripper HND in the positive direction of the X axis, and the −X button is a button that moves the control point of the gripper HND in the negative direction of the X axis.

また、+Yボタンは、把持部HNDの制御点をY軸の正方向へ移動させるボタンであり、−Yボタンは、把持部HNDの制御点をY軸の負方向へ移動させるボタンである。また、+Zボタンは、把持部HNDの制御点をZ軸の正方向へ移動させるボタンであり、−Zボタンは、把持部HNDの制御点をZ軸の負方向へ移動させるボタンである。   The + Y button is a button for moving the control point of the gripper HND in the positive direction of the Y axis, and the -Y button is a button for moving the control point of the gripper HND in the negative direction of the Y axis. The + Z button is a button for moving the control point of the gripping part HND in the positive direction of the Z axis, and the -Z button is a button for moving the control point of the gripping part HND in the negative direction of the Z axis.

また、+Uボタンは、把持部HNDの制御点をX軸周りに正方向へ回転させるボタンであり、−Uボタンは、把持部HNDの制御点をX軸周りに負方向へ回転させるボタンである。また、+Vボタンは、把持部HNDの制御点をY軸周りに正方向へ回転させるボタンであり、−Vボタンは、把持部HNDの制御点をY軸周りに負方向へ回転させるボタンである。また、+Wボタンは、把持部HNDの制御点をZ軸周りに正方向へ回転させるボタンであり、−Wボタンは、把持部HNDの制御点をZ軸周りに負方向へ回転させるボタンである。   The + U button is a button for rotating the control point of the gripping part HND in the positive direction around the X axis, and the -U button is a button for rotating the control point of the gripping part HND in the negative direction around the X axis. . The + V button is a button that rotates the control point of the gripping part HND in the positive direction around the Y axis, and the -V button is a button that rotates the control point of the gripping part HND in the negative direction around the Y axis. . The + W button is a button that rotates the control point of the gripper HND in the positive direction around the Z axis, and the -W button is a button that rotates the control point of the gripper HND in the negative direction around the Z axis. .

また、表示制御部61は、例えば、制御点のロボット座標系における現在の座標等をジョグ画面UI1−1に表示させる。ユーザーは、図8に示したジョグ画面UI1−1が表示部55に表示されると、第1教示画面UI1内に表示される説明画像E1により示される手順に従って、ロボット20に作業対象Oを把持部HNDにより把持させる。そして、ユーザーは、作業対象Oを把持しているロボット20の把持部HNDを所定の撮像位置まで移動させる。ユーザーは、この作業対象Oの把持部HNDによる把持と、作業対象Oの所定の撮像位置までの移動とを、ジョグ画面UI1−1を介したジョグ操作によってロボット20に行わせる。   In addition, the display control unit 61 displays, for example, the current coordinates of the control point in the robot coordinate system on the jog screen UI1-1. When the jog screen UI1-1 shown in FIG. 8 is displayed on the display unit 55, the user holds the work object O on the robot 20 according to the procedure indicated by the explanation image E1 displayed in the first teaching screen UI1. It is gripped by the part HND. Then, the user moves the holding part HND of the robot 20 holding the work object O to a predetermined imaging position. The user causes the robot 20 to grip the work target O by the grip portion HND and move the work target O to a predetermined imaging position by a jog operation via the jog screen UI1-1.

なお、ユーザーは、領域P1に表示される撮像画像を見ながら作業対象Oが所定の撮像位置まで移動したか否かを確認することができる。ここで、所定の撮像位置とは、把持部HNDの制御点TCPと、把持部HNDにより把持された作業対象Oの代表点OPとが撮像部10により撮像可能な位置である。   The user can confirm whether or not the work object O has moved to a predetermined imaging position while viewing the captured image displayed in the region P1. Here, the predetermined imaging position is a position at which the control point TCP of the gripper HND and the representative point OP of the work target O gripped by the gripper HND can be captured by the imaging unit 10.

ここで、図9を参照して、所定の撮像位置について説明する。図9は、所定の撮像位置における作業対象Oと撮像部10の位置関係の一例を示す図である。図9における把持部HNDにより把持された作業対象Oの状態は、ユーザーによるジョグ操作により撮像位置に移動させられた状態である。作業対象Oが撮像位置に移動させられた後、撮像部10は、図9に示した方向Cに向かって撮像可能な範囲を撮像する。方向Cは、把持部HNDにより把持されている作業対象Oの面Mに直交する方向である。面Mとは、作業対象Oが把持部HNDにより把持された時に、把持部HNDが設けられたフランジFと対面しない側の面を示す。従って、撮像部10は、面Mが撮像素子の平面に対して平行な状態で撮像範囲を撮像する。   Here, a predetermined imaging position will be described with reference to FIG. FIG. 9 is a diagram illustrating an example of a positional relationship between the work object O and the imaging unit 10 at a predetermined imaging position. The state of the work object O grasped by the grasping part HND in FIG. 9 is a state where it is moved to the imaging position by a jog operation by the user. After the work target O is moved to the imaging position, the imaging unit 10 captures an imageable range in the direction C illustrated in FIG. The direction C is a direction orthogonal to the surface M of the work target O held by the holding unit HND. The surface M indicates a surface that does not face the flange F provided with the gripping portion HND when the work object O is gripped by the gripping portion HND. Therefore, the imaging unit 10 images the imaging range in a state where the surface M is parallel to the plane of the imaging element.

面Mが撮像素子の平面に対して平行な状態とする理由は、作業対象Oが目標領域TAに正しい位置姿勢で配置された場合のオフセットであって制御点TCPと代表点OPが目標領域TAの目標領域面上に射影された時の目標領域面上(すなわち、テーブルTBの平面上)における制御点位置姿勢と代表点位置姿勢の間のオフセットを検出するためである。このようにオフセットを、目標領域面上におけるオフセットとして扱うことで、教示装置5や制御装置30の計算コストを抑制することができる。なお、このようなオフセットの扱いは、一例に過ぎず、他のオフセットの扱い方を用いてもよい。   The reason why the surface M is in a state parallel to the plane of the image sensor is an offset when the work object O is arranged in the correct position and orientation in the target area TA, and the control point TCP and the representative point OP are the target area TA. This is to detect an offset between the control point position and orientation on the target area surface (that is, on the plane of the table TB) when projected onto the target area surface. By treating the offset as an offset on the target area surface in this way, the calculation cost of the teaching device 5 and the control device 30 can be suppressed. Note that such offset handling is merely an example, and other offset handling methods may be used.

図8に示した領域P1には、すでに作業対象Oが所定の撮像位置に移動された後の撮像画像が表示されている。ユーザーが作業対象Oを所定の撮像位置まで移動させた後、ユーザーは、図8に示したジョグ画面UI1−1内のティーチボタンB2を押す。ユーザーによりティーチボタンB2が押された時、第1算出部63は、ティーチボタンB2が押された時に第1教示画面UI1に表示されていた撮像画像をキャプチャーし、そのキャプチャー画像に基づいてパターンマッチング等の画像処理の手法に基づいて制御点位置姿勢と作業対象位置姿勢を検出する。   In the area P1 shown in FIG. 8, the captured image after the work object O has already been moved to the predetermined imaging position is displayed. After the user moves the work target O to a predetermined imaging position, the user presses the teach button B2 in the jog screen UI1-1 shown in FIG. When the teach button B2 is pressed by the user, the first calculation unit 63 captures the captured image displayed on the first teaching screen UI1 when the teach button B2 is pressed, and performs pattern matching based on the captured image. The control point position and orientation and the work target position and orientation are detected based on the image processing method such as the above.

例えば、第1算出部63は、キャプチャー画像に含まれる把持部HND及びマニピュレーターMNPの形状に基づいてパターンマッチングを行い、制御点TCPの位置と、制御点TCPの姿勢とをそれぞれ検出する。また、第1算出部63は、キャプチャー画像に含まれる作業対象Oの形状に基づいてパターンマッチングを行い、代表点OPの位置と、代表点OPの姿勢とをそれぞれ検出する。なお、第1教示画面UI1及びジョグ画面UI1−1(すなわち、図8に示した画面)は、第1画面の一例である。   For example, the first calculator 63 performs pattern matching based on the shapes of the gripper HND and the manipulator MNP included in the captured image, and detects the position of the control point TCP and the attitude of the control point TCP. The first calculation unit 63 performs pattern matching based on the shape of the work target O included in the captured image, and detects the position of the representative point OP and the posture of the representative point OP. The first teaching screen UI1 and the jog screen UI1-1 (that is, the screen shown in FIG. 8) are examples of the first screen.

ステップS110でユーザーによりティーチボタンB2が押され、制御点位置姿勢と作業対象位置姿勢が検出された後、第1算出部63は、検出された作業対象位置姿勢と目標点位置姿勢に基づいて基準オフセットを算出する(ステップS120)。ここで、基準オフセットが算出された後、表示制御部61は、第1教示画面UI1及びジョグ画面UI1−1を消すように表示部55を制御するとするが、これに代えて、入力受付部53によりユーザーから第1教示画面UI1及びジョグ画面UI1−1を消す操作が受け付けられるまで、第1教示画面を消さない構成であってもよい。   After the teach button B2 is pressed by the user in step S110 and the control point position / posture and the work target position / posture are detected, the first calculating unit 63 performs a reference based on the detected work target position / posture and the target point position / posture. An offset is calculated (step S120). Here, after the reference offset is calculated, the display control unit 61 controls the display unit 55 to erase the first teaching screen UI1 and the jog screen UI1-1. The first teaching screen may not be erased until an operation for erasing the first teaching screen UI1 and the jog screen UI1-1 is received from the user.

次に、通信制御部67は、ステップS120で算出された基準オフセットを示す情報を制御装置30に出力(教示)するように通信部54を制御する(ステップS130)。次に、表示制御部61は、入力受付部53により受け付けられたユーザーからの操作に基づいて、第2教示画面を生成する。そして、表示制御部61は、生成された第2教示画面を表示するように表示部55を制御する(ステップS140)。   Next, the communication control unit 67 controls the communication unit 54 to output (teach) information indicating the reference offset calculated in step S120 to the control device 30 (step S130). Next, the display control unit 61 generates a second teaching screen based on an operation from the user received by the input receiving unit 53. Then, the display control unit 61 controls the display unit 55 to display the generated second teaching screen (step S140).

なお、表示制御部61は、入力受付部53により受け付けられたユーザーからの操作に基づいて第2教示画面を生成する構成に代えて、ステップS130で基準オフセットを示す情報が制御装置30に出力されたことに伴って第2教示画面を生成する構成や、第1教示画面が消されたことをトリガーとして第2教示画面を生成する構成等であってもよい。   Note that the display control unit 61 outputs information indicating the reference offset to the control device 30 in step S130 instead of the configuration in which the second teaching screen is generated based on the operation from the user received by the input receiving unit 53. The structure which produces | generates a 2nd teaching screen in connection with this, the structure which produces | generates a 2nd teaching screen triggered by the 1st teaching screen being erased, etc. may be sufficient.

次に、教示装置5の制御部60は、入力受付部53により第2教示画面を介したユーザーからの操作を受け付ける(ステップS150)。次に、第2算出部64は、受け付けられた操作に基づいて目標点位置姿勢を算出する(ステップS160)。ここで、図10を参照して、第2教示画面と、第2教示画面に係るステップS140からステップS160までの処理について説明する。図10は、第2教示画面の一例を示す図である。   Next, the control unit 60 of the teaching device 5 receives an operation from the user via the second teaching screen by the input receiving unit 53 (step S150). Next, the second calculation unit 64 calculates a target point position and orientation based on the accepted operation (step S160). Here, with reference to FIG. 10, a 2nd teaching screen and the process from step S140 to step S160 which concern on a 2nd teaching screen are demonstrated. FIG. 10 is a diagram illustrating an example of the second teaching screen.

第2教示画面UI2には、第2教示画面UI2を介して制御装置30に教示を行う際の手順を示すための説明画像E2が表示される。この説明画像E2の説明に従うことで、ユーザーは、マニュアルを読むことなく容易に制御装置30へ教示を行うための操作を行うことができる。   On the second teaching screen UI2, an explanation image E2 for displaying a procedure for teaching the control device 30 via the second teaching screen UI2 is displayed. By following the explanation of the explanation image E2, the user can easily perform an operation for teaching the control device 30 without reading the manual.

また、第2教示画面UI2には、説明画像E2に加えて、さらに撮像部10により撮像された撮像画像が領域P2に表示される。表示制御部61は、画像取得部56から撮像部10により撮像された撮像画像を取得し、取得された撮像画像を領域P2に表示させる。ユーザーは、第2教示画面UI2が表示部55に表示されると、第2教示画面UI2内に表示されるボタンB3を押す。これにより、ユーザーは、説明画像E2に示された内容の手順に沿って制御装置30へ教示を行うための操作を行うことができる。   Further, on the second teaching screen UI2, in addition to the explanation image E2, a captured image captured by the imaging unit 10 is further displayed in the region P2. The display control unit 61 acquires the captured image captured by the imaging unit 10 from the image acquisition unit 56, and displays the acquired captured image in the region P2. When the second teaching screen UI2 is displayed on the display unit 55, the user presses a button B3 displayed in the second teaching screen UI2. Thereby, the user can perform an operation for teaching the control device 30 along the procedure of the contents shown in the explanation image E2.

ユーザーがボタンB2を押すと、表示制御部61は、図11に示すように、第2教示画面UI2のサブ画面としてジョグ画面UI2−1を表示させる。図11は、第2教示画面UI2及びジョグ画面UI2−1の一例を示す図である。ジョグ画面UI2−1は、ジョグ画面UI1−1と同様なため、説明を省略する。   When the user presses the button B2, the display control unit 61 displays the jog screen UI2-1 as a sub screen of the second teaching screen UI2, as shown in FIG. FIG. 11 is a diagram illustrating an example of the second teaching screen UI2 and the jog screen UI2-1. Since the jog screen UI2-1 is similar to the jog screen UI1-1, the description thereof is omitted.

図11に示したジョグ画面UI2−1が表示部55に表示されると、第2教示画面UI2内に表示される説明画像E2により示される手順に従って、ジョグ画面UI2−1を介したジョグ操作によって把持部HNDにより把持されている作業対象Oを目標領域TAまで移動させる。そして、ユーザーは、作業対象位置姿勢と目標点位置姿勢を一致させる。   When the jog screen UI2-1 shown in FIG. 11 is displayed on the display unit 55, the jog operation via the jog screen UI2-1 is performed according to the procedure indicated by the explanation image E2 displayed in the second teaching screen UI2. The work object O held by the holding part HND is moved to the target area TA. Then, the user matches the work target position / posture with the target point position / posture.

ユーザーがジョグ画面UI2−1を介したジョグ操作により作業対象位置姿勢と目標点位置姿勢を一致させた後、ユーザーは、図11に示したジョグ画面UI2−1内のティーチボタンB4を押す。ユーザーによりティーチボタンB4が押された時、第2算出部64は、ティーチボタンB4が押された時の制御点位置姿勢を示す情報を、制御点目標位置姿勢を示す情報として制御装置30から取得する。そして、第2算出部64は、取得された制御点目標位置姿勢と、第1算出部63により算出された基準オフセットとに基づいて、目標点位置姿勢を算出する。   After the user makes the work target position / posture coincide with the target point position / posture by jog operation via the jog screen UI2-1, the user presses the teach button B4 in the jog screen UI2-1 shown in FIG. When the teach button B4 is pressed by the user, the second calculation unit 64 acquires information indicating the control point position and orientation when the teach button B4 is pressed from the control device 30 as information indicating the control point target position and orientation. To do. Then, the second calculation unit 64 calculates the target point position and orientation based on the acquired control point target position and orientation and the reference offset calculated by the first calculation unit 63.

このように、教示装置5は、ジョグ画面UI2−1を介したジョグ操作によってユーザーにより作業対象Oを実際に配置する目標位置と目標姿勢に移動させ、その位置及び姿勢における制御点TCPと、前述の基準オフセットとに基づいて目標点位置姿勢を算出するため、例えば、撮像画像に基づいて目標点位置姿勢を検出する場合と比較して、より高い精度で目標点位置姿勢を制御装置30に教示することができる。その結果として、制御装置30は、所定の作業を行う際、高い精度で制御点目標位置姿勢を算出することができるため、ロボット20に高精度の作業を行わせることができる。   As described above, the teaching device 5 moves the work target O to the target position and target posture where the user actually places the target object O by the jog operation via the jog screen UI2-1, the control point TCP at the position and posture, Since the target point position / orientation is calculated based on the reference offset of the target point position / orientation, for example, the target point position / orientation is taught to the control device 30 with higher accuracy than when the target point position / orientation is detected based on the captured image. can do. As a result, since the control device 30 can calculate the control point target position and orientation with high accuracy when performing a predetermined operation, the robot 20 can perform the operation with high accuracy.

また、第2教示画面UI2には、説明画像E2に加えて、第1教示画面UI1においてキャプチャーされた画像が領域P2に表示される。なお、表示制御部61は、画像取得部56から撮像部10により撮像された撮像画像を取得し、取得された撮像画像を領域P2に表示させる構成であってもよい。第2教示画面UI2及びジョグ画面UI2−1(すなわち、図11に示した画面)は、第2画面の一例である。   In addition to the explanation image E2, the image captured on the first teaching screen UI1 is displayed in the region P2 on the second teaching screen UI2. Note that the display control unit 61 may be configured to acquire a captured image captured by the imaging unit 10 from the image acquisition unit 56 and display the acquired captured image in the region P2. The second teaching screen UI2 and the jog screen UI2-1 (that is, the screen shown in FIG. 11) are examples of the second screen.

次に、通信制御部67は、ステップS160で算出された目標点位置姿勢を示す情報を制御装置30に出力(教示)するように通信部54を制御する(ステップS170)。なお、通信制御部67は、ステップS130で基準オフセットを示す情報を制御装置30に出力する構成に代えて、ステップS170で目標点位置姿勢を示す情報と共に基準オフセットを示す情報を制御装置30に出力する構成であってもよい。   Next, the communication control unit 67 controls the communication unit 54 to output (teach) information indicating the target point position and orientation calculated in step S160 to the control device 30 (step S170). Note that the communication control unit 67 outputs information indicating the reference offset to the control device 30 together with information indicating the target point position and orientation in step S170 instead of outputting the information indicating the reference offset to the control device 30 in step S130. It may be configured to.

次に、表示制御部61は、設定完了画面を生成する。そして、表示制御部61は、生成された設定完了画面を表示するように表示部55を制御する(ステップS180)。ここで、図12を参照して、設定完了画面について説明する。図12は、設定完了画面の一例を示す図である。表示制御部61は、設定完了画面内に、設定が完了したことを知らせる画像や説明を欄E3表示する。なお、表示制御部61は、図12に示したように、設定完了画面内に、撮像部10により撮像された撮像画像P3を表示する構成であってもよいが、撮像画像を表示しない構成であってもよい。また、表示制御部61は、設定完了画面内に、完了ボタンB5を表示する。ユーザーが完了ボタンB5を押すと、表示制御部61は、設定完了画面を消す。   Next, the display control unit 61 generates a setting completion screen. Then, the display control unit 61 controls the display unit 55 so as to display the generated setting completion screen (step S180). Here, the setting completion screen will be described with reference to FIG. FIG. 12 is a diagram illustrating an example of a setting completion screen. The display control unit 61 displays in the column E3 an image and a description notifying that the setting is completed on the setting completion screen. As shown in FIG. 12, the display control unit 61 may be configured to display the captured image P3 captured by the imaging unit 10 in the setting completion screen, but is configured not to display the captured image. There may be. Further, the display control unit 61 displays a completion button B5 in the setting completion screen. When the user presses the completion button B5, the display control unit 61 erases the setting completion screen.

なお、本実施形態に係るロボットシステム1は、演算部62により基準オフセット、算出オフセット、目標位置姿勢、制御点目標位置姿勢のすべてを算出する構成であるとしたが、これに代えて、基準オフセット、算出オフセット、目標位置姿勢、制御点目標位置姿勢のうち一部又は全部を別体の装置によって算出する構成であってもよい。この場合、教示装置5は、制御装置30を介して装置に基準オフセット、算出オフセット、目標位置姿勢、制御点目標位置姿勢のうち一部又は全部を算出するように要求する。   The robot system 1 according to the present embodiment is configured to calculate all of the reference offset, the calculated offset, the target position / posture, and the control point target position / posture by the calculation unit 62. Instead, the reference offset Alternatively, a part or all of the calculated offset, the target position / posture, and the control point target position / posture may be calculated by a separate device. In this case, the teaching device 5 requests the device to calculate a part or all of the reference offset, the calculated offset, the target position / posture, and the control point target position / posture via the control device 30.

以上説明したように、本実施形態に係るロボットシステム1は、ロボットを動作させ、撮像部10の撮像可能な範囲内に作業対象Oを移動させるための第1教示画面UI1と、目標点位置姿勢に作業対象Oを移動させるための第2教示画面UI2と、が入力受付部53により操作されることにより、撮像部10が作業対象Oを撮像した撮像画像と目標点位置姿勢とを用いて、作業点目標位置姿勢を算出する。これにより、ロボットシステム1は、簡易に高精度の教示を行うことができる。   As described above, the robot system 1 according to the present embodiment operates the robot and moves the work target O within the image capturing range of the imaging unit 10 and the target point position and orientation. A second teaching screen UI2 for moving the work target O to the user is operated by the input receiving unit 53, so that the imaging unit 10 uses the captured image obtained by capturing the work target O and the target point position and orientation. The work point target position / orientation is calculated. Thereby, the robot system 1 can perform highly accurate teaching easily.

また、ロボットシステム1は、第1教示画面UI1が、撮像部10により撮像された撮像画像が表示される領域P1を有し、第2教示画面UI2が、撮像部10により撮像された撮像画像であって第1教示画面UI1に表示されたキャプチャー画像が表示される領域P2を有する。これにより、ロボットシステム1は、ユーザーに撮像画像を確認しながらロボット20をジョグ操作によって移動させる環境を提供することができる。   In the robot system 1, the first teaching screen UI1 has a region P1 where a captured image captured by the imaging unit 10 is displayed, and the second teaching screen UI2 is a captured image captured by the imaging unit 10. There is a region P2 where the captured image displayed on the first teaching screen UI1 is displayed. Thereby, the robot system 1 can provide an environment in which the robot 20 is moved by a jog operation while confirming a captured image with the user.

また、ロボットシステム1は、第1教示画面UI1が、作業手順が表示される領域を有し、第2教示画面UI2が、作業手順が表示される領域を有する。これにより、ロボットシステム1は、ユーザーのマニュアルを読む手間を抑制させることで、ユーザーに効率的な作業を行わせることができる。   In the robot system 1, the first teaching screen UI1 has an area where the work procedure is displayed, and the second teaching screen UI2 has an area where the work procedure is displayed. Thereby, the robot system 1 can make a user perform an efficient operation | work by suppressing the effort which reads a user's manual.

また、ロボットシステム1は、第1教示画面UI1を介して入力受付部53により受け付けられた操作に基づいて撮像画像を用いて目標点位置姿勢と制御点目標位置姿勢との間の基準オフセットを算出し、第2教示画面UI2を介して入力受付部53により受け付けられた操作に基づいて制御装置30から目標点位置姿勢を取得し、算出された基準オフセットと、取得された目標点位置姿勢とを用いて制御点目標位置姿勢を算出する。これにより、ロボットシステム1は、作業毎に目標点位置姿勢と制御点目標位置姿勢との間の算出オフセットを算出することで、精度の高い作業を実現することができる。   Further, the robot system 1 calculates a reference offset between the target point position / posture and the control point target position / posture using the captured image based on an operation received by the input receiving unit 53 via the first teaching screen UI1. Then, the target point position and orientation are acquired from the control device 30 based on the operation received by the input receiving unit 53 via the second teaching screen UI2, and the calculated reference offset and the acquired target point position and orientation are obtained. To calculate the control point target position and orientation. Thereby, the robot system 1 can implement | achieve a highly accurate operation | work by calculating the calculation offset between a target point position and orientation and a control point target position and orientation for every operation | work.

以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない限り、変更、置換、削除等されてもよい。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and changes, substitutions, deletions, and the like are possible without departing from the gist of the present invention. May be.

また、以上に説明した装置(例えば、ロボットシステム1の教示装置5)における任意の構成部の機能を実現するためのプログラムを、コンピューター読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM:Random Access Memory)のように、一定時間プログラムを保持しているものも含むものとする。   Further, a program for realizing the function of an arbitrary component in the apparatus described above (for example, the teaching apparatus 5 of the robot system 1) is recorded on a computer-readable recording medium, and the program is read into the computer system. May be executed. Here, the “computer system” includes hardware such as an OS (Operating System) and peripheral devices. “Computer-readable recording medium” means a portable disk such as a flexible disk, a magneto-optical disk, a ROM (Read Only Memory), a CD (Compact Disk) -ROM, or a hard disk built in a computer system. Refers to the device. Further, the “computer-readable recording medium” means a volatile memory (RAM: Random Access) inside a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Memory that holds a program for a certain period of time, such as Memory).

また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
In addition, the above program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Further, the above program may be for realizing a part of the functions described above. Further, the program may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.

1 ロボットシステム、5 教示装置、10 撮像部、20 ロボット、30 制御装置、51 CPU、52 記憶部、53 入力受付部、54 通信部、55 表示部、56 画像取得部、60 制御部、61 表示制御部、62 演算部、63 第1算出部、64 第2算出部、65 第3算出部、67 通信制御部、68 撮像制御部 DESCRIPTION OF SYMBOLS 1 Robot system, 5 Teaching apparatus, 10 Imaging part, 20 Robot, 30 Control apparatus, 51 CPU, 52 Storage part, 53 Input reception part, 54 Communication part, 55 Display part, 56 Image acquisition part, 60 Control part, 61 Display Control unit, 62 operation unit, 63 first calculation unit, 64 second calculation unit, 65 third calculation unit, 67 communication control unit, 68 imaging control unit

Claims (5)

ワークを所定の位置及び姿勢に移動させるロボットの教示装置であって、
前記所定の位置及び姿勢を設定するための画面を表示する表示部と、
前記画面を操作する操作部と、
前記所定の位置及び姿勢を演算する演算部と、
を含み、
前記画面は、
前記ロボットを動作させ、撮像装置の撮像範囲内に前記ワークを移動させるための第1画面と、
目標位置及び姿勢に、前記ワークを移動させるための第2画面と、
を含み、
前記演算部は、
前記撮像装置が前記ワークを撮像した撮像画像と前記目標位置及び姿勢とを用いて、前記所定の位置及び姿勢を演算する、
教示装置。
A robot teaching device for moving a workpiece to a predetermined position and posture,
A display unit for displaying a screen for setting the predetermined position and posture;
An operation unit for operating the screen;
A calculation unit for calculating the predetermined position and orientation;
Including
The screen
A first screen for operating the robot and moving the workpiece within an imaging range of an imaging device;
A second screen for moving the workpiece to a target position and posture;
Including
The computing unit is
Using the captured image obtained by capturing the workpiece by the imaging device and the target position and orientation, the predetermined position and orientation are calculated.
Teaching device.
請求項1に記載の教示装置であって、
前記第1画面と前記第2画面のうちいずれか一方又は両方は、前記撮像装置により撮像された撮像画像が表示される領域を有する、
教示装置。
The teaching device according to claim 1,
Either one or both of the first screen and the second screen have a region in which a captured image captured by the imaging device is displayed.
Teaching device.
請求項1又は2に記載の教示装置であって、
前記第1画面と前記第2画面のうちいずれか一方又は両方は、作業手順が表示される領域を有する、
教示装置。
The teaching device according to claim 1 or 2,
Either one or both of the first screen and the second screen have an area where a work procedure is displayed.
Teaching device.
請求項1から3のうちいずれか一項に記載の教示装置であって、
前記演算部は、前記第1画面を介して前記操作部により受け付けられた操作に基づいて前記撮像画像を用いて前記目標位置及び姿勢と前記所定の位置及び姿勢との間の相対的な位置及び姿勢を算出し、前記第2画面を介して前記操作部により受け付けられた操作に基づいて前記目標位置及び姿勢を取得し、算出された前記相対的な位置及び姿勢と、取得された前記目標位置及び姿勢とを用いて前記所定の位置及び姿勢を演算する、
教示装置。
The teaching device according to any one of claims 1 to 3,
The arithmetic unit uses the captured image based on an operation received by the operation unit via the first screen, and uses a relative position between the target position and posture and the predetermined position and posture. Calculate the posture, acquire the target position and posture based on the operation received by the operation unit via the second screen, and calculate the relative position and posture, and the acquired target position And calculating the predetermined position and posture using
Teaching device.
ワークを所定の位置及び姿勢に移動させるロボットと、
前記ロボットに前記所定の位置及び姿勢を教示する教示装置と、を含み、
前記教示装置は、
前記所定の位置及び姿勢を設定するための画面を表示する表示部と、
前記画面を操作する操作部と、
前記所定の位置及び姿勢を演算する演算部と、を含み、
前記画面は、
前記ロボットを動作させ、撮像装置の撮像範囲内に前記ワークを移動させるための第1画面と、
目標位置及び姿勢に、前記ワークを移動させるための第2画面と、を含み、
前記演算部は、
前記撮像装置が前記ワークを撮像した撮像画像と前記目標位置及び姿勢とを用いて、前記所定の位置及び姿勢を演算する、
ロボットシステム。
A robot that moves the workpiece to a predetermined position and posture;
A teaching device for teaching the robot the predetermined position and posture;
The teaching device includes:
A display unit for displaying a screen for setting the predetermined position and posture;
An operation unit for operating the screen;
A calculation unit for calculating the predetermined position and orientation,
The screen
A first screen for operating the robot and moving the workpiece within an imaging range of an imaging device;
A second screen for moving the workpiece at a target position and posture;
The computing unit is
Using the captured image obtained by capturing the workpiece by the imaging device and the target position and orientation, the predetermined position and orientation are calculated.
Robot system.
JP2014136315A 2014-07-01 2014-07-01 Teaching apparatus and robot system Active JP6488571B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014136315A JP6488571B2 (en) 2014-07-01 2014-07-01 Teaching apparatus and robot system
CN201510367312.0A CN105269578B (en) 2014-07-01 2015-06-29 Pointing device and robot system
EP15174247.5A EP2963513B1 (en) 2014-07-01 2015-06-29 Teaching apparatus and robot system
US14/753,401 US9981380B2 (en) 2014-07-01 2015-06-29 Teaching apparatus and robot system
US15/960,884 US20180236661A1 (en) 2014-07-01 2018-04-24 Teaching Apparatus And Robot System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014136315A JP6488571B2 (en) 2014-07-01 2014-07-01 Teaching apparatus and robot system

Publications (2)

Publication Number Publication Date
JP2016013589A true JP2016013589A (en) 2016-01-28
JP6488571B2 JP6488571B2 (en) 2019-03-27

Family

ID=55230220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014136315A Active JP6488571B2 (en) 2014-07-01 2014-07-01 Teaching apparatus and robot system

Country Status (1)

Country Link
JP (1) JP6488571B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018180297A1 (en) * 2017-03-31 2018-10-04 日本電産株式会社 Robot teaching device, robot teaching program, and method for controlling robot teaching device
WO2018180299A1 (en) * 2017-03-31 2018-10-04 日本電産株式会社 Robot teaching device, method for controlling robot teaching device, and robot teaching program
JP2018176404A (en) * 2017-04-21 2018-11-15 セイコーエプソン株式会社 Control device, robot, and robot system
CN116330304A (en) * 2023-05-29 2023-06-27 广东隆崎机器人有限公司 Six-axis robot motion adjustment method, system, six-axis robot and medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002154085A (en) * 2000-11-15 2002-05-28 Toyota Motor Corp Maintenance support method and maintenance support device for working robot system
JP2006289531A (en) * 2005-04-07 2006-10-26 Seiko Epson Corp Movement control device for teaching robot position, teaching device of robot position, movement control method for teaching robot position, teaching method for robot position, and movement control program for teaching robot position
JP2008003713A (en) * 2006-06-20 2008-01-10 Fanuc Ltd Robot control device
JP2011093014A (en) * 2009-10-27 2011-05-12 Ihi Corp Control device of hand-eye bin picking robot
JP2012055999A (en) * 2010-09-07 2012-03-22 Canon Inc System and method for gripping object, program and robot system
JP2014104529A (en) * 2012-11-27 2014-06-09 Canon Inc Robot system and control method of the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002154085A (en) * 2000-11-15 2002-05-28 Toyota Motor Corp Maintenance support method and maintenance support device for working robot system
JP2006289531A (en) * 2005-04-07 2006-10-26 Seiko Epson Corp Movement control device for teaching robot position, teaching device of robot position, movement control method for teaching robot position, teaching method for robot position, and movement control program for teaching robot position
JP2008003713A (en) * 2006-06-20 2008-01-10 Fanuc Ltd Robot control device
JP2011093014A (en) * 2009-10-27 2011-05-12 Ihi Corp Control device of hand-eye bin picking robot
JP2012055999A (en) * 2010-09-07 2012-03-22 Canon Inc System and method for gripping object, program and robot system
JP2014104529A (en) * 2012-11-27 2014-06-09 Canon Inc Robot system and control method of the same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018180297A1 (en) * 2017-03-31 2018-10-04 日本電産株式会社 Robot teaching device, robot teaching program, and method for controlling robot teaching device
WO2018180299A1 (en) * 2017-03-31 2018-10-04 日本電産株式会社 Robot teaching device, method for controlling robot teaching device, and robot teaching program
JP2018176404A (en) * 2017-04-21 2018-11-15 セイコーエプソン株式会社 Control device, robot, and robot system
CN116330304A (en) * 2023-05-29 2023-06-27 广东隆崎机器人有限公司 Six-axis robot motion adjustment method, system, six-axis robot and medium
CN116330304B (en) * 2023-05-29 2023-08-01 广东隆崎机器人有限公司 Six-axis robot motion adjustment method, system, six-axis robot and medium

Also Published As

Publication number Publication date
JP6488571B2 (en) 2019-03-27

Similar Documents

Publication Publication Date Title
EP2963513B1 (en) Teaching apparatus and robot system
US10350768B2 (en) Control device, robot, and robot system
US20160184996A1 (en) Robot, robot system, control apparatus, and control method
US20180029232A1 (en) Control apparatus and robot
KR20180080630A (en) Robot and electronic device for performing hand-eye calibration
JP2015168040A (en) Robot, robot system, control device, and control method
JP2017071018A (en) Robot system, robot, and robot controlling device
JP6488571B2 (en) Teaching apparatus and robot system
JP2018034242A (en) Robot control device, robot, and robot system
US20170203434A1 (en) Robot and robot system
JP6699097B2 (en) Robot and control device
JP2019025578A (en) Control device, robot system, and control method
JP2006026790A (en) Teaching model production device
JP2018122376A (en) Image processing device, robot control device, and robot
JP2016013590A (en) Teaching device, and robot system
JP2018017610A (en) Three-dimensional measuring device, robot, robot controlling device, and robot system
JP2015003348A (en) Robot control system, control device, robot, control method for robot control system and robot control method
JP6958091B2 (en) Robot system and robot control method
KR20230065881A (en) Robot teaching system
JP2016120530A (en) Robot and robot calibration system
JP2016144852A (en) Robot system
JP2015221485A (en) Robot, robot system, control unit and control method
JP2017159429A (en) Robot control device, information processing device, and robot system
JP2015226954A (en) Robot, control method of the same and control unit of the same
JP2019111588A (en) Robot system, information processor, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180824

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190211

R150 Certificate of patent or registration of utility model

Ref document number: 6488571

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150