JP6883392B2 - Robot system - Google Patents

Robot system Download PDF

Info

Publication number
JP6883392B2
JP6883392B2 JP2016149912A JP2016149912A JP6883392B2 JP 6883392 B2 JP6883392 B2 JP 6883392B2 JP 2016149912 A JP2016149912 A JP 2016149912A JP 2016149912 A JP2016149912 A JP 2016149912A JP 6883392 B2 JP6883392 B2 JP 6883392B2
Authority
JP
Japan
Prior art keywords
unit
robot
operation mode
teaching data
locus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016149912A
Other languages
Japanese (ja)
Other versions
JP2018015863A (en
Inventor
博貴 木下
博貴 木下
裕規 高山
裕規 高山
藤森 潤
潤 藤森
仁志 蓮沼
仁志 蓮沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Motors Ltd
Original Assignee
Kawasaki Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Jukogyo KK filed Critical Kawasaki Jukogyo KK
Priority to JP2016149912A priority Critical patent/JP6883392B2/en
Publication of JP2018015863A publication Critical patent/JP2018015863A/en
Application granted granted Critical
Publication of JP6883392B2 publication Critical patent/JP6883392B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Description

本発明は、ロボットシステム、教示データ生成システム及び教示データ生成方法に関する。 The present invention relates to a robot system, a teaching data generation system, and a teaching data generation method.

従来からロボットの教示装置が知られている(例えば特許文献1参照)。 A robot teaching device has been conventionally known (see, for example, Patent Document 1).

このロボットの教示装置は、ティーチペンダントと、ティーチペンダントが接続されるロボットの制御部とを備えている。これによって、ティーチペンダントを用いてロボットに対するティーチング(教示)を実施することができる。 The teaching device of this robot includes a teach pendant and a control unit of the robot to which the teach pendant is connected. As a result, teaching (teaching) to the robot can be performed using the teach pendant.

特開2013−132728号公報Japanese Unexamined Patent Publication No. 2013-132728

しかし、特許文献1に記載のロボットの教示装置を用いたティーチング作業は、ロボットの操作方法に習熟した熟練作業者がロボットを操作して実施する必要があり、作業者の育成に時間を要するという問題があった。 However, the teaching work using the robot teaching device described in Patent Document 1 needs to be performed by a skilled worker who is proficient in the operation method of the robot by operating the robot, and it takes time to train the workers. There was a problem.

上記課題を解決するため、本発明のある態様に係るロボットシステムは、ロボットと、前記ロボットの動作態様を規定する教示データを生成する教示データ生成システムと、を含むロボットシステムであって、前記教示データ生成システムは、所定の作業空間に位置する検知対象物の動作を検知する検知部と、前記検知部が検知した前記検知対象物の動作に基づいて、前記検知対象物の動作態様を特定する動作態様特定部と、前記動作態様特定部が特定した前記検知対象物の動作態様に基づいて、前記教示データを生成する教示データ生成部と、を含む。 In order to solve the above problems, the robot system according to a certain aspect of the present invention is a robot system including a robot and a teaching data generation system that generates teaching data that defines an operation mode of the robot, and is the teaching. The data generation system specifies an operation mode of the detection object based on a detection unit that detects the operation of the detection object located in a predetermined work space and the operation of the detection object detected by the detection unit. The operation mode specifying unit includes a teaching data generation unit that generates the teaching data based on the operation mode of the detection target object specified by the operation mode specifying unit.

この構成によれば、検知部が検知した検知対象物の動作に基づいて教示データを作成することができる。したがって、ロボットの教示データの作成の際にロボットの操作方法に習熟した熟練作業者がロボットを操作する必要がなく、教示データを容易かつ迅速に生成することができる。 According to this configuration, teaching data can be created based on the operation of the detection object detected by the detection unit. Therefore, it is not necessary for a skilled worker who is proficient in the operation method of the robot to operate the robot when creating the teaching data of the robot, and the teaching data can be generated easily and quickly.

前記ロボットは、前記所定の作業空間に設置されていてもよい。 The robot may be installed in the predetermined work space.

この構成によれば、所定の作業空間における作業者の作業を代替することができる。 According to this configuration, the work of the worker in the predetermined work space can be replaced.

前記ロボットは、ロボットアームと、前記ロボットアームの先端部に取り付けられたハンドと、前記ロボットアームを駆動して前記ハンドを移動させるロボットアーム駆動部と、前記ロボットアーム駆動部の動作を制御するロボット制御部と、を含み、前記動作態様特定部は、前記検知部が検知した前記検知対象物の変位に基づいて、前記検知対象物の動作軌跡を特定し、前記教示データ生成部は、前記動作態様特定部が特定した前記検知対象物の動作軌跡に基づいて、前記ロボット制御部に対する前記ロボットアームの動作態様を規定する前記教示データを生成してもよい。 The robot is a robot that controls the operation of a robot arm, a hand attached to the tip of the robot arm, a robot arm drive unit that drives the robot arm to move the hand, and a robot arm drive unit. The operation mode specifying unit includes a control unit, the operation mode specifying unit identifies an operation locus of the detection object based on the displacement of the detection object detected by the detection unit, and the teaching data generation unit identifies the operation locus. The teaching data that defines the operation mode of the robot arm with respect to the robot control unit may be generated based on the operation locus of the detection object specified by the mode specifying unit.

この構成によれば、検知部が検知した検知対象物の変位に基づいてロボットアームに対する教示データを生成することができる。 According to this configuration, it is possible to generate teaching data for the robot arm based on the displacement of the detection object detected by the detection unit.

前記検知対象物は、前記所定の作業空間に位置する作業者の身体の所定の部位であってもよい。 The detection target may be a predetermined part of the body of the worker located in the predetermined work space.

この構成によれば、検知部が検知した作業者の身体の部位の動作に基づいてロボットアームに対する教示データを生成することができる。 According to this configuration, it is possible to generate teaching data for the robot arm based on the movement of the body part of the worker detected by the detection unit.

前記作業者の身体の前記所定の部位は前記作業者の手であってもよい。 The predetermined part of the worker's body may be the worker's hand.

この構成によれば、検知部が検知した作業者の手の動作に基づいてロボットアームに対する教示データを生成することができる。 According to this configuration, it is possible to generate teaching data for the robot arm based on the movement of the operator's hand detected by the detection unit.

前記ロボットは、前記ロボットアームを一対備え、前記作業者の前記所定の部位は、前記作業者の身体の第1部位及び第2部位であり、前記教示データ生成部は、前記動作態様特定部が特定した前記第1部位の動作軌跡に基づいて、前記ロボット制御部に対する前記一対のロボットアームのうち一方のロボットアームの動作態様を規定する第1教示データを生成し、且つ前記動作態様特定部が特定した前記第2部位の動作軌跡に基づいて、前記ロボット制御部に対する前記一対のロボットアームのうち他方のロボットアームの動作態様を規定する第2教示データを生成してもよい。 The robot includes a pair of robot arms, the predetermined parts of the worker are first parts and second parts of the worker's body, and the teaching data generation part includes the operation mode specifying part. Based on the identified operation locus of the first part, the first teaching data that defines the operation mode of one of the pair of robot arms with respect to the robot control unit is generated, and the operation mode specifying unit generates the first teaching data. Based on the specified operation locus of the second part, the second teaching data that defines the operation mode of the other robot arm of the pair of robot arms with respect to the robot control unit may be generated.

この構成によれば、検知部が検知した作業者の身体の第1部位及び第2部位の動作に基づいて一括してロボットの一対のロボットアームのそれぞれの教示データを作成することができる。したがって、一対のロボットアームを組み合わせた複雑な動作の教示に係る教示データの作成を容易かつ迅速に生成することができる。 According to this configuration, it is possible to collectively create teaching data for each of the pair of robot arms of the robot based on the movements of the first part and the second part of the worker's body detected by the detection unit. Therefore, it is possible to easily and quickly generate teaching data related to the teaching of a complicated motion by combining a pair of robot arms.

前記検知部は、前記所定の作業空間を撮影するビジョンセンサを含み、前記動作態様特定部は、前記ビジョンセンサが撮影した画像データに基づいて、前記第1部位及び前記第2部位の動作軌跡をそれぞれ特定してもよい。 The detection unit includes a vision sensor that captures the predetermined work space, and the operation mode specifying unit captures the operation loci of the first portion and the second portion based on the image data captured by the vision sensor. Each may be specified.

この構成によれば、精度の高い一対のロボットアームを動作させるロボットの教示データの生成を容易且つ迅速に行うことができる。 According to this configuration, it is possible to easily and quickly generate teaching data of a robot that operates a pair of highly accurate robot arms.

前記第1部位に所定の模様を有する第1マーカが付され、前記第2部位に前記第1マーカに係る模様と異なる模様を有する第2マーカが付され、前記動作態様特定部は、前記ビジョンセンサが撮影した画像データに含まれる前記第1マーカの変位に基づいて前記第1部位の動作軌跡を特定し、且つ前記ビジョンセンサが撮影した画像データに含まれる前記第2マーカの変位に基づいて前記第2部位の動作軌跡を特定してもよい。 A first marker having a predetermined pattern is attached to the first part, a second marker having a pattern different from the pattern related to the first marker is attached to the second part, and the operation mode specifying part is the vision. The operation locus of the first part is specified based on the displacement of the first marker included in the image data captured by the sensor, and based on the displacement of the second marker included in the image data captured by the vision sensor. The operation locus of the second portion may be specified.

この構成によれば、作業者の身体の第1部位及び第2部位の動作を精確に識別することができる。 According to this configuration, the movements of the first part and the second part of the worker's body can be accurately identified.

前記検知部は、前記第1部位に装着されて該第1部位の変位を検知する第1ジャイロセンサと、前記第2部位に装着されて該第2部位の変位を検知する第2ジャイロセンサと、を含み、前記動作態様特定部は、前記第1ジャイロセンサが検知した前記第1部位の変位に基づいて、前記動作態様特定部が特定した前記第1部位の動作軌跡を補正し、且つ前記第2ジャイロセンサが検知した前記第2部位の変位に基づいて、前記動作態様特定部が特定した前記第2部位の動作軌跡を補正してもよい。 The detection unit includes a first gyro sensor attached to the first portion to detect the displacement of the first portion, and a second gyro sensor attached to the second portion to detect the displacement of the second portion. , The operation mode specifying unit corrects the operation locus of the first part specified by the operation mode specifying unit based on the displacement of the first part detected by the first gyro sensor, and said. Based on the displacement of the second portion detected by the second gyro sensor, the operation locus of the second portion specified by the operation mode specifying unit may be corrected.

この構成によれば、ビジョンセンサの死角となる位置における作業者の身体の部位の変位を検知することができ、より精度よく作業者の身体の部位の変位を特定することができる。また、ビジョンセンサが故障した場合においても、ジャイロセンサが検知した作業者の身体の部位の変位に基づいて、作業者の身体の部位の変位を検知することができ、教示データ生成システムの信頼性を向上させることができる。 According to this configuration, it is possible to detect the displacement of the worker's body part at the position where the vision sensor becomes a blind spot, and it is possible to more accurately identify the displacement of the worker's body part. In addition, even if the vision sensor fails, the displacement of the worker's body part can be detected based on the displacement of the worker's body part detected by the gyro sensor, and the reliability of the teaching data generation system can be detected. Can be improved.

前記第1部位は前記作業者の右手であり、前記第2部位は前記作業者の左手であってもよい。 The first part may be the worker's right hand, and the second part may be the worker's left hand.

この構成によれば、ロボットアームと相似性の高い両手の動作に基づいて一括してロボットの一対のロボットアームのそれぞれの教示データを作成することができる。 According to this configuration, it is possible to collectively create teaching data for each of the pair of robot arms of the robot based on the movements of both hands, which are highly similar to the robot arm.

前記教示データ生成システムは、前記動作態様特定部が特定した前記検知対象物の動作軌跡を1以上の区間に分割する動作軌跡分割部と、各前記区間の動作軌跡の始点と終点とを結ぶ直線又は近似曲線を算出し、且つ前記直線又は前記近似曲線に基づいて前記検知対象物の動作軌跡に近似する近似軌跡を算出する近似軌跡算出部と、を更に備え、前記教示データ生成部は、前記近似軌跡に基づいて、前記ロボット制御部に対する前記ロボットアームの動作態様を規定する前記教示データを生成してもよい。 The teaching data generation system is a straight line connecting an operation locus dividing unit that divides the operation locus of the detection object specified by the operation mode specifying unit into one or more sections and a start point and an end point of the operation locus of each of the sections. Alternatively, the teaching data generation unit further includes an approximate locus calculation unit that calculates an approximate curve and calculates an approximate locus that approximates the motion locus of the detection object based on the straight line or the approximate curve. Based on the approximate locus, the teaching data that defines the operation mode of the robot arm with respect to the robot control unit may be generated.

この構成によれば、教示データに係るロボットの動作から作業者の意図しない震え等の動作を取り除くことができ、ロボットの動作に適した動作に係る教示データを生成することができる。また、教示データのデータ量を少なくすることができ、教示データ生成システムの演算処理負荷を軽減することができる。 According to this configuration, it is possible to remove movements such as tremors that the operator does not intend from the movements of the robot related to the teaching data, and it is possible to generate teaching data related to the movements suitable for the movements of the robot. In addition, the amount of teaching data can be reduced, and the arithmetic processing load of the teaching data generation system can be reduced.

前記ロボット制御部は、前記教示データに基づき前記ハンドが前記近似軌跡上を移動するように前記ロボットアーム駆動部の動作を制御してもよい。 The robot control unit may control the operation of the robot arm drive unit so that the hand moves on the approximate trajectory based on the teaching data.

この構成によれば、ロボットに適した動作に係る教示データに基づいてロボットアームを動作させることができる。 According to this configuration, the robot arm can be operated based on the teaching data related to the operation suitable for the robot.

前記近似軌跡算出部は、各区間のそれぞれについて、前記検知対象物の最高移動速度又は加速度を算出し、且つ前記最高移動速度又は前記加速度が低くなるに従って前記直線又は前記近似曲線を次数N(Nは1以上の整数)が大きいN次式で表現してもよい。 The approximate locus calculation unit calculates the maximum moving speed or acceleration of the detection target object for each section, and as the maximum moving speed or acceleration decreases, the straight line or the approximate curve is ordered N (N). May be expressed by an N-th order expression in which (an integer of 1 or more) is large.

この構成によれば、作業者の身体の部位の最高移動速度又は加速度に基づいて作業に対する要求精度を判定し、この判定した要求精度に基づいて、近似軌跡を算出することができる。 According to this configuration, the required accuracy for work can be determined based on the maximum moving speed or acceleration of the body part of the worker, and the approximate locus can be calculated based on the determined required accuracy.

前記教示データ生成システムは、情報を入力する入力装置と、を更に備え、前記近似軌跡算出部は、前記入力装置からの入力に応じて各前記区間の前記直線又は前記近似曲線の次数を変更してもよい。 The teaching data generation system further includes an input device for inputting information, and the approximate trajectory calculation unit changes the order of the straight line or the approximate curve of each section according to the input from the input device. You may.

この構成によれば、要求精度に応じた近似軌跡の編集を容易且つ迅速に行うことができる。 According to this configuration, it is possible to easily and quickly edit the approximate locus according to the required accuracy.

前記教示データ生成システムは、第1画像を生成する第1画像生成部と、前記第1画像を表示する第1表示装置とを更に備え、前記第1画像は、前記近似軌跡、各前記区間の境界位置、各前記区間の前記最高移動速度又は前記加速度に係る情報を含んでいてもよい。 The teaching data generation system further includes a first image generation unit that generates a first image and a first display device that displays the first image, and the first image is the approximate locus of each of the sections. Information on the boundary position, the maximum moving speed of each of the sections, or the acceleration may be included.

この構成によれば、近似軌跡、各区間の境界位置、各区間の最高移動速度又は加速度を容易に確認して、要求精度に応じた近似軌跡の編集を容易且つ迅速に行うことができる。 According to this configuration, the approximate locus, the boundary position of each section, the maximum moving speed or the acceleration of each section can be easily confirmed, and the approximate locus can be easily and quickly edited according to the required accuracy.

前記教示データ生成システムは、前記所定の作業空間に向けて設置され、前記所定の作業空間に位置する前記検知対象物の動作を撮影するカメラと、前記教示データ生成部が生成した前記教示データに基づいて前記カメラから撮影された前記所定の作業空間において動作するロボットの動作態様を仮想的に表現した動作シミュレーション画像を生成する動作シミュレーション画像生成部と、前記カメラが撮影した画像と動作シミュレーション画像とを重ね合わせた第2画像を生成する第2画像生成部と、前記第2画像を表示する第2表示装置とを更に備えていてもよい。 The teaching data generation system is installed toward the predetermined work space, and is attached to a camera that captures the operation of the detection object located in the predetermined work space and the teaching data generated by the teaching data generation unit. Based on this, a motion simulation image generation unit that generates a motion simulation image that virtually represents the motion mode of a robot operating in the predetermined work space captured by the camera, an image captured by the camera, and a motion simulation image. A second image generation unit that generates a second image in which the two images are superimposed, and a second display device that displays the second image may be further provided.

この構成によれば、教示データの修正を容易且つ迅速に行うことができる。 According to this configuration, the teaching data can be easily and quickly corrected.

前記教示データ生成システムは、前記検知対象物の動作態様の特定を開始する特定開始指示及び前記検知対象物の動作態様の特定を終了する特定終了指示を前記所定の作業空間に位置する教示作業実施者が入力するための動作態様取得開始/終了指示部を備え、前記動作態様特定部は、前記動作態様取得開始/終了指示部に入力された前記特定開始指示に基づいて前記検知対象物の動作態様の特定を開始し、且つ前記動作態様取得開始/終了指示部に入力された前記特定終了指示に基づいて前記検知対象物の動作態様の特定を終了してもよい。 The teaching data generation system executes teaching work in which a specific start instruction for starting the identification of the operation mode of the detection object and a specific end instruction for ending the specification of the operation mode of the detection object are located in the predetermined work space. The operation mode acquisition start / end instruction unit for input by a person is provided, and the operation mode identification unit operates the detection object based on the specific start instruction input to the operation mode acquisition start / end instruction unit. The specification of the mode may be started, and the specification of the operation mode of the detection target may be completed based on the specific end instruction input to the operation mode acquisition start / end instruction unit.

この構成によれば、教示作業実施者自身が作業空間において作業開始時に特定開始指示を入力して動作態様特定部に動作態様の特定を開始させた上で教示に係る作業を行い、その後、当該教示に係る作業が終了すると、作業空間において特定終了指示を入力して動作態様特定部に動作態様の特定を終了させることができる。よって、動作態様特定部に教示に係る作業に関係する動作態様のみを特定させることができる。 According to this configuration, the teaching work practitioner himself inputs a specific start instruction at the start of work in the work space, causes the operation mode specifying unit to start specifying the operation mode, and then performs the work related to the teaching. When the work related to the teaching is completed, the specific end instruction can be input in the work space to end the operation mode specification unit in the operation mode specification unit. Therefore, it is possible to have the operation mode specifying unit specify only the operation mode related to the work related to the teaching.

上記課題を解決するため、本発明のある態様に係る教示データ生成システムは、ロボットの動作態様を規定する教示データを生成する教示データ生成システムであって、所定の作業空間に位置する検知対象物の動作を検知する検知部と、前記検知部が検知した前記検知対象物の動作に基づいて、前記検知対象物の動作態様を特定する動作態様特定部と、前記動作態様特定部が特定した前記検知対象物の動作態様に基づいて、前記教示データを生成する教示データ生成部と、を含む。 In order to solve the above problems, the teaching data generation system according to a certain aspect of the present invention is a teaching data generation system that generates teaching data that defines the operation mode of the robot, and is a detection object located in a predetermined work space. A detection unit that detects the movement of the detection object, an operation mode specifying unit that specifies the operation mode of the detection target object based on the operation of the detection target object detected by the detection unit, and the operation mode specifying unit that specifies the operation mode specifying unit. It includes a teaching data generation unit that generates the teaching data based on the operation mode of the detection target object.

この構成によれば、検知部が検知した検知対象物の動作に基づいて教示データを作成することができる。したがって、ロボットの教示データの作成の際にロボットの操作方法に習熟した熟練作業者がロボットを操作する必要がなく、教示データの作成を容易かつ迅速に生成することができる。 According to this configuration, teaching data can be created based on the operation of the detection object detected by the detection unit. Therefore, it is not necessary for a skilled worker who is proficient in the operation method of the robot to operate the robot when creating the teaching data of the robot, and the creation of the teaching data can be easily and quickly generated.

上記課題を解決するため、本発明のある態様に係る教示データ生成方法は、ロボットの動作態様を規定する教示データを生成する教示データ生成方法であって、所定の作業空間に位置する検知対象物の動作を検知するステップと、前記検知対象物の動作に基づいて、前記検知対象物の動作軌跡を特定するステップと、前記検知対象物の動作軌跡を1以上の区間に分割するステップと、各前記区間の動作軌跡の始点と終点とを結ぶ直線又は近似曲線を算出し、且つ前記直線又は前記近似曲線に基づいて前記検知対象物の動作軌跡に近似する近似軌跡を算出するステップと、前記近似軌跡に基づいて前記教示データを生成するステップとを含む。 In order to solve the above problems, the teaching data generation method according to a certain aspect of the present invention is a teaching data generation method for generating teaching data that defines an operation mode of a robot, and is a detection object located in a predetermined work space. A step of detecting the movement of the detection target, a step of specifying the movement locus of the detection target based on the movement of the detection target, and a step of dividing the movement locus of the detection target into one or more sections. The step of calculating a straight line or an approximate curve connecting the start point and the end point of the operation locus of the section, and calculating an approximate locus that approximates the operation locus of the detection object based on the straight line or the approximate curve, and the approximation. It includes a step of generating the teaching data based on the locus.

この構成によれば、検知部が検知した検知対象物の動作に基づいて教示データを作成することができる。したがって、ロボットの教示データの作成の際にロボットの操作方法に習熟した熟練作業者がロボットを操作する必要がなく、教示データの作成を容易かつ迅速に生成することができる。 According to this configuration, teaching data can be created based on the operation of the detection object detected by the detection unit. Therefore, it is not necessary for a skilled worker who is proficient in the operation method of the robot to operate the robot when creating the teaching data of the robot, and the creation of the teaching data can be easily and quickly generated.

本発明は、教示データを容易かつ迅速に生成することができるという効果を奏する。 The present invention has the effect that teaching data can be easily and quickly generated.

本発明の実施の形態1に係るロボットシステムの構成例を示す平面図である。It is a top view which shows the structural example of the robot system which concerns on Embodiment 1 of this invention. 図1のロボットシステムのロボットの構成例を示す正面図である。It is a front view which shows the configuration example of the robot of the robot system of FIG. 図1のロボットシステムの制御系統の構成例を概略的に示すブロック図である。It is a block diagram which shows schematic structure example of the control system of the robot system of FIG. 図1のロボットシステムの検知部及び工具の構成例を示す平面図である。It is a top view which shows the structural example of the detection part and the tool of the robot system of FIG. 図1のロボットシステムの動作態様特定部が特定した作業者の動作態様及び近似軌跡算出部が生成した近似軌跡の構成例を示す図である。It is a figure which shows the operation mode of the worker specified by the operation mode specifying part of the robot system of FIG. 図1のロボットシステムの記憶部に記憶されている次数決定テーブルの構成例を示す図である。It is a figure which shows the structural example of the degree determination table stored in the storage part of the robot system of FIG. 図1のロボットシステムの第1画像生成部が生成した第1画像の構成例を示す図である。It is a figure which shows the structural example of the 1st image generated by the 1st image generation part of the robot system of FIG. 図1のロボットシステムの第1画像生成部が生成した第1画像の構成例を示す図である。It is a figure which shows the structural example of the 1st image generated by the 1st image generation part of the robot system of FIG. 図1のロボットシステムの動作シミュレーション画像生成部が生成した動作シミュレーション画像及び第2画像生成部が生成した第2画像の構成例を示す図である。It is a figure which shows the structural example of the motion simulation image generated by the motion simulation image generation part of the robot system of FIG. 1 and the 2nd image generated by the 2nd image generation part. 図1のロボットシステムの教示データ生成システムの動作例を示すフローチャートである。It is a flowchart which shows the operation example of the teaching data generation system of the robot system of FIG. 本発明の実施の形態2に係るロボットシステムの検知部の構成例を示す平面図である。It is a top view which shows the structural example of the detection part of the robot system which concerns on Embodiment 2 of this invention. 本発明の実施の形態3に係るロボットシステムの構成例を示す平面図である。It is a top view which shows the structural example of the robot system which concerns on Embodiment 3 of this invention. 本発明の実施の形態4に係るロボットシステムの制御系統の構成例を概略的に示すブロック図である。It is a block diagram which shows schematic structure example of the control system of the robot system which concerns on Embodiment 4 of this invention.

以下、本発明の実施の形態について、図面を参照しながら説明する。なお、本実施の形態によって本発明が限定されるものではない。また、以下では、全ての図を通じて、同一又は相当する要素には同一の参照符号を付して、その重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The present invention is not limited to the present embodiment. Further, in the following, the same or corresponding elements are designated by the same reference numerals throughout all the figures, and the duplicated description thereof will be omitted.

(実施の形態1)
図1は、本発明の実施の形態1に係るロボットシステム100の構成例を示す平面図である。
(Embodiment 1)
FIG. 1 is a plan view showing a configuration example of the robot system 100 according to the first embodiment of the present invention.

図1に示すように、ロボットシステム100は、例えば生産ラインの所定の作業空間Bにおいて作業者Aが行う所定の作業を作業者Aに代替して行うことができるものである。本実施の形態において、生産ラインには、同様の作業を行う作業空間Bがコンベヤ120の延在方向に一列に並んでおり、ロボットシステム100は、何れかの作業空間Bにおける所定の作業を代替して行うことができるように構成される。そして、作業空間Bにおいて、例えば、コンベヤ120からワークW1を取り上げて、ワークW1にワークW2を取り付け、その後再びコンベヤ120に戻す作業が実施される。 As shown in FIG. 1, the robot system 100 can perform a predetermined work performed by the worker A in a predetermined work space B of the production line in place of the worker A, for example. In the present embodiment, work spaces B for performing similar work are lined up in a row in the extending direction of the conveyor 120 on the production line, and the robot system 100 substitutes a predetermined work in any work space B. It is configured so that it can be done. Then, in the work space B, for example, the work W1 is picked up from the conveyor 120, the work W2 is attached to the work W1, and then the work W2 is returned to the conveyor 120 again.

ロボットシステム100は、ロボット1と、教示データ生成システム40とを備える。 The robot system 100 includes a robot 1 and a teaching data generation system 40.

[ロボットの構成例]
図2は、ロボットシステム100のロボット1の構成例を示す正面図である。
[Robot configuration example]
FIG. 2 is a front view showing a configuration example of the robot 1 of the robot system 100.

図2に示すように、ロボット1は、ロボット本体10と、ロボット制御部30とを含む。 As shown in FIG. 2, the robot 1 includes a robot main body 10 and a robot control unit 30.

ロボット本体10は、例えば、一対のロボットアームを備える水平多関節型の双腕ロボットである。但し、これに限られるものではなく、ロボットアームは、垂直多関節型のロボットアームであってもよい。 The robot body 10 is, for example, a horizontal articulated dual-arm robot including a pair of robot arms. However, the robot arm is not limited to this, and the robot arm may be a vertical articulated robot arm.

ロボット本体10は、移動可能に構成されている台車12と、台車12に支持された第1ロボットアーム13A及び第2ロボットアーム13Bと、第1ロボットアーム13Aの先端部に連なる第1ハンド14Aと、第2ロボットアーム13Bの先端部に連なる第2ハンド14Bと、第1ロボットアーム13Aの関節を駆動して第1ハンド14Aを移動させる第1ロボットアーム駆動部15Aと、第2ロボットアーム13Bの関節を駆動して第2ハンド14Bを移動させる第2ロボットアーム駆動部15Bと、第1ハンド14Aを駆動する第1ハンド駆動部16Aと、第2ハンド14Bを駆動する第2ハンド駆動部16Bとを含む。第1ロボットアーム13A及び第2ロボットアーム13Bは、互いに独立して動作したり、互いに関連して動作したりすることができる。 The robot body 10 includes a trolley 12 configured to be movable, a first robot arm 13A and a second robot arm 13B supported by the trolley 12, and a first hand 14A connected to the tip of the first robot arm 13A. , The second hand 14B connected to the tip of the second robot arm 13B, the first robot arm driving unit 15A for driving the joint of the first robot arm 13A to move the first hand 14A, and the second robot arm 13B. A second robot arm drive unit 15B that drives a joint to move the second hand 14B, a first hand drive unit 16A that drives the first hand 14A, and a second hand drive unit 16B that drives the second hand 14B. including. The first robot arm 13A and the second robot arm 13B can operate independently of each other or in relation to each other.

以下では、第1ロボットアーム13A及び第2ロボットアーム13Bを区別しない場合は、単にロボットアーム13ということがある。また、第1ハンド14A及び第2ハンド14Bを区別しない場合は、単にハンド14ということがある。更に、第1ロボットアーム駆動部15A及び第2ロボットアーム駆動部15Bを区別しない場合は、単にロボットアーム駆動部15ということがある。また、第1ハンド駆動部16Aと第2ハンド駆動部16Bとを区別しない場合は、単にハンド駆動部16ということがある。 In the following, when the first robot arm 13A and the second robot arm 13B are not distinguished, they may be simply referred to as the robot arm 13. Further, when the first hand 14A and the second hand 14B are not distinguished, it may be simply referred to as the hand 14. Further, when the first robot arm drive unit 15A and the second robot arm drive unit 15B are not distinguished, it may be simply referred to as the robot arm drive unit 15. Further, when the first hand drive unit 16A and the second hand drive unit 16B are not distinguished, it may be simply referred to as the hand drive unit 16.

ロボット制御部30は、台車12内に収納され、ロボットアーム駆動部15及びハンド駆動部16の動作を制御する。 The robot control unit 30 is housed in the carriage 12 and controls the operations of the robot arm drive unit 15 and the hand drive unit 16.

[教示データ生成システムの構成例]
図3は、ロボットシステム100の制御系統の構成例を概略的に示すブロック図である。
[Configuration example of teaching data generation system]
FIG. 3 is a block diagram schematically showing a configuration example of a control system of the robot system 100.

教示データ生成システム40は、ロボット1の動作態様を規定する教示データを生成するシステムである。図3に示すように、教示データ生成システム40は、制御装置48と、検知部43と、入力装置44と、表示装置45(第1表示装置,第2表示装置)とを含む。 The teaching data generation system 40 is a system that generates teaching data that defines the operation mode of the robot 1. As shown in FIG. 3, the teaching data generation system 40 includes a control device 48, a detection unit 43, an input device 44, and a display device 45 (first display device, second display device).

図4は、検知部43及び工具111の構成例を示す平面図である。 FIG. 4 is a plan view showing a configuration example of the detection unit 43 and the tool 111.

検知部43は、所定の作業空間Bに位置する検知対象物の動作を検知する。より具体的には、検知部43は、作業者の所定の身体の部位の変位を検知する。更に具体的には、検知部43は、作業者の右手(第1部位)及び左手(第2部位)の部位の変位を検知する。検知部43は、ビジョンセンサ71と、右手用グローブ72の第1ジャイロセンサ72bと、左手用グローブ73の第2ジャイロセンサ73bとを含む。 The detection unit 43 detects the operation of the detection object located in the predetermined work space B. More specifically, the detection unit 43 detects the displacement of a predetermined body part of the worker. More specifically, the detection unit 43 detects the displacement of the right hand (first part) and the left hand (second part) of the worker. The detection unit 43 includes a vision sensor 71, a first gyro sensor 72b of the right-hand glove 72, and a second gyro sensor 73b of the left-hand glove 73.

ビジョンセンサ(カメラ)71は、作業者Aが位置する作業空間Bの近傍に配設されている。そして、ビジョンセンサ71は、イメージセンサを有し、作業空間Bの経時変化に係る画像、すなわち動画像を撮影する。また、ビジョンセンサ71は、制御装置48と通信可能に接続され、撮影した動画像に係る情報を制御装置48に対して送信する(図3参照)。 The vision sensor (camera) 71 is arranged in the vicinity of the work space B in which the worker A is located. Then, the vision sensor 71 has an image sensor and captures an image related to the time-dependent change of the work space B, that is, a moving image. Further, the vision sensor 71 is communicably connected to the control device 48, and transmits information related to the captured moving image to the control device 48 (see FIG. 3).

図4に示すように、右手用グローブ72及び左手用グローブ73は、それぞれ作業者の右手及び左手に装着するグローブである。 As shown in FIG. 4, the right-handed glove 72 and the left-handed glove 73 are gloves worn on the right and left hands of the operator, respectively.

右手用グローブ72は、第1マーカ72aと、第1ジャイロセンサ72b(図3参照)とを含む。第1マーカ72aは、右手用グローブ72の甲の表面に付された所定の模様であり、例えば右手用グローブ72の甲の中心に付された矩形を主体とする図形に係る模様である。第1ジャイロセンサ72bは、変位を検知するジャイロセンサであり、右手用グローブ72に内蔵されている。 The right hand glove 72 includes a first marker 72a and a first gyro sensor 72b (see FIG. 3). The first marker 72a is a predetermined pattern attached to the surface of the instep of the right-handed glove 72, and is, for example, a pattern related to a figure mainly having a rectangle attached to the center of the instep of the right-handed glove 72. The first gyro sensor 72b is a gyro sensor that detects displacement, and is built in the glove 72 for the right hand.

左手用グローブ73は、第2マーカ73aと、第2ジャイロセンサ73b(図3参照)とを含む。第2マーカ73aは、左手用グローブ73の甲の表面に付された所定の模様であり、例えば左手用グローブ73の甲の中心に付された円形を主体とする図形に係る模様である。第2ジャイロセンサ73bは、変位を検知するジャイロセンサであり、左手用グローブ73に内蔵されている。このように、第1マーカ72aと第2マーカ73aとは、互いに異なる模様で構成されている。 The left hand glove 73 includes a second marker 73a and a second gyro sensor 73b (see FIG. 3). The second marker 73a is a predetermined pattern attached to the surface of the instep of the left-handed glove 73, and is, for example, a pattern related to a circular figure mainly attached to the center of the instep of the left-handed glove 73. The second gyro sensor 73b is a gyro sensor that detects displacement, and is built in the left hand glove 73. As described above, the first marker 72a and the second marker 73a are configured to have different patterns from each other.

更に、右手用グローブ72は第3マーカ72cを含み、左手用グローブ73は、第4マーカ73cを含む。第3マーカ72c及び第4マーカ73cは、それぞれ右手用グローブ72及び左手用グローブ73の指の甲を横断する方向に伸延する互いに平行な複数の線に係る模様である。複数の線に係る模様は、所定の間隔で付されている。 Further, the right-handed glove 72 includes a third marker 72c, and the left-handed glove 73 includes a fourth marker 73c. The third marker 72c and the fourth marker 73c are patterns relating to a plurality of parallel lines extending in a direction crossing the back of the fingers of the right-hand glove 72 and the left-hand glove 73, respectively. The patterns relating to the plurality of lines are attached at predetermined intervals.

図3に示すように、第1ジャイロセンサ72b及び第2ジャイロセンサ73bは、制御装置48と通信可能に接続され、検知した変位を制御装置48に送信する。 As shown in FIG. 3, the first gyro sensor 72b and the second gyro sensor 73b are communicably connected to the control device 48 and transmit the detected displacement to the control device 48.

入力装置44は、情報を入力するための装置であり、例えばキーボード、マウス等の装置である。入力装置44は制御装置48と通信可能に接続され、入力された情報を制御装置48に対して送信する。 The input device 44 is a device for inputting information, for example, a device such as a keyboard and a mouse. The input device 44 is communicably connected to the control device 48 and transmits the input information to the control device 48.

表示装置45は、制御装置48と通信可能に接続され、制御装置48から出力された信号を受信し、受信した信号に基づいて画像を表示する。表示装置45は、例えば液晶表示装置である。表示装置45は、後述する第1画像81及び第2画像84を表示する。 The display device 45 is communicably connected to the control device 48, receives a signal output from the control device 48, and displays an image based on the received signal. The display device 45 is, for example, a liquid crystal display device. The display device 45 displays the first image 81 and the second image 84, which will be described later.

制御装置48は、制御部41及び記憶部42を含む。制御装置48は、集中制御を行う単独の制御器で構成してもよく、分散制御を行う複数の制御器で構成してもよい。 The control device 48 includes a control unit 41 and a storage unit 42. The control device 48 may be configured by a single controller that performs centralized control, or may be configured by a plurality of controllers that perform distributed control.

制御部41は、例えば、マイクロコントローラ、CPU、MPU、論理回路、PLC等で構成される。 The control unit 41 is composed of, for example, a microcontroller, a CPU, an MPU, a logic circuit, a PLC, and the like.

制御部41は、動作態様特定部61と、動作軌跡分割部62と、近似軌跡算出部63と、教示データ生成部64と、第1画像生成部65と、第2画像生成部66と、動作シミュレーション画像生成部67とを含む。動作態様特定部61、動作軌跡分割部62、近似軌跡算出部63、教示データ生成部64、第1画像生成部65、第2画像生成部66、動作シミュレーション画像生成部67は、記憶部42に格納された所定の制御プログラムを演算器が実行することにより実現される機能ブロックである。 The control unit 41 operates the operation mode specifying unit 61, the operation locus dividing unit 62, the approximate locus calculation unit 63, the teaching data generation unit 64, the first image generation unit 65, the second image generation unit 66, and the operation. Includes a simulation image generation unit 67. The operation mode specifying unit 61, the operation locus dividing unit 62, the approximate locus calculation unit 63, the teaching data generation unit 64, the first image generation unit 65, the second image generation unit 66, and the operation simulation image generation unit 67 are stored in the storage unit 42. It is a functional block realized by the arithmetic unit executing a stored predetermined control program.

図5は、動作態様特定部61が特定した作業者Aの動作態様及び近似軌跡算出部63が生成した近似軌跡の構成例を示す図である。 FIG. 5 is a diagram showing a configuration example of the operation mode of the worker A specified by the operation mode specifying unit 61 and the approximate locus generated by the approximate locus calculation unit 63.

動作態様特定部61は、検知部43が検知した検知対象物の動作に基づいて、検知対象物の動作態様を特定する。例えば、動作態様特定部61は、検知部43が検知した作業者Aの両手の変位に基づいて、両手のそれぞれの動作軌跡を特定する。 The operation mode specifying unit 61 specifies the operation mode of the detection target object based on the operation of the detection target object detected by the detection unit 43. For example, the operation mode specifying unit 61 specifies the operation locus of each of the hands based on the displacement of both hands of the worker A detected by the detection unit 43.

すなわち、図5に示すように、動作態様特定部61は、ビジョンセンサ71が撮影した画像データを分析し、当該画像データに含まれる第1マーカ72aの変位に基づいて作業者Aの右手の動作軌跡Tを特定する。また、動作態様特定部61は、ビジョンセンサ71が撮影した画像データに含まれる第2マーカ73aの変位に基づいて作業者Aの左手の動作軌跡を特定する。このように、右手用グローブ72と左手用グローブ73とは、異なる模様で構成されているので、これらのマーカに基づいて作業者の右手及び左手を識別することができる。 That is, as shown in FIG. 5, the operation mode specifying unit 61 analyzes the image data captured by the vision sensor 71, and the operation of the right hand of the operator A based on the displacement of the first marker 72a included in the image data. Identify the locus T. Further, the operation mode specifying unit 61 identifies the operation locus of the left hand of the worker A based on the displacement of the second marker 73a included in the image data captured by the vision sensor 71. As described above, since the right-hand glove 72 and the left-hand glove 73 are configured in different patterns, the right hand and the left hand of the operator can be identified based on these markers.

そして、動作態様特定部61は、両手のそれぞれの動作軌跡を、微小時間間隔毎に特定した手の位置座標として特定する。すなわち、動作態様特定部61は、両手のそれぞれの動作軌跡を離散点で経時的に観測・測定された一組のデータ群として表現する。また、動作態様特定部61は、両手のそれぞれの動作軌跡を互いに同一の時間軸を用いて表現する。 Then, the operation mode specifying unit 61 specifies the operation locus of each of the hands as the position coordinates of the specified hand at each minute time interval. That is, the motion mode specifying unit 61 expresses the motion trajectories of both hands as a set of data groups observed and measured over time at discrete points. Further, the motion mode specifying unit 61 expresses the motion trajectories of both hands using the same time axis.

更に、動作態様特定部61は、ビジョンセンサ71が撮影した画像データに含まれる第3マーカ72c及び第4マーカ73cに基づいて、左手及び右手指の曲げ伸ばし等の作業者Aの手の動きを特定する。すなわち、作業者Aが指先を曲げると、指先の線は手の甲から掌の側に移動して隠れると共に、ビジョンセンサ71から見た複数の線の間隔が変化する。動作態様特定部61は、ビジョンセンサ71が撮影した画像データに含まれる第3マーカ72c及び第4マーカ73cの模様の変化に基づいて、作業者Aの手の動きを特定する。 Further, the operation mode specifying unit 61 performs the movement of the worker A's hand such as bending and stretching of the left and right fingers based on the third marker 72c and the fourth marker 73c included in the image data captured by the vision sensor 71. Identify. That is, when the worker A bends the fingertip, the line of the fingertip moves from the back of the hand to the palm side and is hidden, and the distance between the plurality of lines seen from the vision sensor 71 changes. The operation mode specifying unit 61 identifies the movement of the worker A's hand based on the changes in the patterns of the third marker 72c and the fourth marker 73c included in the image data captured by the vision sensor 71.

また、動作態様特定部61は、第1ジャイロセンサ72bが検知した作業者Aの右手の変位に基づいて、ビジョンセンサ71が撮影した画像に基づいて動作態様特定部61が特定した作業者Aの右手の動作軌跡Tを補正する。また、動作態様特定部61は、第2ジャイロセンサ73bが検知した作業者Aの左手の変位に基づいて、ビジョンセンサ71が撮影した画像に基づいて動作態様特定部61が特定した作業者Aの左手の動作軌跡を補正する。 Further, the operation mode specifying unit 61 is the operation mode specifying unit 61 of the worker A specified by the operation mode specifying unit 61 based on the image captured by the vision sensor 71 based on the displacement of the right hand of the worker A detected by the first gyro sensor 72b. The motion trajectory T of the right hand is corrected. Further, the operation mode specifying unit 61 is the operation mode specifying unit 61 of the worker A specified by the operation mode specifying unit 61 based on the image captured by the vision sensor 71 based on the displacement of the left hand of the worker A detected by the second gyro sensor 73b. Correct the movement trajectory of the left hand.

また、作業者Aが用いる工具111にマーカ111aを付してもよい。そして、動作態様特定部61は、ビジョンセンサ71が撮影した画像データに含まれるマーカ111aの変位に基づいて、作業者Aが工具111を用いる動作態様を特定してもよい。 Further, the marker 111a may be attached to the tool 111 used by the operator A. Then, the operation mode specifying unit 61 may specify the operation mode in which the worker A uses the tool 111 based on the displacement of the marker 111a included in the image data captured by the vision sensor 71.

動作軌跡分割部62は、動作態様特定部61が特定した検知対象物の動作軌跡を1以上の区間に分割する。例えば、動作軌跡分割部62は、動作態様特定部61が特定した作業者Aの両手のそれぞれの動作軌跡を1以上の区間に分割する。 The operation locus dividing unit 62 divides the operation locus of the detection target object specified by the operation mode specifying unit 61 into one or more sections. For example, the operation locus dividing unit 62 divides each operation locus of both hands of the worker A specified by the operation mode specifying unit 61 into one or more sections.

すなわち、図5に示すように、動作軌跡分割部62は、例えば所定の時間間隔で作業者の手の動作軌跡を複数の区間に分割する。 That is, as shown in FIG. 5, the motion locus dividing unit 62 divides the motion locus of the worker's hand into a plurality of sections, for example, at predetermined time intervals.

図6は、次数決定テーブルの構成例を示す図である。 FIG. 6 is a diagram showing a configuration example of the order determination table.

近似軌跡算出部63は、動作軌跡分割部62が分割した各区間の動作軌跡の始点と終点とを結ぶ直線又は近似曲線を算出する。更に、算出した各区間の動作軌跡の始点と終点とを結ぶ直線又は近似曲線に基づいて作業者Aの手の動作軌跡に近似する近似軌跡を算出する。 The approximate locus calculation unit 63 calculates a straight line or an approximate curve connecting the start point and the end point of the operation locus of each section divided by the operation locus dividing unit 62. Further, an approximate locus that approximates the motion locus of the worker A's hand is calculated based on a straight line or an approximate curve connecting the start point and the end point of the motion locus of each section calculated.

すなわち、近似軌跡算出部63は、動作軌跡分割部62が分割した各区間について、動作態様特定部61が特定した動作軌跡に基づいて作業者Aの手の最高移動速度を算出する。そして、例えば、図6に示す次数決定テーブルを参照し、各区間について、最高移動速度に応じて複数段階にランク分けする。そして、各区間について、その動作軌跡の始点と終点とを結ぶN次式(Nは1以上の整数)で表現される直線又は近似曲線を算出する。N次式の次数は、ランクに応じて規定され、最高移動速度が高いランクから最高移動速度が低いランクになるに従って、次数が低くなるように規定されている。すなわち、作業者の手の最高移動速度が低くなるに従って、動作軌跡に対する近似軌跡の近似度が高くなるように構成されている。通常、作業者Aが高い精度が要求される作業を行っているときは、手をゆっくり動かして注意深く作業を進めるため、手の移動速度は遅くなる。したがって、高い精度が要求される区間においては、動作軌跡に対する近似軌跡の近似度が高くなるように構成されている。 That is, the approximate locus calculation unit 63 calculates the maximum moving speed of the hand of the operator A based on the operation locus specified by the operation mode specifying unit 61 for each section divided by the operation locus dividing unit 62. Then, for example, referring to the order determination table shown in FIG. 6, each section is ranked in a plurality of stages according to the maximum moving speed. Then, for each section, a straight line or an approximate curve expressed by an Nth-order equation (N is an integer of 1 or more) connecting the start point and the end point of the operation locus is calculated. The order of the N-order equation is defined according to the rank, and the order is defined to decrease from the rank with the highest maximum moving speed to the rank with the lower maximum moving speed. That is, as the maximum moving speed of the worker's hand decreases, the degree of approximation of the approximate locus with respect to the motion locus increases. Normally, when the worker A is performing a work that requires high accuracy, he / she slowly moves his / her hand to proceed with the work carefully, so that the moving speed of the hand becomes slow. Therefore, in the section where high accuracy is required, the degree of approximation of the approximate locus with respect to the motion locus is high.

なお、本実施の形態においては、動作態様特定部61が特定した動作軌跡に基づいて作業者Aの手の最高移動速度を算出し、算出した作業者の手の最高移動速度が低くなるに従って、動作軌跡に対する近似軌跡の近似度が高くなるように構成したがこれに限られるものではない。これに代えて、動作態様特定部61が特定した動作軌跡に基づいて作業者Aの手の加速度を算出し、算出した作業者の手の加速度が低くなるに従って、動作軌跡Tに対する近似軌跡Taの近似度が高くなるように構成してもよい。 In the present embodiment, the maximum moving speed of the worker A's hand is calculated based on the movement locus specified by the operation mode specifying unit 61, and as the calculated maximum moving speed of the worker's hand becomes lower, It is configured so that the degree of approximation of the approximate trajectory with respect to the motion trajectory is high, but the present invention is not limited to this. Instead of this, the acceleration of the hand of the worker A is calculated based on the movement locus specified by the movement mode specifying unit 61, and as the calculated acceleration of the hand of the worker becomes lower, the approximate locus Ta with respect to the movement locus T is calculated. It may be configured so that the degree of approximation is high.

教示データ生成部64は、動作態様特定部61が特定した検知対象物の動作態様に基づいて、教示データを生成する。例えば、教示データ生成部64は、近似軌跡算出部63が算出した近似軌跡に基づいて、ロボット制御部30に対する第1ロボットアーム13A及び第2ロボットアーム13Bの動作態様を規定する教示データを生成する。教示データには、近似軌跡に沿ってハンド14を移動させるためのロボットアーム13の関節の角度変位情報等が含まれる。 The teaching data generation unit 64 generates teaching data based on the operation mode of the detection target object specified by the operation mode specifying unit 61. For example, the teaching data generation unit 64 generates teaching data that defines the operation modes of the first robot arm 13A and the second robot arm 13B with respect to the robot control unit 30 based on the approximate locus calculated by the approximate locus calculation unit 63. .. The teaching data includes angular displacement information of the joint of the robot arm 13 for moving the hand 14 along the approximate trajectory.

図7A及び図7Bは、第1画像生成部65が生成した第1画像81の構成例を示す図である。 7A and 7B are diagrams showing a configuration example of the first image 81 generated by the first image generation unit 65.

第1画像生成部65は、図7A及び図7Bに示すように、近似軌跡、各区間の境界位置、各区間の加速度に係る情報を含む第1画像81を生成する。 As shown in FIGS. 7A and 7B, the first image generation unit 65 generates the first image 81 including information related to the approximate locus, the boundary position of each section, and the acceleration of each section.

図8は、動作シミュレーション画像生成部67が生成した動作シミュレーション画像83及び第2画像生成部66が生成した第2画像84の構成例を示す図である。 FIG. 8 is a diagram showing a configuration example of a motion simulation image 83 generated by the motion simulation image generation unit 67 and a second image 84 generated by the second image generation unit 66.

動作シミュレーション画像生成部67は、図8に示すように、教示データ生成部64が生成した教示データに基づいて、ビジョンセンサ71から撮影された所定の作業空間Bにおいて動作するロボット1の動作態様を仮想的に表現した動作シミュレーション画像を生成する。なお、動作シミュレーション画像生成部67に近似軌跡Taを表してもよい。 As shown in FIG. 8, the motion simulation image generation unit 67 describes the operation mode of the robot 1 that operates in the predetermined work space B photographed from the vision sensor 71 based on the teaching data generated by the teaching data generation unit 64. Generate a virtual motion simulation image. The approximate locus Ta may be represented in the motion simulation image generation unit 67.

第2画像生成部66は、ビジョンセンサ71が撮影した実画像82と動作シミュレーション画像83とを重ね合わせた第2画像84を生成する。第2画像84において、例えば動作シミュレーション画像83は透過画像として表され、実画像82及び動作シミュレーション画像83を同時に視認することができるように構成されている。また、第2画像生成部66は、実画像82における作業者Aの動作状態と動作シミュレーション画像83におけるロボット本体10の動作状態とを同期させて表示するように構成されている。これによって、作業者Aの作業をロボット本体10に代替させた状態を容易に確認することができ、動作上の不具合を容易に発見することができる。 The second image generation unit 66 generates a second image 84 in which the actual image 82 captured by the vision sensor 71 and the motion simulation image 83 are superimposed. In the second image 84, for example, the motion simulation image 83 is represented as a transparent image, and is configured so that the real image 82 and the motion simulation image 83 can be visually recognized at the same time. Further, the second image generation unit 66 is configured to display the operating state of the worker A in the actual image 82 and the operating state of the robot body 10 in the motion simulation image 83 in synchronization with each other. As a result, it is possible to easily confirm the state in which the work of the worker A is replaced by the robot main body 10, and it is possible to easily find a malfunction in operation.

記憶部42は、ROM、RAM等のメモリを有する。記憶部42には、所定のプログラムが記憶されていて、制御部41がこれらのプログラムを読み出して実行することにより、各種の処理が行われる。また、記憶部42には、図6に示す次数決定テーブルが記憶されている。 The storage unit 42 has a memory such as a ROM and a RAM. Predetermined programs are stored in the storage unit 42, and various processes are performed by the control unit 41 reading and executing these programs. Further, the storage unit 42 stores the order determination table shown in FIG.

[教示データの自動作成に係る動作例]
次に、教示データ生成システム40の教示データの自動作成に係る動作例を説明する。
[Operation example related to automatic creation of teaching data]
Next, an operation example related to automatic creation of teaching data of the teaching data generation system 40 will be described.

図9は、教示データ生成システム40の動作例を示すフローチャートである。 FIG. 9 is a flowchart showing an operation example of the teaching data generation system 40.

まず、図9に示すように、ステップS10において、ビジョンセンサ71は、作業者Aが位置する作業空間Bを撮影し、撮影した画像データ(動画像データ)を教示データ生成システム40の制御装置48に送信する。制御装置48の制御部41は、受信した画像データを記憶部42に格納する。 First, as shown in FIG. 9, in step S10, the vision sensor 71 photographs the work space B in which the worker A is located, teaches the photographed image data (moving image data), and controls the control device 48 of the data generation system 40. Send to. The control unit 41 of the control device 48 stores the received image data in the storage unit 42.

次に、ステップS20において、第1ジャイロセンサ72b及び第2ジャイロセンサ73bは、それぞれ検知した作業者Aの右手及び左手の変位に係る情報を教示データ生成システム40の制御装置48に送信する。制御装置48の制御部41は、受信した変位に係る情報を記憶部42に格納する。 Next, in step S20, the first gyro sensor 72b and the second gyro sensor 73b transmit the detected information regarding the displacement of the right hand and the left hand of the worker A to the control device 48 of the teaching data generation system 40. The control unit 41 of the control device 48 stores the received information related to the displacement in the storage unit 42.

次に、ステップS30において、教示データ生成システム40の動作態様特定部61は、記憶部42に格納された画像データを分析し、画像に含まれる第1マーカ72aの変位に基づいて、作業者Aの右手の動作態様、すなわち右手の動作軌跡Tを特定する。同様に、動作態様特定部61は、画像に含まれる第2マーカ73aの変位に基づいて、作業者Aの左手の動作態様、すなわち左手の動作軌跡を特定する。 Next, in step S30, the operation mode specifying unit 61 of the teaching data generation system 40 analyzes the image data stored in the storage unit 42, and the worker A is based on the displacement of the first marker 72a included in the image. The motion mode of the right hand, that is, the motion locus T of the right hand is specified. Similarly, the motion mode specifying unit 61 identifies the motion mode of the left hand of the worker A, that is, the motion locus of the left hand, based on the displacement of the second marker 73a included in the image.

次に、ステップS40において、動作態様特定部61は、記憶部42に格納された第1ジャイロセンサ72bが検知した作業者Aの右手の変位に係る情報に基づいて、動作態様特定部61が特定した作業者の右手の動作軌跡Tを補正する。同様に、動作態様特定部61は、記憶部42に格納された第2ジャイロセンサ73bが検知した作業者Aの左手の変位に係る情報に基づいて、動作態様特定部61が特定した作業者Aの左手の動作軌跡を補正する。そして、動作態様特定部61は、特定した右手及び左手の動作軌跡に係るデータを記憶部42に格納する。 Next, in step S40, the operation mode specifying unit 61 is specified by the operation mode specifying unit 61 based on the information related to the displacement of the right hand of the worker A detected by the first gyro sensor 72b stored in the storage unit 42. The motion locus T of the right hand of the worker is corrected. Similarly, the operation mode specifying unit 61 is the worker A specified by the operation mode specifying unit 61 based on the information related to the displacement of the left hand of the worker A detected by the second gyro sensor 73b stored in the storage unit 42. Correct the movement trajectory of the left hand of. Then, the operation mode specifying unit 61 stores the data related to the specified right-hand and left-hand operation loci in the storage unit 42.

上述の通り、第1マーカ72a及び第2マーカ73aの模様は、互いに異なる模様で構成されているので、ビジョンセンサ71が撮影した画像データに基づいて、両手の動作を精確に識別することができる。 As described above, since the patterns of the first marker 72a and the second marker 73a are different from each other, the movements of both hands can be accurately identified based on the image data captured by the vision sensor 71. ..

また、動作態様特定部61は、ビジョンセンサ71が撮像した画像に含まれるマーカ(第1マーカ72a又は第2マーカ73a)の変位に加え、ジャイロセンサ(第1ジャイロセンサ72b及び第2ジャイロセンサ73b)が検知した変位に基づいて作業者の手の動作軌跡を特定するよう構成されている。これによって、例えば一方の手が他方の手によって覆われるなど、ビジョンセンサ71の死角となる位置における作業者の手の変位を検知することができ、より精度よく作業者の手の動作軌跡を特定することができる。また、ビジョンセンサ71が故障した場合においても、ジャイロセンサが検知した作業者の手の変位に基づいて、作業者の手の動作軌跡を特定することができ、教示データ生成システムの信頼性を向上させることができる。 In addition to the displacement of the markers (first marker 72a or second marker 73a) included in the image captured by the vision sensor 71, the operation mode specifying unit 61 includes gyro sensors (first gyro sensor 72b and second gyro sensor 73b). ) Is configured to identify the motion trajectory of the worker's hand based on the detected displacement. As a result, it is possible to detect the displacement of the worker's hand at a position that becomes a blind spot of the vision sensor 71, for example, one hand is covered by the other hand, and the movement trajectory of the worker's hand can be specified more accurately. can do. Further, even if the vision sensor 71 fails, the motion trajectory of the worker's hand can be specified based on the displacement of the worker's hand detected by the gyro sensor, improving the reliability of the teaching data generation system. Can be made to.

更に、動作態様特定部61は、ビジョンセンサ71が撮影した画像データに含まれる第3マーカ72c及び第4マーカ73cに基づいて、左手及び右手指の曲げ伸ばし等の作業者Aの手の動きを特定してもよい。また、動作態様特定部61は、工具111に付されたマーカ111aに基づいて、作業者Aが工具111を用いる動作態様を特定してもよい。 Further, the operation mode specifying unit 61 performs the movement of the worker A's hand such as bending and stretching of the left and right fingers based on the third marker 72c and the fourth marker 73c included in the image data captured by the vision sensor 71. It may be specified. Further, the operation mode specifying unit 61 may specify the operation mode in which the worker A uses the tool 111 based on the marker 111a attached to the tool 111.

なお、動作態様特定部61は、上述のとおり、両手のそれぞれの動作軌跡を互いに同一の時間軸を用いて表現する。これによって、動作態様特定部61は、両手の相対的な位置関係を特定することができる。 As described above, the operation mode specifying unit 61 expresses the operation loci of both hands using the same time axis. Thereby, the operation mode specifying unit 61 can specify the relative positional relationship between both hands.

このように、ビジョンセンサ71が撮影した画像に含まれる第1マーカ72a及び第2マーカ73aに基づいて一括して作業者Aの両手の動作態様を特定することができる。 In this way, the movement modes of both hands of the operator A can be collectively specified based on the first marker 72a and the second marker 73a included in the image captured by the vision sensor 71.

次に、ステップS50において、動作軌跡分割部62は、作業者Aの右手の動作軌跡Tを区間s1,s2の二つの区間に分割する。同様に、動作軌跡分割部62は、作業者Aの左手の動作軌跡を図示しない二つの区間に分割する。 Next, in step S50, the motion locus dividing unit 62 divides the motion locus T of the right hand of the worker A into two sections s1 and s2. Similarly, the motion locus dividing unit 62 divides the motion locus of the left hand of the worker A into two sections (not shown).

次に、ステップS60において、近似軌跡算出部63は、作業者Aの右手の区間s1,s2のそれぞれについて、作業者Aの右手の最高移動速度を算出する。同様に、近似軌跡算出部63は、作業者Aの左手の動作軌跡の図示しない二つの区間のそれぞれについて、作業者Aの左手の最高移動速度を算出する。 Next, in step S60, the approximate locus calculation unit 63 calculates the maximum moving speed of the right hand of the worker A for each of the sections s1 and s2 of the right hand of the worker A. Similarly, the approximate locus calculation unit 63 calculates the maximum moving speed of the left hand of the worker A for each of the two sections (not shown) of the motion locus of the left hand of the worker A.

次に、ステップS70において、近似軌跡算出部63は、図6に示すように、次数決定テーブルを参照し、作業者Aの右手の区間s1,s2について、それぞれを最高移動速度に応じてランク分けする。例えば、区間s1における作業者Aの右手の最高移動速度が速度a2を超える速度である場合、近似軌跡算出部63は、区間s1をランクCに分類する。また、区間s2における作業者Aの右手の最高移動速度がa1を超え、且つa2以下である場合、近似軌跡算出部63は、区間s2をランクBに分類する。同様に、近似軌跡算出部63は、作業者Aの左手の二つの区間について、それぞれを最高移動速度に応じてランク分けする。 Next, in step S70, as shown in FIG. 6, the approximate locus calculation unit 63 refers to the order determination table and ranks the right-hand sections s1 and s2 of the worker A according to the maximum movement speed. To do. For example, when the maximum moving speed of the right hand of the worker A in the section s1 is a speed exceeding the speed a2, the approximate locus calculation unit 63 classifies the section s1 into rank C. Further, when the maximum moving speed of the right hand of the worker A in the section s2 exceeds a1 and is equal to or less than a2, the approximate trajectory calculation unit 63 classifies the section s2 into rank B. Similarly, the approximate locus calculation unit 63 ranks each of the two sections on the left hand side of the worker A according to the maximum moving speed.

次に、ステップS80において、近似軌跡算出部63は、作業者Aの右手の区間s1,s2のそれぞれについて、ランクに応じたN次式の次数を決定する。例えば、近似軌跡算出部63は、区間s1について、区間s1のランクCに応じた次数1と決定し、区間s2について、区間s2のランクBに応じた次数2と決定する。同様に近似軌跡算出部63は、作業者Aの左手の二つの区間のそれぞれについて、ランクに応じたN次式の次数を決定する。 Next, in step S80, the approximate locus calculation unit 63 determines the order of the Nth-order equation according to the rank for each of the sections s1 and s2 on the right hand side of the worker A. For example, the approximate locus calculation unit 63 determines that the section s1 has an order 1 according to the rank C of the section s1, and determines that the section s2 has an order 2 according to the rank B of the section s2. Similarly, the approximate locus calculation unit 63 determines the order of the Nth-order equation according to the rank for each of the two sections on the left hand of the worker A.

次に、ステップS90において、近似軌跡算出部63は、作業者Aの右手の各区間s1,s2について、その動作軌跡の始点と終点とを結ぶN次式(Nは1以上の整数)で表現される直線又は近似曲線を算出する。例えば、近似軌跡算出部63は、区間s1について1次式で表現される直線を算出し、区間s2について2次式で表現される近似曲線を算出する。上述の通り、作業者の手の最高移動速度が低くなるに従って、動作軌跡Tに対する近似軌跡Taの近似度が高くなる(N次式の次数Nが大きくなる)ように構成されているので、高い精度が要求される区間においては、動作軌跡Tに対する近似軌跡Taの近似度が高くなるように構成されている。同様に、近似軌跡算出部63は、作業者Aの右手の二つの区間のそれぞれについて、その動作軌跡の始点と終点とを結ぶN次式で表現される直線又は近似曲線を算出する。 Next, in step S90, the approximate locus calculation unit 63 expresses each section s1 and s2 of the right hand of the worker A by an Nth-order equation (N is an integer of 1 or more) connecting the start point and the end point of the operation locus. Calculate the straight line or approximate curve to be created. For example, the approximate trajectory calculation unit 63 calculates a straight line expressed by a linear expression for the section s1 and calculates an approximate curve expressed by a quadratic expression for the section s2. As described above, as the maximum moving speed of the worker's hand decreases, the degree of approximation of the approximate locus Ta with respect to the motion locus T increases (the order N of the Nth-order equation increases), so that it is high. In the section where accuracy is required, the degree of approximation of the approximate locus Ta with respect to the motion locus T is high. Similarly, the approximate locus calculation unit 63 calculates a straight line or an approximate curve expressed by an Nth-order equation connecting the start point and the end point of the motion locus for each of the two sections on the right hand of the worker A.

次に、ステップS100において、近似軌跡算出部63は、作業者Aの右手の算出した区間s1,s2の動作軌跡の始点と終点とを結ぶ直線又は近似曲線に基づいて、動作軌跡Tに近似する近似軌跡Taを算出する。同様に、近似軌跡算出部63は、作業者Aの左手の算出した二つの区間の動作軌跡の始点と終点とを結ぶ直線又は近似曲線に基づいて、動作軌跡に近似する近似軌跡を算出する。近似軌跡算出部63は、算出した近似軌跡を記憶部42に格納する。 Next, in step S100, the approximate locus calculation unit 63 approximates the operation locus T based on a straight line or an approximate curve connecting the start point and the end point of the operation locus of the calculated sections s1 and s2 of the worker A's right hand. The approximate locus Ta is calculated. Similarly, the approximate locus calculation unit 63 calculates an approximate locus that approximates the motion locus based on a straight line or an approximate curve connecting the start point and the end point of the motion locus of the two sections calculated by the left hand of the worker A. The approximate locus calculation unit 63 stores the calculated approximate locus in the storage unit 42.

次に、ステップS110において、教示データ生成部64は、近似軌跡算出部63が算出し、記憶部42に格納された作業者Aの右手の近似軌跡Taに基づいて、ロボット制御部30に対する第1ロボットアーム13Aの動作態様を規定する第1教示データを生成する。同様に、教示データ生成部64は、近似軌跡算出部63が算出し、記憶部42に格納された作業者Aの左手の近似軌跡に基づいて、ロボット制御部30に対する第2ロボットアーム13Bの動作態様を規定する第2教示データを生成する。そして、教示データ生成部64は、生成した第1教示データ及び第2教示データを記憶部42に格納する。 Next, in step S110, the teaching data generation unit 64 is the first with respect to the robot control unit 30 based on the approximate locus Ta of the right hand of the worker A calculated by the approximate locus calculation unit 63 and stored in the storage unit 42. The first teaching data that defines the operation mode of the robot arm 13A is generated. Similarly, the teaching data generation unit 64 operates the second robot arm 13B with respect to the robot control unit 30 based on the approximate locus of the left hand of the worker A calculated by the approximate locus calculation unit 63 and stored in the storage unit 42. Generate second teaching data that defines aspects. Then, the teaching data generation unit 64 stores the generated first teaching data and the second teaching data in the storage unit 42.

このように、教示データ生成システム40は、ビジョンセンサ71が撮影した画像に含まれる作業者の両手の動作に基づいて一括してロボット1の第1ロボットアーム13Aの動作態様を規定する第1教示データ、及び第2ロボットアーム13Bの動作態様を規定する第2教示データを作成することができる。したがって、例えば、第1ハンド14A及び第2ハンド14Bが協働してワークを挟み持って運搬する作業等の一対のロボットアームを組み合わせた複雑な動作態様を規定する教示データの作成を容易かつ迅速に生成することができる。 As described above, the teaching data generation system 40 collectively defines the operation mode of the first robot arm 13A of the robot 1 based on the movements of both hands of the operator included in the image captured by the vision sensor 71. Data and second teaching data that define the operation mode of the second robot arm 13B can be created. Therefore, for example, it is easy and quick to create teaching data that defines a complicated operation mode in which a pair of robot arms are combined, such as a work in which the first hand 14A and the second hand 14B collaborate to pinch and carry a work. Can be generated in.

また、教示データ生成システム40の制御部41は、動作態様特定部61が特定した作業者Aの動作軌跡に基づいてロボットアーム(第1ロボットアーム13A及び第2ロボットアーム13B)の動作態様を規定する教示データ(第1教示データ及び第2教示データ)を生成する際、作業者Aの手の最高移動速度に基づいて作業に対する要求精度を判定し、この要求精度に応じて作業者Aの動作軌跡の近似軌跡を算出するように構成されている。したがって、教示データに係る動作態様から作業者Aの意図しない震え等の動作を取り除くことができ、ロボットの動作に適した動作に係る教示データを生成することができる。また、教示データのデータ量を少なくすることができ、教示データ生成システム40の演算処理負荷を軽減することができる。なお、制御部41が算出する近似軌跡は、上記の構成に限られるものではない。例えば、制御部41は、動作態様特定部61が特定した作業者Aの動作軌跡との距離が所定の値に収まるジグザグ形状の線、すなわち各区間が直線(1次式)で表現される線を算出し、この線を近似軌跡としてもよい。 Further, the control unit 41 of the teaching data generation system 40 defines the operation mode of the robot arm (first robot arm 13A and second robot arm 13B) based on the operation locus of the worker A specified by the operation mode specifying unit 61. When generating the teaching data (first teaching data and the second teaching data) to be performed, the required accuracy for the work is determined based on the maximum movement speed of the hand of the worker A, and the operation of the worker A according to the required accuracy. It is configured to calculate the approximate trajectory of the trajectory. Therefore, it is possible to remove unintended movements such as tremors of the operator A from the movement modes related to the teaching data, and it is possible to generate teaching data related to the movements suitable for the movements of the robot. In addition, the amount of teaching data can be reduced, and the arithmetic processing load of the teaching data generation system 40 can be reduced. The approximate locus calculated by the control unit 41 is not limited to the above configuration. For example, the control unit 41 has a zigzag-shaped line in which the distance from the operation locus of the worker A specified by the operation mode specifying unit 61 falls within a predetermined value, that is, a line in which each section is represented by a straight line (linear expression). May be calculated and this line may be used as an approximate locus.

更に、ビジョンセンサ71が撮影した画像に基づいて教示データを作成するよう構成されているので、教示データを作成する際にロボット1を直接操作する必要がなく、ロボットが存在しない状況においても教示データを生成することができる。 Further, since the vision sensor 71 is configured to create teaching data based on the captured image, it is not necessary to directly operate the robot 1 when creating the teaching data, and the teaching data does not exist even in a situation where the robot does not exist. Can be generated.

[近似軌跡の確認作業を実施する場合の動作例]
次に、教示データ生成システム40の第1ロボットアーム13Aの近似軌跡の確認作業を実施する際の動作例を説明する。
[Operation example when confirming the approximate trajectory]
Next, an operation example when confirming the approximate locus of the first robot arm 13A of the teaching data generation system 40 will be described.

まず、教示データ生成システム40の第1画像生成部65は、図7Aに示すように第1画像81を生成する。第1画像生成部65は、動作軌跡Tと近似軌跡算出部63が算出した近似軌跡Taとを重ね合わせて第1画像81に表す。また、第1画像生成部65は、区間s1の始点、区間s1及び区間s2の境界位置、区間s2の終点を円形の記号として動作軌跡T及び近似軌跡Ta上に重ね合わせて表す。更に、第1画像生成部65は、区間s1の最高移動速度V1を区間s1の近傍の表示領域A11に表し、区間s1のランクを表示領域A11の下方の表示領域A12に表す。また、第1画像生成部65は、区間s2の最高移動速度V2を区間s2の近傍の表示領域A21に表し、区間s2のランクを表示領域A21の下方の表示領域A22に表す。なお、本実施の形態において、第1画像生成部65は、領域A11,A12から区間s1に向かって延びる矢印、及び領域A21,A22から区間s2に向かって延びる矢印を表示し、区間s1と領域A11,A12との対応関係、及び区間s2と領域A21,A22との対応関係を明確にしている。 First, the first image generation unit 65 of the teaching data generation system 40 generates the first image 81 as shown in FIG. 7A. The first image generation unit 65 superimposes the operation locus T and the approximate locus Ta calculated by the approximate locus calculation unit 63 on the first image 81. Further, the first image generation unit 65 superimposes the start point of the section s1, the boundary position of the section s1 and the section s2, and the end point of the section s2 as circular symbols on the operation locus T and the approximate locus Ta. Further, the first image generation unit 65 represents the maximum moving speed V1 of the section s1 in the display area A11 near the section s1, and the rank of the section s1 in the display area A12 below the display area A11. Further, the first image generation unit 65 represents the maximum moving speed V2 of the section s2 in the display area A21 in the vicinity of the section s2, and represents the rank of the section s2 in the display area A22 below the display area A21. In the present embodiment, the first image generation unit 65 displays an arrow extending from the areas A11 and A12 toward the section s1 and an arrow extending from the areas A21 and A22 toward the section s2, and displays the section s1 and the area. The correspondence between A11 and A12 and the correspondence between the section s2 and the areas A21 and A22 are clarified.

そして、表示領域A12,A22は、プルダウンメニューであり、初期状態において、第1画像生成部65は、近似軌跡算出部63が分類したランクを表示する。そして、図7Bに示すように、教示作業実施者が、入力装置44を用いてプルダウンメニューから他のランクを選択すると、第1画像生成部65は、変更されたランクを表示する。また、近似軌跡算出部63は、変更されたランクに応じた近似軌跡を算出し、第1画像生成部65は、元のランクに係る近似軌跡を新たに算出された近似軌跡に更新して表示する。 The display areas A12 and A22 are pull-down menus, and in the initial state, the first image generation unit 65 displays the ranks classified by the approximate trajectory calculation unit 63. Then, as shown in FIG. 7B, when the teaching work practitioner selects another rank from the pull-down menu using the input device 44, the first image generation unit 65 displays the changed rank. Further, the approximate locus calculation unit 63 calculates the approximate locus according to the changed rank, and the first image generation unit 65 updates the approximate locus related to the original rank to the newly calculated approximate locus and displays it. To do.

このように、教示作業実施者は、第1画像81を用いて表示された情報の関係を容易に確認することができ、これらの情報に基づいて、要求精度に応じた近似軌跡の編集を容易且つ迅速に行うことができる。 In this way, the teaching work practitioner can easily confirm the relationship of the displayed information using the first image 81, and based on this information, it is easy to edit the approximate trajectory according to the required accuracy. And it can be done quickly.

[教示データの確認作業を実施する場合の動作例]
次に、教示データ生成システム40の第1ロボットアーム13Aの動作態様を規定する第1教示データ及び第2ロボットアーム13Bの動作態様を規定する第2教示データの確認作業を実施する場合の動作例を説明する。
[Operation example when confirming teaching data]
Next, an operation example in the case of performing confirmation work of the first teaching data that defines the operation mode of the first robot arm 13A of the teaching data generation system 40 and the second teaching data that defines the operation mode of the second robot arm 13B. Will be explained.

まず、図8に示すように、教示データ生成システム40の動作シミュレーション画像生成部67は、動作シミュレーション画像83を生成する。動作シミュレーション画像83は、教示データ生成部64が生成した第1教示データ及び第2教示データに基づいて、作業空間Bにおいて動作するロボット1の動作態様を仮想的に表現した画像である。動作シミュレーション画像83において、第1ロボットアーム13Aの動作態様及び第2ロボットアーム13Bの動作態様は、同時に表示され、第1ロボットアーム13A及び第2ロボットアーム13Bが協調して動作する態様が確認可能となっている。また、動作シミュレーション画像83には近似軌跡Taが表される。 First, as shown in FIG. 8, the motion simulation image generation unit 67 of the teaching data generation system 40 generates the motion simulation image 83. The motion simulation image 83 is an image that virtually represents the motion mode of the robot 1 operating in the work space B based on the first teaching data and the second teaching data generated by the teaching data generation unit 64. In the motion simulation image 83, the motion mode of the first robot arm 13A and the motion mode of the second robot arm 13B are displayed at the same time, and it is possible to confirm the mode in which the first robot arm 13A and the second robot arm 13B operate in cooperation with each other. It has become. Further, the motion simulation image 83 shows the approximate trajectory Ta.

次に、教示データ生成システム40の第2画像生成部66は、第2画像84を生成する。第2画像84は、ビジョンセンサ71が撮影した実画像82と動作シミュレーション画像83とを重ね合わせた画像である。第2画像84において、例えば動作シミュレーション画像83は透過画像として表され、実画像82及び動作シミュレーション画像83が同時に視認することができるように構成されている。また、実画像82における作業者Aの動作状態と動作シミュレーション画像83におけるロボット本体10の動作状態とを同期させて表示するように構成されている。すなわち、第2画像84においては、作業者Aの両手のそれぞれ位置に第1ハンド14A及び第2ハンド14Bが位置する状態を保ちながらロボット本体10が動作する様子が表示される。したがって、作業者Aの作業をロボット本体10に代替させた状態を容易に確認することができる。これによって、例えばロボットアーム13と障害物との干渉等の不具合を容易に発見することができ、教示データの修正を容易且つ迅速に行うことができる。また、第2画像84には、動作シミュレーション画像83に基づいて近似軌跡Taが表されるので、更に容易にロボット本体10の動作状態を確認することができる。なお、上記第2画像84には、近似軌跡Taの他に第1画像81に表した情報、すなわち、動作軌跡T、各区間の始点、終点及び境界位置、並びに最高移動速度及びランクにかかる情報を表示してもよい。これによって、教示データの編集を更に容易に行うことができる。 Next, the second image generation unit 66 of the teaching data generation system 40 generates the second image 84. The second image 84 is an image obtained by superimposing the actual image 82 captured by the vision sensor 71 and the motion simulation image 83. In the second image 84, for example, the motion simulation image 83 is represented as a transparent image, and the real image 82 and the motion simulation image 83 can be visually recognized at the same time. Further, the operating state of the worker A in the actual image 82 and the operating state of the robot body 10 in the motion simulation image 83 are configured to be displayed in synchronization with each other. That is, in the second image 84, a state in which the robot main body 10 operates while maintaining the state in which the first hand 14A and the second hand 14B are located at the positions of both hands of the worker A is displayed. Therefore, it is possible to easily confirm the state in which the work of the worker A is replaced by the robot main body 10. Thereby, for example, a defect such as interference between the robot arm 13 and an obstacle can be easily found, and the teaching data can be easily and quickly corrected. Further, since the approximate locus Ta is represented in the second image 84 based on the motion simulation image 83, the operating state of the robot body 10 can be confirmed more easily. In the second image 84, in addition to the approximate locus Ta, the information represented in the first image 81, that is, the motion locus T, the start point, the end point and the boundary position of each section, and the information related to the maximum moving speed and the rank. May be displayed. Thereby, the teaching data can be edited more easily.

[ロボットの動作例]
上記の通り自動作成され、必要に応じて編集された第1教示データ及び第2教示データの作成作業が終了すると、これらの教示データは、ロボット1のロボット制御部30に送信される。ロボット制御部30は、受信した第1教示データに基づいて第1ロボットアーム駆動部15Aを制御し、第1ロボットアーム13Aを動作させる。また、ロボット制御部30は、受信した第2教示データに基づいて第2ロボットアーム駆動部15Bを制御し、第2ロボットアーム13Bを動作させる。これによって、第1ロボットアーム13A及び第2ロボットアーム13Bは協調して動作する。したがって、第1ロボットアーム13A及び第2ロボットアーム13Bでワークを支持して運搬する作業等の協調作業を行うことができる。
[Robot operation example]
When the work of creating the first teaching data and the second teaching data, which are automatically created as described above and edited as necessary, is completed, these teaching data are transmitted to the robot control unit 30 of the robot 1. The robot control unit 30 controls the first robot arm drive unit 15A based on the received first teaching data, and operates the first robot arm 13A. Further, the robot control unit 30 controls the second robot arm drive unit 15B based on the received second teaching data to operate the second robot arm 13B. As a result, the first robot arm 13A and the second robot arm 13B operate in cooperation with each other. Therefore, cooperative work such as work of supporting and transporting the work by the first robot arm 13A and the second robot arm 13B can be performed.

以上に説明したように、本発明のロボットシステム100の教示データ生成システム40は、ビジョンセンサ71が撮影した画像に含まれる作業者の動作態様に基づいて教示データを作成することができる。したがって、ロボット1の教示データの作成の際にロボット1の操作方法に習熟した熟練作業者がロボット1を操作する必要がなく、教示データの作成を容易かつ迅速に生成することができる。 As described above, the teaching data generation system 40 of the robot system 100 of the present invention can create teaching data based on the operation mode of the operator included in the image captured by the vision sensor 71. Therefore, it is not necessary for a skilled worker who is proficient in the operation method of the robot 1 to operate the robot 1 when creating the teaching data of the robot 1, and the teaching data can be easily and quickly generated.

(実施の形態2)
図10は、実施の形態2に係るロボットシステムの検知部の構成例を示す平面図である。
(Embodiment 2)
FIG. 10 is a plan view showing a configuration example of a detection unit of the robot system according to the second embodiment.

上記実施の形態1においては、ビジョンセンサ71が撮影した画像データに含まれる第3マーカ72c及び第4マーカ73cに基づいて、左手及び右手指の曲げ伸ばし等の作業者Aの手の動きを特定するように構成されているが、これに限られるものではない。これに代えて、例えば、図10に示すように、右手用グローブ272が作業者の右手の各指の姿勢を検知する第1指姿勢検知部272cを有し、左手用グローブ273が作業者の左手の各指の姿勢を検知する第2指姿勢検知部273cを有していてもよい。そして、第1指姿勢検知部272c及び第2指姿勢検知部273cは、制御装置48と通信可能に接続され、検知した対応する手の指の姿勢を制御装置48に送信するよう構成されていてもよい。 In the first embodiment, the movement of the worker A's hand such as bending and stretching of the left and right fingers is specified based on the third marker 72c and the fourth marker 73c included in the image data captured by the vision sensor 71. It is configured to do, but is not limited to this. Instead, for example, as shown in FIG. 10, the right-hand glove 272 has a first finger posture detection unit 272c that detects the posture of each finger of the worker's right hand, and the left-hand glove 273 is the worker's. It may have a second finger posture detection unit 273c that detects the posture of each finger of the left hand. The first finger posture detection unit 272c and the second finger posture detection unit 273c are communicably connected to the control device 48, and are configured to transmit the detected corresponding finger posture of the hand to the control device 48. May be good.

(実施の形態3)
図11は、実施の形態3に係るロボットシステムの構成例を示す平面図である。
(Embodiment 3)
FIG. 11 is a plan view showing a configuration example of the robot system according to the third embodiment.

上記実施の形態1においては、作業者Aの右手の動作に基づいて第1ロボットアーム13Aの動作態様を規定する教示データを生成し、左手の動作に基づいて第2ロボットアーム13Bの動作態様を規定する教示データを生成したがこれに限られるものではない。これに代えて、図11に示すように、作業者Aの右手の動作に基づいて第1のロボット301のロボットアームの動作態様を規定する教示データを生成し、左手の動作に基づいて第2のロボット302のロボットアームの動作態様を規定する教示データを生成してもよい。 In the first embodiment, teaching data defining the operation mode of the first robot arm 13A is generated based on the movement of the right hand of the worker A, and the operation mode of the second robot arm 13B is determined based on the movement of the left hand. Generated teaching data to specify, but is not limited to this. Instead, as shown in FIG. 11, teaching data that defines the operation mode of the robot arm of the first robot 301 is generated based on the movement of the right hand of the worker A, and the second is based on the movement of the left hand. The teaching data that defines the operation mode of the robot arm of the robot 302 may be generated.

(実施の形態4)
図12は、実施の形態4に係るロボットシステムの制御系統の構成例を概略的に示すブロック図である。
(Embodiment 4)
FIG. 12 is a block diagram schematically showing a configuration example of a control system of the robot system according to the fourth embodiment.

本実施の形態において、ロボットシステム400の教示データ生成システム40は、上記実施の形態1で例示した形態に加え、更にデータ取得開始/終了指示入力部446を更に含む。 In the present embodiment, the teaching data generation system 40 of the robot system 400 further includes a data acquisition start / end instruction input unit 446 in addition to the embodiment illustrated in the first embodiment.

データ取得開始/終了指示入力部446は、例えば、検知対象物の動作態様の特定を開始する特定開始指示及び検知対象物の動作態様の特定を終了する特定終了指示を入力するための装置である。そして、データ取得開始/終了指示入力部446は、特定開始指示及び特定終了指示を作業空間Bにおいて作業者が入力することができるように構成されている。また、データ取得開始/終了指示入力部446は制御装置48と通信可能に接続され、入力された特定開始指示及び特定終了指示に係る情報を制御装置48に対して送信する。データ取得開始/終了指示入力部446は、例えば作業空間Bに位置する作業者Aの足元に設置されたフットペダルであり、データ取得開始/終了指示入力部446がフットペダルが踏み下げられたことを検知すると、踏下検知信号を制御装置48に対して送信する。 The data acquisition start / end instruction input unit 446 is, for example, a device for inputting a specific start instruction for starting the identification of the operation mode of the detection object and a specific end instruction for ending the specification of the operation mode of the detection object. .. The data acquisition start / end instruction input unit 446 is configured so that the operator can input the specific start instruction and the specific end instruction in the work space B. Further, the data acquisition start / end instruction input unit 446 is communicably connected to the control device 48, and transmits the input specific start instruction and the information related to the specific end instruction to the control device 48. The data acquisition start / end instruction input unit 446 is, for example, a foot pedal installed at the foot of the worker A located in the work space B, and the data acquisition start / end instruction input unit 446 is depressed. Is detected, a stepping detection signal is transmitted to the control device 48.

本実施の形態において、動作態様特定部461は、以下の通り構成されている。すなわち、動作態様特定部461が動作態様の特定処理を行っていない状態において、制御装置48がデータ取得開始/終了指示入力部446から踏下検知信号を受信すると、動作態様特定部461は特定開始指示が入力されたと判定し、検知部43が検知した検知対象物の動作に基づく検知対象物の動作態様の特定を開始する。また、動作態様特定部461が動作態様の特定処理を行っている状態において、制御装置48がデータ取得開始/終了指示入力部446から踏下検知信号を受信すると、動作態様特定部461は特定終了指示が入力されたと判定し、検知部43が検知した検知対象物の動作に基づく検知対象物の動作態様の特定を終了する。その他の動作態様特定部461の構成については、上記実施の形態1の動作態様特定部61と同様であるので、その説明を省略する。 In the present embodiment, the operation mode specifying unit 461 is configured as follows. That is, when the control device 48 receives the stepping detection signal from the data acquisition start / end instruction input unit 446 while the operation mode specifying unit 461 has not performed the operation mode specifying process, the operation mode specifying unit 461 starts specifying the operation mode. It is determined that the instruction has been input, and the detection unit 43 starts specifying the operation mode of the detection object based on the operation of the detection object. Further, when the control device 48 receives the stepping detection signal from the data acquisition start / end instruction input unit 446 while the operation mode specifying unit 461 is performing the operation mode specifying process, the operation mode specifying unit 461 is specified to end. It is determined that the instruction has been input, and the identification of the operation mode of the detection object based on the operation of the detection object detected by the detection unit 43 ends. Since the configuration of the other operation mode specifying unit 461 is the same as that of the operation mode specifying unit 61 of the first embodiment, the description thereof will be omitted.

したがって、教示作業実施者は作業空間Bにおいて作業開始時にデータ取得開始/終了指示入力部446のフットペダルを踏み下げることにより、データ取得開始/終了指示入力部446に特定開始指示を入力することができ、教示データ生成システム40に教示データの生成を開始させることができる。そしてその後、教示に係る作業が終了すると、教示作業実施者は作業空間Bにおいてデータ取得開始/終了指示入力部446のフットペダルを再度踏み下げることにより、データ取得開始/終了指示入力部446に特定終了指示を入力することができ、教示データ生成システム40に教示データの生成を終了させることができる。よって、動作態様特定部61に教示に係る作業に関係する動作態様のみを特定させることができ、例えば教示作業実施者自身が作業者Aとして作業空間Bにおいて作業を実施して、教示データの生成を行うことができる。 Therefore, the teaching work practitioner can input a specific start instruction to the data acquisition start / end instruction input unit 446 by depressing the foot pedal of the data acquisition start / end instruction input unit 446 at the start of the work in the work space B. The teaching data generation system 40 can start the generation of the teaching data. After that, when the work related to the teaching is completed, the teaching work performer identifies the data acquisition start / end instruction input unit 446 by depressing the foot pedal of the data acquisition start / end instruction input unit 446 again in the work space B. An end instruction can be input, and the instruction data generation system 40 can end the generation of the instruction data. Therefore, the operation mode specifying unit 61 can specify only the operation mode related to the work related to the teaching. For example, the teaching work performer himself performs the work in the work space B as the worker A and generates the teaching data. It can be performed.

なお、特定開始指示及び特定終了指示を入力する構成は、上記に限られるものではない。これに代えて、特定開始指示及び特定終了指示は音声によって入力してもよい。すなわち、データ取得開始/終了指示入力部446はマイクであってもよい。そして、動作態様特定部461は、動作態様特定部461が動作態様の特定処理を行っていない状態において、制御装置48がデータ取得開始/終了指示入力部446から「開始」という音声に係る信号を受信すると、動作態様特定部461は特定開始指示が入力されたと判定し、検知部43が検知した検知対象物の動作に基づく検知対象物の動作態様の特定を開始してもよい。また、動作態様特定部461が動作態様の特定処理を行っている状態において、制御装置48がデータ取得開始/終了指示入力部446から「終了」という音声に係る信号を受信すると、動作態様特定部461は特定終了指示が入力されたと判定し、検知部43が検知した検知対象物の動作に基づく検知対象物の動作態様の特定を終了してもよい。 The configuration for inputting the specific start instruction and the specific end instruction is not limited to the above. Instead of this, the specific start instruction and the specific end instruction may be input by voice. That is, the data acquisition start / end instruction input unit 446 may be a microphone. Then, the operation mode specifying unit 461 sends a signal related to the voice "start" from the data acquisition start / end instruction input unit 446 in a state where the operation mode specifying unit 461 has not performed the operation mode specifying process. Upon receiving the data, the operation mode specifying unit 461 may determine that the specific start instruction has been input, and may start specifying the operation mode of the detection target based on the movement of the detection target detected by the detection unit 43. Further, when the control device 48 receives a signal related to the voice "end" from the data acquisition start / end instruction input unit 446 while the operation mode specifying unit 461 is performing the operation mode specifying process, the operation mode specifying unit 461 may determine that the specific end instruction has been input, and may end the specification of the operation mode of the detection object based on the operation of the detection object detected by the detection unit 43.

<変形例>
上記実施の形態1においては、作業者Aの手の動作に基づいてロボット1の動作態様を規定する教示データを生成したがこれに限られるものではない。これに代えて、例えば、脚の動作に基づいてロボット1の動作態様を規定する教示データを生成してもよい。また、作業者Aによって移動されたワークの変位に基づいてロボット1の動作態様を規定する教示データを生成してもよい。
<Modification example>
In the first embodiment, the teaching data that defines the operation mode of the robot 1 is generated based on the movement of the hand of the worker A, but the present invention is not limited to this. Instead of this, for example, teaching data that defines the operation mode of the robot 1 may be generated based on the movement of the legs. In addition, teaching data that defines the operation mode of the robot 1 may be generated based on the displacement of the work moved by the worker A.

また、動作態様特定部61が第3マーカ72c及び第4マーカ73cに基づいた作業者の手の曲げ伸ばしに係る手の動きに係る動作態様を特定し、特定した動作態様に基づいてロボット1のハンド駆動部16の動作態様を規定する教示データを生成してもよい。 Further, the motion mode specifying unit 61 specifies a motion mode related to the hand movement related to bending and stretching of the worker's hand based on the third marker 72c and the fourth marker 73c, and the robot 1 is based on the specified motion mode. Teaching data that defines the operation mode of the hand drive unit 16 may be generated.

上記説明から、当業者にとっては、本発明の多くの改良や他の実施形態が明らかである。従って、上記説明は、例示としてのみ解釈されるべきであり、本発明を実行する最良の態様を当業者に教示する目的で提供されたものである。本発明の精神を逸脱することなく、その構造及び/又は機能の詳細を実質的に変更できる。 From the above description, many improvements and other embodiments of the present invention will be apparent to those skilled in the art. Therefore, the above description should be construed as an example only and is provided for the purpose of teaching those skilled in the art the best aspects of carrying out the present invention. The details of its structure and / or function can be substantially changed without departing from the spirit of the present invention.

A 作業者
T 動作軌跡
Ta 近似軌跡
1 ロボット
10 ロボット本体
13 ロボットアーム
15 ロボットアーム駆動部
30 ロボット制御部
40 教示データ生成システム
61 動作態様特定部
62 動作軌跡分割部
63 近似軌跡算出部
64 教示データ生成部
100 ロボットシステム
A Worker T Motion locus Ta Approximate locus 1 Robot 10 Robot body 13 Robot arm 15 Robot arm drive unit 30 Robot control unit 40 Teaching data generation system 61 Operation mode specification unit 62 Operation locus division unit 63 Approximate locus calculation unit 64 Teaching data generation Part 100 Robot system

Claims (4)

ロボットアームと、前記ロボットアームの先端部に取り付けられたハンドと、前記ロボットアームを駆動して前記ハンドを移動させるロボットアーム駆動部と、前記ロボットアーム駆動部の動作を制御するロボット制御部と、を含むロボットと、
前記ロボットの動作態様を規定する教示データを生成する教示データ生成システムと、を含むロボットシステムであって、
前記教示データ生成システムは、
所定の作業空間に位置する検知対象物の動作を検知する検知部と、
前記検知部が検知した前記検知対象物の変位に基づいて、前記検知対象物の動作軌跡を特定する動作態様特定部と、
前記動作態様特定部が特定した前記検知対象物の動作軌跡を1以上の区間に分割する動作軌跡分割部と、
各前記区間の動作軌跡の始点と終点とを結ぶ直線又は近似曲線を算出し、且つ前記直線又は前記近似曲線に基づいて前記検知対象物の動作軌跡に近似する近似軌跡を算出する近似軌跡算出部と、
前記近似軌跡に基づいて、前記ロボット制御部に対する前記ロボットアームの動作態様を規定する前記教示データを生成する教示データ生成部と、を含み、
前記近似軌跡算出部は、各区間のそれぞれについて、前記検知対象物の最高移動速度又は加速度を算出し、且つ前記最高移動速度又は前記加速度が低くなるに従って前記直線又は前記近似曲線を次数N(Nは1以上の整数)が大きいN次式で表現する、ロボットシステム。
A robot arm, a hand attached to the tip of the robot arm, a robot arm drive unit that drives the robot arm to move the hand, and a robot control unit that controls the operation of the robot arm drive unit. With robots, including
A robot system including a teaching data generation system that generates teaching data that defines an operation mode of the robot.
The teaching data generation system is
A detection unit that detects the movement of a detection object located in a predetermined work space,
An operation mode specifying unit that specifies an operation locus of the detection object based on the displacement of the detection object detected by the detection unit.
An operation locus dividing unit that divides the operation locus of the detection object specified by the operation mode specifying unit into one or more sections, and an operation locus dividing unit.
An approximate locus calculation unit that calculates a straight line or an approximate curve connecting the start point and the end point of the operation locus of each of the sections, and calculates an approximate locus that approximates the operation locus of the detection object based on the straight line or the approximate curve. When,
A teaching data generation unit that generates the teaching data that defines an operation mode of the robot arm with respect to the robot control unit based on the approximate locus.
The approximate trajectory calculation unit calculates the maximum moving speed or acceleration of the detection target object for each section, and as the maximum moving speed or acceleration decreases, the straight line or the approximate curve is ordered N (N). Is an integer of 1 or more) is a large N-th order expression, which is a robot system.
前記教示データ生成システムは、
情報を入力する入力装置を更に備え、
前記近似軌跡算出部は、前記入力装置からの入力に応じて各前記区間の前記直線又は前記近似曲線の次数を変更する、請求項に記載のロボットシステム。
The teaching data generation system is
Further comprising an input equipment for inputting information,
The robot system according to claim 1 , wherein the approximate trajectory calculation unit changes the order of the straight line or the approximate curve of each section in response to an input from the input device.
前記教示データ生成システムは、第1画像を生成する第1画像生成部と、前記第1画像を表示する第1表示装置とを更に備え、
前記第1画像は、前記近似軌跡、各前記区間の境界位置、各前記区間の前記最高移動速度又は前記加速度に係る情報を含む、請求項に記載のロボットシステム。
The teaching data generation system further includes a first image generation unit that generates a first image and a first display device that displays the first image.
The robot system according to claim 2 , wherein the first image includes information related to the approximate locus, the boundary position of each section, the maximum moving speed of each section, or the acceleration.
ロボットと、
前記ロボットの動作態様を規定する教示データを生成する教示データ生成システムと、を含むロボットシステムであって、
前記教示データ生成システムは、
所定の作業空間に位置する検知対象物の動作を検知する検知部と、
前記検知部が検知した前記検知対象物の動作に基づいて、前記検知対象物の動作態様を特定する動作態様特定部と、
前記動作態様特定部が特定した前記検知対象物の動作態様に基づいて、前記教示データを生成する教示データ生成部と、
前記所定の作業空間に向けて設置され、前記所定の作業空間に位置する前記検知対象物の動作を撮影するカメラと、
前記教示データ生成部が生成した前記教示データに基づいて前記カメラから撮影された前記所定の作業空間において動作する前記ロボットの動作態様を仮想的に表現した動作シミュレーション画像を生成する動作シミュレーション画像生成部と
前記カメラが撮影した画像と動作シミュレーション画像とを重ね合わせた第2画像を生成する第2画像生成部と、
前記第2画像を表示する第2表示装置とを備える、ロボットシステム。
With a robot
A robot system including a teaching data generation system that generates teaching data that defines an operation mode of the robot.
The teaching data generation system is
A detection unit that detects the movement of a detection object located in a predetermined work space,
Based on the operation of the detection object detected by the detection unit, the operation mode specifying unit that specifies the operation mode of the detection object, and the operation mode specifying unit.
A teaching data generation unit that generates the teaching data based on the operation mode of the detection object specified by the operation mode specifying unit.
A camera installed toward the predetermined work space and capturing the movement of the detection object located in the predetermined work space, and a camera.
An operation simulation image generation unit that generates an operation simulation image that virtually represents the operation mode of the robot operating in the predetermined work space taken from the camera based on the instruction data generated by the instruction data generation unit. and,
A second image generation unit that generates a second image by superimposing the image taken by the camera and the motion simulation image, and
Second display device and Bei El a robotic system for displaying the second image.
JP2016149912A 2016-07-29 2016-07-29 Robot system Active JP6883392B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016149912A JP6883392B2 (en) 2016-07-29 2016-07-29 Robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016149912A JP6883392B2 (en) 2016-07-29 2016-07-29 Robot system

Publications (2)

Publication Number Publication Date
JP2018015863A JP2018015863A (en) 2018-02-01
JP6883392B2 true JP6883392B2 (en) 2021-06-09

Family

ID=61074935

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016149912A Active JP6883392B2 (en) 2016-07-29 2016-07-29 Robot system

Country Status (1)

Country Link
JP (1) JP6883392B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6826069B2 (en) * 2018-04-18 2021-02-03 ファナック株式会社 Robot motion teaching device, robot system and robot control device
JP2020038085A (en) * 2018-09-03 2020-03-12 Juki株式会社 Inspection device
JP7359577B2 (en) * 2019-06-21 2023-10-11 ファナック株式会社 Robot teaching device and robot system
JP7386451B2 (en) * 2019-10-03 2023-11-27 株式会社豆蔵 Teaching system, teaching method and teaching program
JP2024000229A (en) * 2022-06-20 2024-01-05 株式会社日立製作所 Robot teaching device and robot teaching method
WO2024085160A1 (en) * 2022-10-21 2024-04-25 ソフトバンクグループ株式会社 Simulation system and program

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04365570A (en) * 1991-03-12 1992-12-17 Toshiba Corp Device for controlling motion through recognition of picture
JPH05305590A (en) * 1992-04-30 1993-11-19 Mitsubishi Heavy Ind Ltd Robot teaching device
JP2776477B2 (en) * 1996-02-13 1998-07-16 川崎重工業株式会社 Robot 3D position and orientation teaching system
JPH1124721A (en) * 1997-06-30 1999-01-29 Tokico Ltd Robot controller
JP3415427B2 (en) * 1998-02-25 2003-06-09 富士通株式会社 Calibration device in robot simulation
JP2002361581A (en) * 2001-06-08 2002-12-18 Ricoh Co Ltd Method and device for automating works and memory medium to store the method
NO317898B1 (en) * 2002-05-24 2004-12-27 Abb Research Ltd Procedure and system for programming an industrial robot
SE531104C2 (en) * 2002-12-30 2008-12-16 Abb Research Ltd Method and system for programming an industrial robot
DE10305384A1 (en) * 2003-02-11 2004-08-26 Kuka Roboter Gmbh Method and device for visualizing computer-aided information
JP2006107024A (en) * 2004-10-04 2006-04-20 Tamagawa Seiki Co Ltd Three-dimensional input device
JP2006277913A (en) * 2005-03-03 2006-10-12 Ricoh Co Ltd Reproduction recording device
JP4266946B2 (en) * 2005-03-17 2009-05-27 ファナック株式会社 Offline teaching device
US20090132088A1 (en) * 2007-04-24 2009-05-21 Tairob Ltd. Transfer of knowledge from a human skilled worker to an expert machine - the learning process
JP2009196040A (en) * 2008-02-21 2009-09-03 Panasonic Corp Robot system
JP2011110620A (en) * 2009-11-24 2011-06-09 Toyota Industries Corp Method of controlling action of robot, and robot system
JP5573275B2 (en) * 2010-03-25 2014-08-20 富士ゼロックス株式会社 Feature point extraction device, motion teaching device and motion processing device using the same
JP5426719B2 (en) * 2012-05-18 2014-02-26 ファナック株式会社 Robot system motion simulation device
JP6221224B2 (en) * 2012-11-27 2017-11-01 セイコーエプソン株式会社 Robot system, program, production system and robot

Also Published As

Publication number Publication date
JP2018015863A (en) 2018-02-01

Similar Documents

Publication Publication Date Title
JP6883392B2 (en) Robot system
CN107921645B (en) Remote operation robot system
CN110394780B (en) Simulation device of robot
US9089967B2 (en) Control apparatus and method for master-slave robot, master-slave robot, control program, and integrated electronic circuit
JP5426719B2 (en) Robot system motion simulation device
CN110977931A (en) Robot control device and display device using augmented reality and mixed reality
JP4137909B2 (en) Robot program correction device
WO2011065035A1 (en) Method of creating teaching data for robot, and teaching system for robot
EP2431138A1 (en) Control apparatuas and control method for robot arm, robot, control program for robot arm, and integrated electronic circuit
US10427298B2 (en) Robot system displaying information for teaching robot
JP5108032B2 (en) Multi-joint structure teaching device
WO2011065034A1 (en) Method for controlling action of robot, and robot system
JP2020015128A (en) Sensing system, work system, extended reality image display method, extended reality image memorizing method, and program
JP7049069B2 (en) Robot system and control method of robot system
JP6902369B2 (en) Presentation device, presentation method and program, and work system
JP6625266B1 (en) Robot controller
Guanglong et al. Human–manipulator interface using hybrid sensors with Kalman filters and adaptive multi-space transformation
JPH06250730A (en) Teaching device for industrial robot
JP2009196040A (en) Robot system
JP2006315128A (en) Shifting from one hand to the other hand control method for robot hand
JP7068416B2 (en) Robot control device using augmented reality and mixed reality, computer program for defining the position and orientation of the robot, method for defining the position and orientation of the robot, computer program for acquiring the relative position and orientation, and method for acquiring the relative position and orientation.
JP7185749B2 (en) ROBOT SYSTEM AND ROBOT SYSTEM CONTROL METHOD
JP2023175331A (en) Robot teaching method and robot teaching device
CN115972191A (en) Two-armed robot teaching according to two-handed human demonstration
TW202426221A (en) Device, method, and computer program for adjusting the posture of a robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210510

R150 Certificate of patent or registration of utility model

Ref document number: 6883392

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250