JP2012228756A - Robot control method, robot control device, and program - Google Patents

Robot control method, robot control device, and program Download PDF

Info

Publication number
JP2012228756A
JP2012228756A JP2011099241A JP2011099241A JP2012228756A JP 2012228756 A JP2012228756 A JP 2012228756A JP 2011099241 A JP2011099241 A JP 2011099241A JP 2011099241 A JP2011099241 A JP 2011099241A JP 2012228756 A JP2012228756 A JP 2012228756A
Authority
JP
Japan
Prior art keywords
workpiece
robot
marker
work
type information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011099241A
Other languages
Japanese (ja)
Other versions
JP2012228756A5 (en
Inventor
Tatsuya Matsudo
達哉 松土
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2011099241A priority Critical patent/JP2012228756A/en
Publication of JP2012228756A publication Critical patent/JP2012228756A/en
Publication of JP2012228756A5 publication Critical patent/JP2012228756A5/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a robot control method for easily obtaining information about the operation of the robot.SOLUTION: The robot control method is for controlling the robot 1 in order for the robot 1 to attach a screw (member) 21 to a workpiece 10, and includes: a moving step of making the robot 1 move a camera 6 to the position of the workpiece 10; an image capturing step of obtaining the captured image of the workpiece 10 captured by the camera 6; a detection step of detecting a marker 15 that the workpiece 10 has from the captured image; an analysis step of obtaining kind information of the screw 21 by analyzing the marker 15; and a working step of making the robot 1 attach the screw 21 to the workpiece 10 on the basis of the kind information.

Description

本発明は、ロボットの動作を制御するためのロボット制御方法と、このロボット制御方法に基づいてロボットを制御するためのロボット制御装置と、ロボット制御方法に準拠しロボット制御装置に搭載可能なプログラムと、に関する。   The present invention relates to a robot control method for controlling the operation of the robot, a robot control device for controlling the robot based on the robot control method, a program that can be installed in the robot control device in accordance with the robot control method, , Regarding.

従来、ロボット用のプログラム生成方法として、マスターデータ、ティーチングポイントデータ、姿勢データ等の各種データを用い、それらを結合、並び替え、および変換する等の手段により、対象ワークに対するロボットの動作を規定するプログラムを生成する方法が開示されている。この方法によれば、図面のみでロボットへのティーチングが可能であり、プログラムを生成する時間の短縮が図れる(例えば特許文献1)。   Conventionally, as a program generation method for a robot, various data such as master data, teaching point data, and posture data are used, and the operation of the robot with respect to the target workpiece is defined by means of combining, rearranging, and converting the data. A method for generating a program is disclosed. According to this method, teaching to the robot is possible with only the drawing, and the time for generating the program can be shortened (for example, Patent Document 1).

また、対象ワークの画像をマスター画像パターンとして登録し、このマスター画像パターンと撮影した各対象ワークの画像とのパターンマッチングを行い、すべての対象ワークの画像に対しパターンマッチングが成功した場合にのみ、各対象ワークの位置及び姿勢を出力する方法が開示されている。この方法によれば、誤検出を低減することができ、さらに対象ワークの認識精度を高め、高精度に位置と姿勢とを検出することが可能である(例えば特許文献2)。   Also, register the image of the target workpiece as a master image pattern, perform pattern matching between this master image pattern and each captured target workpiece image, and only when pattern matching is successful for all target workpiece images, A method for outputting the position and orientation of each target workpiece is disclosed. According to this method, erroneous detection can be reduced, the recognition accuracy of the target workpiece can be further increased, and the position and orientation can be detected with high accuracy (for example, Patent Document 2).

特開平10−222219号公報JP-A-10-222219 特開2010−32258号公報JP 2010-32258 A

しかし、特許文献1においては、多量のデータベースを構築する必要がある。また、実作業での必要データは、作業位置等によって異なっていることがあり、その場合、データベースとの整合性をとらなければならず、この整合性をとる作業はたいへん煩雑な作業である、という課題があった。そして、特許文献2においては、対象ワークの位置と姿勢とを精度良く検出したワーク情報を得ることは可能であるが、対象ワークに対するロボットの実作業に関わる動作情報は得られず、別途データベース等から動作情報を取得してワーク情報との整合性を図らなくてはならない、という課題があった。   However, in Patent Document 1, it is necessary to construct a large amount of database. In addition, the necessary data in actual work may vary depending on the work position, etc. In that case, consistency with the database must be taken, and the work of taking this consistency is a very complicated work, There was a problem. In Patent Document 2, although it is possible to obtain workpiece information in which the position and orientation of the target workpiece are detected with high accuracy, operation information related to the actual work of the robot with respect to the target workpiece cannot be obtained. Therefore, there is a problem that it is necessary to obtain the operation information from the work information to be consistent with the work information.

本発明は、上記課題の少なくとも一部を解決するためになされたものであり、以下の適用例または形態として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following application examples or forms.

[適用例1]本適用例に係るロボット制御方法は、ロボットを制御して、ワークへ部材を取り付けるための方法であって、撮影装置を前記ワークの位置まで移動させる移動ステップと、前記撮影装置の撮影した、前記ワークの撮像を取得する撮影ステップと、前記撮像から前記ワークの有するマーカーを検出する検出ステップと、前記マーカーを解析して前記部材の種別情報を取得する解析ステップと、前記種別情報に基づき、前記ワークへ前記部材を取り付ける作業を行なう作業ステップと、を有する、ことを特徴とする。   [Application Example 1] A robot control method according to this application example is a method for controlling a robot and attaching a member to a workpiece, the moving step of moving an imaging device to the position of the workpiece, and the imaging device An imaging step of acquiring an image of the workpiece taken, a detecting step of detecting a marker of the workpiece from the imaging, an analyzing step of analyzing the marker to acquire type information of the member, and the type And an operation step of performing an operation of attaching the member to the workpiece based on the information.

このロボット制御方法によれば、ロボットを制御して、移動ステップおよび撮影ステップを経ることにより、まずワークの撮像を取得し、次いで、検出ステップにおいて、取得した撮像からマーカーを検出する。このマーカーは、部材を取り付けるワークの側に配置されていて、部材が、例えば、ねじ、ピン、ナット、ブッシュ等々の何であるかを示す種別情報を有している。解析ステップでは、マーカーを解析することによって、種別情報を取得する。そして、この種別情報に基づいて、作業ステップでは、ロボットがワークへ部材を取り付ける作業を行なう。このように、ロボット制御方法は、ロボットが作業するための情報の全部または一部を、ワークに配置されたマーカーから、都度、簡便に取得するため、ロボットが事前に記憶しておかなくてはならない情報量を軽減することが可能である。また、ロボットの作業の変更も、マーカーを変更することで容易に行なえるようになるため、ロボットは、作業の変更を迅速に行なって、多様な作業を効率良く行なうことが可能である。   According to this robot control method, the robot is controlled, and the imaging of the workpiece is first acquired through the moving step and the imaging step, and then the marker is detected from the acquired imaging in the detection step. This marker is arranged on the side of the work to which the member is attached, and has type information indicating what the member is, for example, a screw, a pin, a nut, a bush or the like. In the analysis step, type information is acquired by analyzing the marker. Then, based on this type information, in the work step, the robot performs the work of attaching the member to the workpiece. As described above, the robot control method easily obtains all or a part of the information for the robot to work from the marker placed on the workpiece each time, so the robot must store it in advance. It is possible to reduce the amount of information that must not be. In addition, since the robot work can be easily changed by changing the marker, the robot can quickly change the work and efficiently perform various work.

[適用例2]上記適用例に係るロボット制御方法において、前記解析ステップでは、前記部材の取り付け方法に係る情報を含む前記種別情報を前記マーカーから取得する、ことが好ましい。   Application Example 2 In the robot control method according to the application example described above, in the analysis step, it is preferable that the type information including information related to the attachment method of the member is acquired from the marker.

この方法によれば、解析ステップで取得する種別情報には、部材が何であるかを示す情報に加え、部材のワークへの取り付け方法等の情報も含まれている。取り付け方法等の情報としては、例えば部材がねじの場合、ワークのねじ穴への挿入方向、締め付けトルク等が挙げられる。これにより、ロボットが事前に記憶しておかなくてはならない情報量をより一層軽減することが可能であり、ロボットの作業の変更も、マーカーを変更することにより、ロボット等に記憶している情報をほとんど修正することなく、より容易に行なうことが可能である。   According to this method, the type information acquired in the analysis step includes information such as how to attach the member to the workpiece in addition to information indicating what the member is. Examples of the information on the attachment method include, for example, when the member is a screw, the insertion direction of the workpiece into the screw hole, the tightening torque, and the like. This makes it possible to further reduce the amount of information that the robot has to store in advance, and to change the work of the robot, the information stored in the robot etc. by changing the marker Can be done more easily with little modification.

[適用例3]上記適用例に係るロボット制御方法において、前記マーカーは、前記ワークに前記部材が取り付けられる取付部の近傍に配置され、前記種別情報を含む二次元コードを有している、ことが好ましい。   Application Example 3 In the robot control method according to the application example described above, the marker has a two-dimensional code that is disposed in the vicinity of an attachment portion where the member is attached to the workpiece and includes the type information. Is preferred.

この方法によれば、マーカーが取付部の近傍に配置されているため、移動ステップでは、撮影装置をワークの概略の位置まで移動させるだけで良く、解析ステップでは、撮影ステップで取得した撮像から容易にマーカーを検出して、種別情報を取得することが可能である。また、マーカーは、二次元コードの形式で種別情報を保有しているため、多量の情報を有することができ、狭いスペースであっても必要十分な情報を有することが可能である。   According to this method, since the marker is arranged in the vicinity of the mounting portion, it is only necessary to move the imaging device to the approximate position of the workpiece in the moving step, and the analysis step is easy from the imaging acquired in the imaging step. The type information can be acquired by detecting the marker. In addition, since the marker holds the type information in the form of a two-dimensional code, it can have a large amount of information, and can have necessary and sufficient information even in a narrow space.

[適用例4]本適用例に係るロボット制御装置は、ロボットを制御して、ワークへ部材を取り付けるためのものであって、撮影装置を前記ワークの位置まで移動させる移動部と、前記撮影装置の撮影した、前記ワークの撮像を取得する撮影部と、前記撮像から前記ワークの有するマーカーを検出する検出部と、前記マーカーを解析して前記部材の種別情報を取得する解析部と、前記種別情報に基づき、前記ワークへ前記部材を取り付ける作業を行なう作業部と、を有する、ことを特徴とする。   Application Example 4 A robot control device according to this application example is for controlling a robot and attaching a member to a workpiece, and a moving unit that moves the imaging device to the position of the workpiece, and the imaging device An imaging unit that acquires an image of the workpiece, a detection unit that detects a marker of the workpiece from the imaging, an analysis unit that analyzes the marker and acquires type information of the member, and the type And a working unit for performing work for attaching the member to the workpiece based on the information.

このロボット制御装置によれば、移動部および撮影部によるロボットの制御によって、まず撮像を取得し、次いで、検出部によって、取得した撮像からマーカーを検出する。このマーカーは、部材を取り付けるワークの側に配置されていて、部材が、例えば、ねじ、ピン、ナット、ブッシュ等々の何であるかを示す種別情報を有している。解析部は、マーカーを解析することによって、種別情報を取得する。そして、この種別情報に基づいて、作業部は、ロボットを制御してワークへ部材を取り付ける作業を行なわせる。このように、ロボット制御装置は、ロボットが作業するための情報の全部または一部を、ワークに配置されたマーカーから、都度、簡便に取得する構成であるため、事前に内部記憶しておかなくてはならない情報量を軽減することが可能である。また、ロボットの作業内容の変更も、マーカーを主に変更することにより、容易に行なうことが可能である。   According to this robot control apparatus, imaging is first acquired by the control of the robot by the moving unit and the imaging unit, and then a marker is detected from the acquired imaging by the detection unit. This marker is arranged on the side of the work to which the member is attached, and has type information indicating what the member is, for example, a screw, a pin, a nut, a bush or the like. The analysis unit acquires the type information by analyzing the marker. Then, based on this type information, the working unit controls the robot to perform the work of attaching the member to the work. As described above, the robot control apparatus is configured to easily obtain all or a part of information for the robot to work from the marker arranged on the work each time. It is possible to reduce the amount of information that should not be handled. Also, the work content of the robot can be easily changed by mainly changing the marker.

[適用例5]本適用例に係るプログラムは、ロボットがワークへ部材を取り付けるための制御を実行するためのものであって、撮影装置を前記ワークの位置まで移動させる移動ステップと、前記撮影装置の撮影した、前記ワークの撮像を取得する撮影ステップと、前記撮像から前記ワークの有するマーカーを検出する検出ステップと、前記マーカーを解析して前記部材の種別情報を取得する解析ステップと、前記種別情報に基づき、前記ワークへ前記部材を取り付ける作業を行なう作業ステップと、を前記ロボットに実行させる、ことを特徴とする。   Application Example 5 A program according to this application example is for executing control for a robot to attach a member to a workpiece, the moving step of moving the imaging device to the position of the workpiece, and the imaging device An imaging step of acquiring an image of the workpiece taken, a detecting step of detecting a marker of the workpiece from the imaging, an analyzing step of analyzing the marker to acquire type information of the member, and the type Based on the information, the robot is caused to execute an operation step of performing an operation of attaching the member to the workpiece.

このプログラムによれば、ロボットを制御して、移動ステップおよび撮影ステップによって、まずワークの撮像を取得させ、次いで、検出ステップによって、取得した撮像からマーカーを検出させる。このマーカーは、部材を取り付けるワークの側に配置されていて、部材が、例えば、ねじ、ピン、ナット、ブッシュ等々の何であるかを示す種別情報を有している。解析ステップでは、マーカーを解析させることによって、種別情報の取得を図る。そして、この種別情報に基づいて、作業ステップでは、ロボットにワークへ部材を取り付ける作業を行なわせる。このように、プログラムでは、ロボットに作業をさせるための情報の全部または一部を、ワークに配置されたマーカーから、都度、簡便に取得するため、プログラム内またはプログラムが参照可能なデータベース部等に、事前に記憶しておかなくてはならない情報量を軽減することが可能である。また、ロボットの作業内容の変更も、変更されたマーカーから取得すれば良いため、プログラム自体への影響を極力抑制して行なうことが可能である。   According to this program, the robot is controlled so that an image of the workpiece is first acquired by the movement step and the imaging step, and then a marker is detected from the acquired imaging by the detection step. This marker is arranged on the side of the work to which the member is attached, and has type information indicating what the member is, for example, a screw, a pin, a nut, a bush or the like. In the analysis step, the type information is obtained by analyzing the marker. Based on this type information, in the work step, the robot is caused to perform a work of attaching a member to the work. In this way, in the program, all or a part of the information for causing the robot to perform work can be easily obtained from the marker arranged on the work each time. It is possible to reduce the amount of information that must be stored in advance. Moreover, since the change of the robot work content can be obtained from the changed marker, it is possible to perform the control while suppressing the influence on the program itself as much as possible.

ロボットによる作業の一形態に係る構成例を示す斜視図。The perspective view which shows the structural example which concerns on one form of the operation | work by a robot. ロボットの制御装置の構成を示すブロック図。The block diagram which shows the structure of the control apparatus of a robot. ロボットによる作業の手順を示すフローチャート。The flowchart which shows the procedure of the operation | work by a robot. (a)カメラによる撮影の状態を示す斜視図、(b)ねじの把持状態を示す斜視図、(c)ねじの取付状態を示す斜視図。(A) The perspective view which shows the state of imaging | photography with a camera, (b) The perspective view which shows the holding state of a screw, (c) The perspective view which shows the attachment state of a screw.

以下、本発明のロボット制御方法、ロボット制御装置およびプログラムにおける好適な一例について、添付図面を参照して説明する。
(実施形態)
Hereinafter, a preferred example of the robot control method, robot control apparatus, and program of the present invention will be described with reference to the accompanying drawings.
(Embodiment)

図1は、ロボットによる作業の一形態に係る構成例を示す斜視図である。図1は、ロボット1が、部材であるねじ21またはねじ22をワーク10へ取り付ける作業を行なう場合を一例として示している。このロボット1は、直線状のアーム部3と、アーム部3の回動動作の支点である関節部2と、支持部7と、を有し、支持部7から順に、関節部2およびアーム部3を一組として三組が延伸している構成となっている。また、ロボット1は、支持部7から最遠位置のアーム部3の先端に、3本の指からなり部材を把持するための把持部5を有している。つまり、ロボット1は、関節部2およびアーム部3により自在な動作が可能な、いわゆる多関節ロボットである。さらに、ロボット1は、支持部7に隣接して設けられロボット1の動作を制御するためのロボット制御装置4と、把持部5が設けられているアーム部3に配置されたカメラ(撮影装置)6と、を有している。このカメラ6は、取り付けられているアーム部3の先端方向を撮影するように配置されている。   FIG. 1 is a perspective view showing a configuration example according to one form of work by a robot. FIG. 1 shows, as an example, a case where the robot 1 performs an operation of attaching a screw 21 or a screw 22 as a member to the workpiece 10. The robot 1 includes a linear arm portion 3, a joint portion 2 that is a fulcrum of the pivoting operation of the arm portion 3, and a support portion 7. The joint portion 2 and the arm portion are sequentially arranged from the support portion 7. It is the structure which three sets are extending | stretching considering 3 as one set. In addition, the robot 1 has a gripping part 5 made of three fingers for gripping a member at the tip of the arm part 3 farthest from the support part 7. That is, the robot 1 is a so-called multi-joint robot that can be freely operated by the joint portion 2 and the arm portion 3. Further, the robot 1 is provided adjacent to the support unit 7 and controls a robot control device 4 for controlling the operation of the robot 1, and a camera (photographing device) disposed on the arm unit 3 provided with the grip unit 5. 6. The camera 6 is arranged so as to photograph the tip direction of the arm portion 3 to which the camera 6 is attached.

ロボット1が作業を行なう対象であるワーク10は、部材を取り付ける取付部11と、部材の種別情報を示す二次元コードを有するマーカー15と、を有し、この場合ベルトコンベアー12によって搬送されるようになっている。また、部材である、ねじ21,22は、パーツフィーダー(不図示)により整列した状態で、供給部A,Bに並べられている。これらワーク10および供給部A,Bは、ロボット1の作業可能な範囲内に配置されている。   A workpiece 10 on which the robot 1 operates is provided with a mounting portion 11 to which a member is attached and a marker 15 having a two-dimensional code indicating the type information of the member. In this case, the workpiece 10 is conveyed by the belt conveyor 12. It has become. Further, the screws 21 and 22 as members are arranged in the supply units A and B in a state of being aligned by a parts feeder (not shown). The workpiece 10 and the supply units A and B are arranged within a range where the robot 1 can work.

ここで、マーカー15について説明する。マーカー15は、ワーク10の取付部11の近傍に印刷された二次元コードであって、二次元コードには、部材である、ねじ21,22の種別情報が記されている。ロボット1は、カメラ6でマーカー15を撮影することにより、種別情報を取得することができ、この種別情報に基づいて作業を行なう。これら一連の作業については、図3を参照して後述する。さて、マーカー15の有する二次元コードは、水平方向および垂直方向の二次元方向に情報を持つコードであって、例えば一次元コードであるバーコード等と比較すると、少面積の中に多大な情報量を持つことが可能である。また、二次元コードは、漢字、かな、英字、数字およびバイナリーデータ等を扱うことができる。   Here, the marker 15 will be described. The marker 15 is a two-dimensional code printed in the vicinity of the attachment portion 11 of the workpiece 10, and the two-dimensional code describes type information of the screws 21 and 22 that are members. The robot 1 can acquire the type information by photographing the marker 15 with the camera 6, and performs work based on the type information. A series of these operations will be described later with reference to FIG. The two-dimensional code of the marker 15 is a code having information in the two-dimensional direction of the horizontal direction and the vertical direction. For example, when compared with a barcode or the like which is a one-dimensional code, a large amount of information is obtained in a small area. It is possible to have a quantity. The two-dimensional code can handle kanji, kana, alphabetic characters, numbers, binary data, and the like.

また、一般的に、マーカー15による部材の種別情報とは、例えば、部材が供給部Aにおける、ねじ21と、供給部Bにおける、ねじ22と、の2種類のうち、ねじ21であることを示す情報である。この場合、マーカー15から種別情報として、ねじ21が部材であることを取得したロボット1は、ねじ21に該当する取り付け位置、方向、トルク等の取り付け方法のデータをデータベース部等から取得して、ねじ21のワーク10への取り付け作業を行なう。この方法に対し、本実施形態では、部材の種別情報として、部材が、ねじ21であることに加え、ワーク10の上面に形成されている取付部11に、ねじ21を取り付ける、という取り付け位置を示すデータや、取付部11が該上面に対して垂直方向のねじ穴である、という取り付け方向を示すデータや、ねじ21を右方向に回転させて、例えば、トルク5N・mで締める、という取り付け方法のデータ等を含んでいる。従って、ロボット1のロボット制御装置4は、部材に関する種別情報をほとんど保持する必要がなく、保有するデータベース部の情報量を最小限に抑制することができる。   In general, the member type information by the marker 15 is, for example, that the member is the screw 21 of the two types of the screw 21 in the supply unit A and the screw 22 in the supply unit B. It is information to show. In this case, the robot 1 that has acquired that the screw 21 is a member as the type information from the marker 15 acquires data on the mounting method such as the mounting position, direction, and torque corresponding to the screw 21 from the database unit or the like. The work of attaching the screw 21 to the workpiece 10 is performed. In contrast to this method, in the present embodiment, as the member type information, in addition to the member being the screw 21, the attachment position in which the screw 21 is attached to the attachment portion 11 formed on the upper surface of the workpiece 10. The data shown, the data indicating the mounting direction that the mounting portion 11 is a screw hole perpendicular to the upper surface, and the mounting that the screw 21 is rotated to the right and tightened, for example, with a torque of 5 N · m Includes method data. Therefore, the robot control device 4 of the robot 1 does not need to hold almost any type information regarding members, and can suppress the amount of information stored in the database unit to a minimum.

次に、ロボット1の動作を制御するロボット制御装置4の構成、について説明する。図2は、ロボットの制御装置の構成を示すブロック図である。図2に示すロボット1は、厳密には、ロボット駆動に関わる関節部2、アーム部3および把持部5を指している。図2を参照して、ロボット制御装置4は、ワーク10の撮像を取得するためにカメラ6の制御をするカメラ制御部41と、該撮像を解析して部材の種別情報を取得するマーカー情報解析部42と、ロボット1によるワーク10への部材の取り付け作業を制御するロボット駆動制御部43と、マーカー15の情報に基づいて行なうマーカー準拠作業に関わる以外の作業、即ちワーク10にマーカー15が無い場合に行なう非準拠作業に係るデータ等を有するデータベース部44と、を有している。そして、ロボット制御装置4は、ロボット駆動制御部43が参照してロボット1を制御するためのプログラムが記憶されているROM(Read Only Memory)47と、カメラ6が撮影したワーク10の撮像および撮像に含まれているマーカー15から取得した種別情報を一時的に記憶しておくRAM(Random Access Memory)46と、ROM47およびRAM46に記憶されているプログラム等の情報に基づきカメラ制御部41、マーカー情報解析部42およびロボット駆動制御部43の制御を実行するCPU(Central Processing Unit)45と、を有している。   Next, the configuration of the robot control device 4 that controls the operation of the robot 1 will be described. FIG. 2 is a block diagram showing the configuration of the robot control device. Strictly speaking, the robot 1 shown in FIG. 2 indicates the joint portion 2, the arm portion 3, and the grip portion 5 that are involved in driving the robot. Referring to FIG. 2, the robot control device 4 includes a camera control unit 41 that controls the camera 6 in order to acquire an image of the workpiece 10, and marker information analysis that analyzes the image and acquires member type information. The part 42, the robot drive control part 43 for controlling the attachment work of the member to the work 10 by the robot 1, and the work other than the marker compliant work performed based on the information of the marker 15, that is, the work 10 has no marker 15 And a database unit 44 having data and the like related to non-compliant work performed in some cases. The robot control device 4 captures and captures a ROM (Read Only Memory) 47 in which a program for controlling the robot 1 by referring to the robot drive control unit 43 and the workpiece 10 photographed by the camera 6 are captured. Random Access Memory (RAM) 46 that temporarily stores the type information acquired from the markers 15 included in the camera, and the camera control unit 41 and marker information based on information such as programs stored in the ROM 47 and the RAM 46 And a CPU (Central Processing Unit) 45 that executes control of the analysis unit 42 and the robot drive control unit 43.

以上のようなロボット1、ねじ21,22およびワーク10による構成において、ねじ21、または、ねじ22のいずれかをワーク10へ取り付ける締付作業の具体的手順を説明する。この締付作業は、既述したマーカー準拠作業に該当し、マーカー15の情報に基づいて行なわれる。図3は、ロボットによる作業の手順を示すフローチャートである。そして、図4(a)は、カメラによる撮影の状態を示す斜視図、図4(b)は、ねじの把持状態を示す斜視図、図4(c)は、ねじの取付状態を示す斜視図である。図3に示すフローチャートは、ロボット制御装置4の制御に基づいて、ロボット1の関節部2、アーム部3、把持部5およびカメラ6が実行する締付作業のステップを示している。また、図4は、フローチャートの主要なステップにおけるロボット1の作業の様子を示している。   A specific procedure of the tightening operation for attaching either the screw 21 or the screw 22 to the workpiece 10 in the configuration including the robot 1, the screws 21, 22 and the workpiece 10 as described above will be described. This tightening operation corresponds to the marker-compliant operation described above, and is performed based on the information of the marker 15. FIG. 3 is a flowchart showing a procedure of work by the robot. 4A is a perspective view showing a state of photographing by the camera, FIG. 4B is a perspective view showing a state of gripping the screw, and FIG. 4C is a perspective view showing a state of attaching the screw. It is. The flowchart shown in FIG. 3 shows the steps of the tightening operation performed by the joint unit 2, arm unit 3, gripping unit 5, and camera 6 of the robot 1 based on the control of the robot control device 4. FIG. 4 shows the operation of the robot 1 in the main steps of the flowchart.

まず、ステップS1において、ワーク10の近傍へ移動する。詳細には、ロボット制御装置4のロボット駆動制御部43が、データベース部44から当該締付作業に該当するデータを参照して、ワーク10の位置を概略把握し、アーム部3に取り付けられているカメラ6をワーク10の近傍まで移動させる。移動したカメラ6は、図4(a)に示すように、ワーク10の方向へ向いており、ワーク10の取付部11と対面するように位置した状態となっている。つまり、カメラ6は、取付部11の近傍に印刷されているマーカー15を含む撮像を得ることができる、好ましい位置に移動している。このステップS1は、移動ステップに該当する。そして、CPU45がワーク10の近傍へ移動したと判断した後、ステップS2へ進む。   First, in step S1, the robot moves to the vicinity of the workpiece 10. Specifically, the robot drive control unit 43 of the robot control device 4 refers to data corresponding to the tightening operation from the database unit 44 to roughly grasp the position of the workpiece 10 and is attached to the arm unit 3. The camera 6 is moved to the vicinity of the workpiece 10. As shown in FIG. 4A, the moved camera 6 faces the workpiece 10 and is positioned so as to face the attachment portion 11 of the workpiece 10. That is, the camera 6 has moved to a preferred position where an image including the marker 15 printed in the vicinity of the attachment portion 11 can be obtained. This step S1 corresponds to a moving step. Then, after determining that the CPU 45 has moved to the vicinity of the workpiece 10, the process proceeds to step S2.

ステップS2において、カメラ撮影を行なう。この撮影は、ワーク10のほぼ全体を対象にして、カメラ制御部41がカメラ6を制御することにより行なわれる。このカメラ6によれば、図4(a)に示すように、ワーク10の方向へ向いて位置しており、マーカー15を含むワーク10の撮像を確実に得ることができる。カメラ6で撮影した撮像は、RAM46に記憶される。このステップS2は、撮影ステップに該当する。そして、撮影した撮像を記憶した後、ステップS3へ進む。   In step S2, camera shooting is performed. This photographing is performed by controlling the camera 6 by the camera control unit 41 for almost the entire workpiece 10. According to the camera 6, as shown in FIG. 4A, the camera 6 is positioned in the direction of the workpiece 10, and it is possible to reliably obtain an image of the workpiece 10 including the marker 15. The image captured by the camera 6 is stored in the RAM 46. This step S2 corresponds to a photographing step. And after memorize | storing the imaged image | photographed, it progresses to step S3.

ステップS3において、マーカー15を認識したか否かを判断する。これは、CPU45が、RAM46に記憶した撮像を分析して、ワーク10に印刷されているべきマーカー15が検出されたかどうかを判断することにより行なわれる。このステップS3は、検出ステップに該当する。そして、マーカー15が検出されれば、ステップS4へ進み、一方、マーカー15が検出されなければ、ステップS5へ進む。   In step S3, it is determined whether or not the marker 15 has been recognized. This is performed by the CPU 45 analyzing the imaging stored in the RAM 46 and determining whether or not the marker 15 to be printed on the workpiece 10 has been detected. This step S3 corresponds to a detection step. If the marker 15 is detected, the process proceeds to step S4. On the other hand, if the marker 15 is not detected, the process proceeds to step S5.

マーカー15が検出されると、ステップS4において、マーカー15の情報を取得する。これは、マーカー情報解析部42が、RAM46に記憶した撮像に含まれるマーカー15から、部材の種別情報を有する二次元コードを認識して取得することにより行われる。マーカー15の情報を取得後、ステップS6へ進む。   When the marker 15 is detected, information on the marker 15 is acquired in step S4. This is performed by the marker information analysis unit 42 recognizing and acquiring a two-dimensional code having member type information from the marker 15 included in the imaging stored in the RAM 46. After acquiring the information of the marker 15, the process proceeds to step S6.

一方、マーカー15が検出されなければ、ステップS5において、データベース部44から部材に関わる情報を取得可能か否かを判断する。この場合、CPU45は、マーカー15が検出されないことから、非準拠作業を行なうと判断し、マーカー15無しの場合に行なうよう事前に入力指示されている非準拠作業の情報をデータベース部44から取得する。この場合、非準拠作業とは、ねじ21、または、ねじ22のいずれかをワーク10へ取り付ける締付作業に関わる以外の作業である。つまり、ロボット1は、近傍にマーカー15を有していない取付部に対して、ねじ21,22とは異なる部材を取り付けるようになっている。例えば、非準拠作業を連続して行なう中で、特定の取付部11に対してマーカー準拠作業を行なわせるような場合であっても、取付部11の近傍にマーカー15を印刷しておくことにより、非準拠作業とは異なる作業内容であることをロボット1に指示することができる。即ち、ロボット1は、ロボット制御装置4のプログラムを変更することなく、マーカー15の種別情報に基づいた作業を行なうことができる。ここで非準拠作業の情報を取得できれば、ステップS7へ進み、一方、非準拠作業の情報を取得できなければ、フローを終了する。   On the other hand, if the marker 15 is not detected, it is determined in step S5 whether or not information relating to the member can be acquired from the database unit 44. In this case, since the marker 15 is not detected, the CPU 45 determines that the non-compliant work is to be performed, and acquires from the database unit 44 information on the non-compliant work that has been instructed in advance to be performed without the marker 15. . In this case, the non-compliant work is a work other than the tightening work for attaching either the screw 21 or the screw 22 to the workpiece 10. That is, the robot 1 attaches a member different from the screws 21 and 22 to an attachment portion that does not have the marker 15 in the vicinity. For example, even when non-compliant work is continuously performed, even if the marker-compliant work is performed on a specific attachment portion 11, the marker 15 is printed in the vicinity of the attachment portion 11. The robot 1 can be instructed that the work content is different from the non-compliant work. That is, the robot 1 can perform work based on the type information of the marker 15 without changing the program of the robot control device 4. If non-compliant work information can be acquired, the process proceeds to step S7. On the other hand, if non-compliant work information cannot be obtained, the flow ends.

そして、ステップS4でマーカー15の情報を取得できれば、ステップS6において、マーカー15の情報に基づいて種別情報を取得する。種別情報は、マーカー情報解析部42がマーカー15の二次元コードを解析することにより、取得される。この種別情報については既述したが、ワーク10へ取り付ける部材が、ねじ21であることが主情報であり、さらに、ねじ21をワーク10の取付部11へ取り付けることと、ねじ21を垂直方向に挿入することと、ねじ21を右方向に回転させて、例えば、トルク5N・mで締め付けること等の取り付けに係る情報も含まれている。マーカー情報解析部42により取得された種別情報は、RAM46に記憶される。このステップS6とステップS4とは、解析ステップに該当する。すべての種別情報を取得して記憶した後、ステップS7へ進む。   If the information about the marker 15 can be acquired at step S4, the type information is acquired based on the information about the marker 15 at step S6. The type information is acquired by the marker information analysis unit 42 analyzing the two-dimensional code of the marker 15. Although this type information has already been described, the main information is that the member to be attached to the workpiece 10 is the screw 21. Furthermore, the screw 21 is attached to the attachment portion 11 of the workpiece 10, and the screw 21 is set in the vertical direction. Information on attachment, such as inserting and rotating the screw 21 in the right direction and tightening with a torque of 5 N · m, for example, is also included. The type information acquired by the marker information analysis unit 42 is stored in the RAM 46. Steps S6 and S4 correspond to analysis steps. After all the type information is acquired and stored, the process proceeds to step S7.

ステップS7において、部材の把持を行なう。これは、ロボット駆動制御部43が、マーカー15の種別情報を基に、ねじ21を部材として認識し、ねじ21を把持することにより行われる。この場合、ねじ21は、供給部Aに整列しており、ロボット駆動制御部43は、関節部2およびアーム部3を制御して把持部5を供給部Aまで移動させ、把持部5の3本の指で、ねじ21を掴んで供給部Aから抜き出す。図4(b)は、把持部5が、ねじ21を供給部Aから抜き出している、ステップS7における状態を示している。ねじ21を把持した後、ステップS8へ進む。   In step S7, the member is gripped. This is performed by the robot drive control unit 43 recognizing the screw 21 as a member based on the type information of the marker 15 and gripping the screw 21. In this case, the screw 21 is aligned with the supply unit A, and the robot drive control unit 43 controls the joint unit 2 and the arm unit 3 to move the grip unit 5 to the supply unit A. With a finger, the screw 21 is grasped and extracted from the supply unit A. FIG. 4B shows a state in step S <b> 7 in which the grip portion 5 has extracted the screw 21 from the supply portion A. After gripping the screw 21, the process proceeds to step S8.

ステップS8において、ワーク10の取付部11へ移動する。これは、ねじ21を把持部5が把持した状態のまま、ロボット駆動制御部43が関節部2およびアーム部3を制御して、ねじ21を取付部11の位置まで運ぶことにより行われる。ワーク10の有する取付部11は、この場合1箇所であり、ねじ21を取付部11へ移動させるための、取付部11の位置情報は、マーカー情報解析部42により種別情報から取得されている。移動の完了後、ステップS9へ進む。   In step S <b> 8, the workpiece 10 moves to the attachment portion 11. This is performed by the robot drive control unit 43 controlling the joint unit 2 and the arm unit 3 and carrying the screw 21 to the position of the mounting unit 11 while the grip unit 5 is gripping the screw 21. In this case, the work 10 has one mounting portion 11, and the position information of the mounting portion 11 for moving the screw 21 to the mounting portion 11 is acquired from the type information by the marker information analysis unit 42. After the movement is completed, the process proceeds to step S9.

ステップS9において、取付部11へ部材の取り付けを行なう。これは、ロボット駆動制御部43が把持部5、関節部2およびアーム部3を制御して、ねじ21を右回転させながら、ねじ21の先端部から取付部11へ挿入していくことにより行なわれる。この場合、把持部5は、ねじ21を取付部11に対してトルク5N・mの強さで締め付ける。これら取り付け方法に係るデータは、マーカー情報解析部42により種別情報から取得されている。図4(c)は、ワーク10の取付部11へ、ねじ21が取り付けられている、ステップS9における状態を示している。このステップS9と、ステップS7およびステップS8と、は作業ステップに該当する。以上の各ステップを経てフローが終了する。   In step S9, the member is attached to the attachment portion 11. This is performed by the robot drive control unit 43 controlling the grip unit 5, the joint unit 2, and the arm unit 3 to insert the screw 21 into the mounting unit 11 while rotating the screw 21 clockwise. It is. In this case, the gripping part 5 fastens the screw 21 to the mounting part 11 with a torque of 5 N · m. Data relating to these attachment methods is acquired from the type information by the marker information analysis unit 42. FIG. 4C shows a state in step S <b> 9 in which the screw 21 is attached to the attachment portion 11 of the workpiece 10. Step S9, step S7 and step S8 correspond to work steps. The flow ends through the above steps.

以上説明した実施形態におけるロボット制御方法の主要な効果としては、ロボット1が作業するための情報を、ワーク10のマーカー15から種別情報として取得するため、ロボット制御装置4が事前に記憶しておかなくてはならない情報量を軽減できることが挙げられる。さらに、ロボット1による作業を変更したい場合、マーカー15を変更することによって容易に行なうことができ、ロボット制御装置4のプログラムを変更する必要がないことも挙げられる。これは、ロボット制御方法が、移動ステップ、撮影ステップ、検出ステップおよび解析ステップを経て、部材を取り付けるワーク10に印刷されているマーカー15から、部材が何であるかを示す情報や、部材のワーク10への取り付け方法を含む種別情報を取得する、ことに特徴を有することによる。そして、この種別情報に基づいて、ロボット1は、作業ステップにおいて、ワーク10へ部材である、ねじ21を取り付ける作業を確実に行なうことができる。   As a main effect of the robot control method in the embodiment described above, information for the robot 1 to work is acquired from the marker 15 of the workpiece 10 as type information. The amount of information that must be reduced can be mentioned. Furthermore, when it is desired to change the work by the robot 1, it can be easily performed by changing the marker 15, and there is no need to change the program of the robot control device 4. This is because the robot control method passes through the movement step, the imaging step, the detection step, and the analysis step, and information indicating what the member is from the marker 15 printed on the workpiece 10 to which the member is attached, and the workpiece 10 of the member. This is because the type information including the attachment method is acquired. Based on this type information, the robot 1 can reliably perform the work of attaching the screw 21 as a member to the work 10 in the work step.

また、ロボット制御方法、ロボット制御装置およびプログラムは、上記の実施形態に限定されるものではなく、次に挙げる変形例のような形態であっても、実施形態と同様な効果が得られる。   In addition, the robot control method, the robot control device, and the program are not limited to the above-described embodiment, and the same effects as those of the embodiment can be obtained even in the following modifications.

(変形例1)ロボット制御方法において、部材の種別情報は、マーカー15の有する二次元コードを解析して取得する方法であるが、この方法に限定されることはない。例えば、二次元コードの代わりにバーコード等の他の手段による方法であっても良い。あるいは、マーカー15は、データベース部44内の参照すべきデータを指定するのみの設定であっても良い。データベース部44の負荷が本実施形態より膨大になってしまうが、ロボット1は、当該データに基づいて作業をすることができる。   (Modification 1) In the robot control method, the member type information is obtained by analyzing the two-dimensional code of the marker 15, but is not limited to this method. For example, a method using other means such as a barcode may be used instead of the two-dimensional code. Alternatively, the marker 15 may be set only to designate data to be referred to in the database unit 44. Although the load on the database unit 44 is enormous compared to the present embodiment, the robot 1 can work based on the data.

(変形例2)マーカー15は、ワーク10に印刷されている形態であるが、マーカー15がワーク10への印刷ではなく、ラベル状になっていて、ワーク10へ貼付する形態等であっても良い。これによれば、種別情報の変更や更新をする処置を、印刷する場合に比べて、迅速に行なうことができる。   (Modification 2) The marker 15 is printed on the workpiece 10, but the marker 15 is not printed on the workpiece 10, but is in a label shape and is attached to the workpiece 10. good. According to this, a measure for changing or updating the type information can be performed more quickly than in the case of printing.

(変形例3)カメラ6は、ロボット1のアーム部3に設けられている構成に限定されず、必要時に把持部5が他所から運んできて、撮影をする方法であっても良い。但し、カメラ6は、ロボット制御装置4の管理下にあることが好ましい。   (Modification 3) The camera 6 is not limited to the structure provided in the arm part 3 of the robot 1, and may be a method in which the gripping part 5 is carried from another place to take a picture when necessary. However, the camera 6 is preferably under the control of the robot control device 4.

(変形例4)ロボット1は、関節部2およびアーム部3を一組として三組を有する構成であるが、三組以外の他の構成であっても良い。例えば、ロボット1が、いわゆる6軸または7軸の構成を有する多関節ロボットや、双腕ロボット等のような、複数のアームを有するロボットであっても良い。即ち、ロボット制御方法は、いろいろな作業に関わる動作を行なうために、種々の機構形態で構成されたロボットに対しても、有効に適用することができる。また、ねじ21,22は、供給部A,Bに整列して並べられているが、ロボット1が、箱等にランダムに収められている部材の中から、ねじ21,22のそれぞれの向き等を判断して、同一姿勢で把持する方法であっても良い。さらに、ワーク10は、ベルトコンベアー12で搬送される構成に限定されない。   (Modification 4) The robot 1 is configured to have three sets of the joint portion 2 and the arm portion 3 as one set, but may have a configuration other than the three sets. For example, the robot 1 may be a robot having a plurality of arms such as an articulated robot having a so-called 6-axis or 7-axis configuration, a double-arm robot, or the like. In other words, the robot control method can be effectively applied to robots configured in various mechanism forms in order to perform operations related to various operations. The screws 21 and 22 are arranged in alignment with the supply units A and B, but the robot 1 can select the direction of the screws 21 and 22 from among the members randomly stored in a box or the like. It is possible to use a method of judging the above and holding in the same posture. Furthermore, the workpiece 10 is not limited to the configuration of being conveyed by the belt conveyor 12.

(変形例5)ロボット1の把持部5は、3本の指からなる構成であるが、これに限定されない。把持部5は、指が3本以外の本数であっても良く、例えば、人間の手に近いフレキシブルで多目的な5本指の把持部構成や、特定の部材の把持に特化したグリッパーのような把持部構成等であっても良い。また、把持部5は、部材の単純移動等のために、真空引きや磁力等により部材を吸着する形態であっても良い。   (Modification 5) Although the grip part 5 of the robot 1 is composed of three fingers, it is not limited to this. The grip part 5 may have a number of fingers other than three, for example, a flexible and versatile five-finger grip part structure close to a human hand, or a gripper specialized for gripping a specific member. A simple gripper configuration or the like may be used. Further, the grip portion 5 may be configured to adsorb the member by evacuation or magnetic force for simple movement of the member.

(変形例6)ロボット制御装置4において、データベース部44を内蔵せずに、必要時にのみ、外部装置としてのデータベース部44を接続する構成であっても良い。   (Modification 6) The robot controller 4 may have a configuration in which the database unit 44 as an external device is connected only when necessary without incorporating the database unit 44.

(変形例7)図3のフローチャートにおいて、解析ステップであるステップS4およびステップS6では、種別情報として、ワーク10へ取り付ける部材が、ねじ21であることや、ねじ21の取り付け方法の詳細を含めて取得しているが、この取得方法に限定されず、例えば、解析ステップでは、部材が、ねじ21であることのみを種別情報として取得し、ねじ21の取り付け方法の詳細は、データベース部44から取得する方法等であっても良い。これによれば、情報量の少ないバーコード等であっても、マーカー15として十分に活用することができる。   (Modification 7) In the flowchart of FIG. 3, in steps S4 and S6 that are analysis steps, the type information includes that the member attached to the workpiece 10 is the screw 21 and details of the method of attaching the screw 21. However, the present invention is not limited to this acquisition method. For example, in the analysis step, only that the member is the screw 21 is acquired as type information, and details of the mounting method of the screw 21 are acquired from the database unit 44. The method of doing etc. may be used. According to this, even a barcode with a small amount of information can be sufficiently utilized as the marker 15.

(変形例8)図3のフローチャートにおいて、ステップS5を削除して、ステップS3でマーカー15が認識できなければ、フローを終了する方法であっても良い。即ち、ロボット1がワーク10に対して行なう実作業は、すべてマーカー15からの種別情報に基づいてなされる。   (Modification 8) In the flowchart of FIG. 3, if step S5 is deleted and the marker 15 cannot be recognized in step S3, the flow may be terminated. That is, all the actual work performed by the robot 1 on the workpiece 10 is performed based on the type information from the marker 15.

(変形例9)実施形態では、マーカー15の種別情報に基づき、ロボット1が、1つの取付部11へ、ねじ21を取り付ける作業を行なう単純な例について説明したが、複数の取付部へ異なる部材を取り付けるような、複雑な作業にも、ロボット制御方法は十分に対応することが可能である。   (Modification 9) In the embodiment, a simple example in which the robot 1 performs the work of attaching the screw 21 to one attachment portion 11 based on the type information of the marker 15 has been described. The robot control method can sufficiently cope with complicated work such as attaching a robot.

1…ロボット、2…関節部、3…アーム部、4…ロボット制御装置、5…把持部、6…撮影装置としてのカメラ、10…ワーク、11…取付部、15…マーカー、21…ねじ、22…ねじ、41…カメラ制御部、42…マーカー情報解析部、43…ロボット駆動制御部、47…(プログラム記憶の)ROM。   DESCRIPTION OF SYMBOLS 1 ... Robot, 2 ... Joint part, 3 ... Arm part, 4 ... Robot control apparatus, 5 ... Grasping part, 6 ... Camera as imaging | photography apparatus, 10 ... Work, 11 ... Mounting part, 15 ... Marker, 21 ... Screw, 22 ... Screws, 41 ... Camera control unit, 42 ... Marker information analysis unit, 43 ... Robot drive control unit, 47 ... ROM (for program storage).

Claims (5)

ロボットを制御して、ワークへ部材を取り付けるためのロボット制御方法であって、
撮影装置を前記ワークの位置まで移動させる移動ステップと、
前記撮影装置の撮影した、前記ワークの撮像を取得する撮影ステップと、
前記撮像から前記ワークの有するマーカーを検出する検出ステップと、
前記マーカーを解析して前記部材の種別情報を取得する解析ステップと、
前記種別情報に基づき、前記ワークへ前記部材を取り付ける作業を行なう作業ステップと、を有する、ことを特徴とするロボット制御方法。
A robot control method for controlling a robot and attaching a member to a workpiece,
A moving step of moving the photographing device to the position of the workpiece;
An imaging step of acquiring an image of the workpiece imaged by the imaging device;
A detection step of detecting a marker of the workpiece from the imaging;
An analysis step of analyzing the marker and obtaining type information of the member;
And a work step of performing a work of attaching the member to the work based on the type information.
請求項1に記載のロボット制御方法において、
前記解析ステップでは、前記部材の取り付け方法に係る情報を含む前記種別情報を前記マーカーから取得する、ことを特徴とするロボット制御方法。
The robot control method according to claim 1,
In the analyzing step, the type information including information relating to the attachment method of the member is acquired from the marker.
請求項1または2に記載のロボット制御方法において、
前記マーカーは、前記ワークに前記部材が取り付けられる取付部の近傍に配置され、前記種別情報を含む二次元コードを有している、ことを特徴とするロボット制御方法。
The robot control method according to claim 1 or 2,
The robot control method according to claim 1, wherein the marker has a two-dimensional code that is disposed in the vicinity of an attachment portion to which the member is attached to the workpiece and includes the type information.
ロボットを制御して、ワークへ部材を取り付けるためのロボット制御装置であって、
撮影装置を前記ワークの位置まで移動させる移動部と、
前記撮影装置の撮影した、前記ワークの撮像を取得する撮影部と、
前記撮像から前記ワークの有するマーカーを検出する検出部と、
前記マーカーを解析して前記部材の種別情報を取得する解析部と、
前記種別情報に基づき、前記ワークへ前記部材を取り付ける作業を行なう作業部と、を有する、ことを特徴とするロボット制御装置。
A robot control device for controlling a robot and attaching a member to a workpiece,
A moving unit that moves the photographing device to the position of the workpiece;
A photographing unit that obtains an image of the workpiece photographed by the photographing device;
A detection unit for detecting a marker of the workpiece from the imaging;
An analysis unit for analyzing the marker and obtaining the type information of the member;
And a working unit for performing work for attaching the member to the workpiece based on the type information.
ロボットがワークへ部材を取り付けるための制御を実行するためのプログラムであって、
撮影装置を前記ワークの位置まで移動させる移動ステップと、
前記撮影装置の撮影した、前記ワークの撮像を取得する撮影ステップと、
前記撮像から前記ワークの有するマーカーを検出する検出ステップと、
前記マーカーを解析して前記部材の種別情報を取得する解析ステップと、
前記種別情報に基づき、前記ワークへ前記部材を取り付ける作業を行なう作業ステップと、を前記ロボットに実行させる、ことを特徴とするプログラム。
A program for executing control for attaching a member to a workpiece by a robot,
A moving step of moving the photographing device to the position of the workpiece;
An imaging step of acquiring an image of the workpiece imaged by the imaging device;
A detection step of detecting a marker of the workpiece from the imaging;
An analysis step of analyzing the marker and obtaining type information of the member;
A program for causing the robot to execute an operation step of performing an operation of attaching the member to the workpiece based on the type information.
JP2011099241A 2011-04-27 2011-04-27 Robot control method, robot control device, and program Pending JP2012228756A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011099241A JP2012228756A (en) 2011-04-27 2011-04-27 Robot control method, robot control device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011099241A JP2012228756A (en) 2011-04-27 2011-04-27 Robot control method, robot control device, and program

Publications (2)

Publication Number Publication Date
JP2012228756A true JP2012228756A (en) 2012-11-22
JP2012228756A5 JP2012228756A5 (en) 2014-05-15

Family

ID=47430750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011099241A Pending JP2012228756A (en) 2011-04-27 2011-04-27 Robot control method, robot control device, and program

Country Status (1)

Country Link
JP (1) JP2012228756A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015226964A (en) * 2014-06-02 2015-12-17 セイコーエプソン株式会社 Robot, robot system, control device, and control method
JP2018134687A (en) * 2017-02-20 2018-08-30 大日本印刷株式会社 Robot, program and marker

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4613942A (en) * 1982-02-19 1986-09-23 Chen Richard M Orientation and control system for robots
JPS6393583A (en) * 1986-10-09 1988-04-23 株式会社山武 Variable sequence robot
JP2002215655A (en) * 2001-01-15 2002-08-02 Shigeru Ando Information retrieval method, information retrieval device and robot movement control device
JP2007090448A (en) * 2005-09-27 2007-04-12 Honda Motor Co Ltd Two-dimensional code detecting device, program for it, and robot control information generating device and robot

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4613942A (en) * 1982-02-19 1986-09-23 Chen Richard M Orientation and control system for robots
JPS6393583A (en) * 1986-10-09 1988-04-23 株式会社山武 Variable sequence robot
JP2002215655A (en) * 2001-01-15 2002-08-02 Shigeru Ando Information retrieval method, information retrieval device and robot movement control device
JP2007090448A (en) * 2005-09-27 2007-04-12 Honda Motor Co Ltd Two-dimensional code detecting device, program for it, and robot control information generating device and robot

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015226964A (en) * 2014-06-02 2015-12-17 セイコーエプソン株式会社 Robot, robot system, control device, and control method
JP2018134687A (en) * 2017-02-20 2018-08-30 大日本印刷株式会社 Robot, program and marker

Similar Documents

Publication Publication Date Title
JP5685027B2 (en) Information processing apparatus, object gripping system, robot system, information processing method, object gripping method, and program
KR20190073282A (en) Grasping apparatus, learning apparatus, learned model, grasping system, determination method, and learning method
JP6499273B2 (en) Teaching apparatus and control information generation method
JP5815761B2 (en) Visual sensor data creation system and detection simulation system
JP2019063984A5 (en) Information processing device and information processing method
JP6912415B2 (en) Hand control device and hand control system
US9082017B2 (en) Robot apparatus and position and orientation detecting method
JP2009083095A (en) Control method of robot device, and the robot device
JP2012030320A (en) Work system, working robot controller, and work program
JP7186349B2 (en) END EFFECTOR CONTROL SYSTEM AND END EFFECTOR CONTROL METHOD
JP2007098501A (en) Robot system
US10960550B2 (en) Identification code reading apparatus and machine learning device
JP2005169564A (en) Method for gripping object of optional shape by robot
JP6838833B2 (en) Gripping device, gripping method, and program
JP2012228757A (en) Teaching method of robot, teaching device of robot, and program
JP4591043B2 (en) Method of gripping an arbitrarily shaped object by a robot
JP2012228756A (en) Robot control method, robot control device, and program
JP2009078310A (en) Robot hand, its control method and control system
CN110722591A (en) Force sensing method for flexible body, gripping jaw, and manipulator
JP2014144516A (en) Robot control device, robot system, robot, control method and program
JP4715296B2 (en) Robot hand holding and gripping control method.
JP2004160614A (en) Automatic task teaching system
JPWO2016151667A1 (en) Teaching apparatus and control information generation method
JP5098846B2 (en) Robot system
JP2015169515A (en) Posture estimation system, program and posture estimation method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140327

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150317

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150609

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150618

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20150807