JP2015080842A - Instruction output device, robot, robot system, instruction output method, program, and layout sheet - Google Patents

Instruction output device, robot, robot system, instruction output method, program, and layout sheet Download PDF

Info

Publication number
JP2015080842A
JP2015080842A JP2013220870A JP2013220870A JP2015080842A JP 2015080842 A JP2015080842 A JP 2015080842A JP 2013220870 A JP2013220870 A JP 2013220870A JP 2013220870 A JP2013220870 A JP 2013220870A JP 2015080842 A JP2015080842 A JP 2015080842A
Authority
JP
Japan
Prior art keywords
layout
work
robot
output device
teaching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013220870A
Other languages
Japanese (ja)
Inventor
松本 茂之
Shigeyuki Matsumoto
茂之 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013220870A priority Critical patent/JP2015080842A/en
Publication of JP2015080842A publication Critical patent/JP2015080842A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To easily create an actual layout of a work site (for example, a cell line) where a robot conducts work.SOLUTION: An instruction output device includes: a work content acquisition part which acquires a work content on which a robot is instructed based; a layout generation part which generates layout information showing a layout of a work region of the robot according to the acquired work content; and a layout output part which outputs the actual size layout on the basis of the generated layout information.

Description

本発明は、教示出力装置、ロボット、ロボットシステム、教示出力方法、プログラム、及びレイアウトシートに関する。   The present invention relates to a teaching output device, a robot, a robot system, a teaching output method, a program, and a layout sheet.

特許文献1では、予めオフラインシステムで周辺物体(テーブル、ワーク等)の3次元モデルをロボット等の3次元モデルと共にレイアウトし、対象部品にロボットの教示点を定義し、これらの情報を教示操作盤の画面上に表示する。また、特許文献1では、モデル画像上の選択指定教示点をカメラ画像上の当該選択指定教示点に対応する位置に移動させ、その位置を選択指定教示点の修正教示点の位置及び姿勢とする。   In Patent Document 1, a three-dimensional model of a peripheral object (table, work, etc.) is laid out in advance in an offline system together with a three-dimensional model such as a robot, a teaching point of a robot is defined on a target part, and the information is used as a teaching operation panel. On the screen. Further, in Patent Document 1, a selection designation teaching point on a model image is moved to a position corresponding to the selection designation teaching point on a camera image, and the position is set as a position and orientation of a correction teaching point of the selection designation teaching point. .

特開2004−265041JP 2004-265041 A

ところで、特許文献1のように、オフラインで教示された教示点を現実のレイアウトに合わせて自動的に修正できるようにするには、現実のレイアウトが予定されているレイアウトにある程度似ている必要がある。そのため、ユーザーは、事前に、現実のレイアウトをある程度正確に調整する作業が必要である。   By the way, as in Patent Document 1, in order to automatically correct the teaching points taught offline according to the actual layout, the actual layout needs to be somewhat similar to the planned layout. is there. Therefore, the user needs to work in advance to adjust the actual layout to some extent accurately.

しかしながら、実際には、オフラインで教示されたレイアウトに合うように現実のレイアウトを調整することは容易ではない。例えば、画面上に表示されたレイアウトを実現するためにワークをどのように動かせばよいかを決めるのは、かなりの熟練を要する。   However, in practice, it is not easy to adjust the actual layout to match the layout taught offline. For example, deciding how to move the workpiece to achieve the layout displayed on the screen requires considerable skill.

そこで、本発明は、ロボットが作業を行う現場(例えばセルラインなど)の現実のレイアウトを、容易に構築することを目的とする。   Therefore, an object of the present invention is to easily construct an actual layout of a site (for example, a cell line) where a robot performs work.

上記の課題を解決するための本発明の第一の態様は、教示出力装置であって、ロボットに対して教示する作業内容を取得する作業内容取得部と、前記取得された作業内容に応じて、前記ロボットの作業領域のレイアウトを示すレイアウト情報を生成するレイアウト生成部と、前記生成されたレイアウト情報に基づいて、実寸のレイアウトを出力させるレイアウト出力部と、を有することを特徴とする。これにより、ロボットの作業領域の実寸のレイアウトが出力されるため、ユーザーは現実のレイアウトを容易に構築することができる。   A first aspect of the present invention for solving the above-described problem is a teaching output device, which is a work content acquisition unit that acquires work content to be taught to a robot, and according to the acquired work content A layout generation unit that generates layout information indicating a layout of a work area of the robot; and a layout output unit that outputs an actual layout based on the generated layout information. Thereby, since the actual layout of the work area of the robot is output, the user can easily construct an actual layout.

前記作業内容取得部は、前記作業内容に含まれる作業対象物が配置される場所を取得し、前記レイアウト生成部は、前記場所を含むレイアウト情報を生成し、前記レイアウト出力部は、前記場所を示す実寸のレイアウトを出力させる、ことを特徴としてもよい。これにより、作業対象物の配置場所のレイアウトが具体的に教示されるため、ユーザーは現実のレイアウトを容易にかつ正確に構築することができる。   The work content acquisition unit acquires a place where a work object included in the work content is arranged, the layout generation unit generates layout information including the location, and the layout output unit calculates the location. The actual layout shown may be output. Thereby, the layout of the place where the work object is arranged is specifically taught, so that the user can easily and accurately construct the actual layout.

前記作業内容取得部は、前記作業対象物又は前記場所に関する補助情報を取得し、前記レイアウト生成部は、前記作業対象物又は前記場所に関する補助情報を含むレイアウト情報を生成し、前記レイアウト出力部は、前記場所に関連付けて、前記作業対象物又は前記場所に関する補助情報を示すレイアウトを出力させる、ことを特徴としてもよい。これにより、作業対象物の配置場所のレイアウトに加え、補助情報が教示されるため、ユーザーは現実のレイアウトをより容易にかつより正確に構築することができる。   The work content acquisition unit acquires auxiliary information related to the work object or the location, the layout generation unit generates layout information including auxiliary information related to the work target or the location, and the layout output unit includes A layout indicating auxiliary information related to the work object or the location may be output in association with the location. Thereby, since auxiliary information is taught in addition to the layout of the place where the work object is arranged, the user can construct an actual layout more easily and accurately.

前記レイアウト生成部は、前記作業対象物の色に応じて前記場所の色を決定し、前記レイアウト出力部は、前記場所に、前記場所の色を描画したレイアウトを出力させる、ことを特徴としてもよい。これにより、レイアウト上に置かれた作業対象物に対する画像処理やユーザーによる認識性が向上する。   The layout generation unit may determine the color of the location according to the color of the work object, and the layout output unit may cause the location to output a layout in which the color of the location is drawn. Good. As a result, the image processing for the work object placed on the layout and the recognition by the user are improved.

前記レイアウト出力部は、前記場所に、当該場所に配置される前記作業対象物の存在又は位置をチェックすることに使用する所定のマークを描画したレイアウトを出力させる、ことを特徴としてもよい。これにより、画像処理やユーザーによる作業対象物の存在や位置のチェックを簡単にすることができる。   The layout output unit may output a layout in which a predetermined mark used for checking the presence or position of the work object placed at the place is drawn at the place. Thereby, it is possible to simplify the image processing and the presence / position check of the work object by the user.

前記教示出力装置であって、前記作業領域を含む撮像画像を取得する画像取得部と、前記生成されたレイアウト情報に基づいて生成した第一のレイアウト画像データと、前記取得された撮像画像に基づいて生成した第二のレイアウト画像データとを照合することにより、レイアウトのチェックを行うレイアウトチェック部と、を有することを特徴としてもよい。これにより、レイアウトが正確に行われたか否かの判断を簡単に行うことができる。   In the teaching output device, an image acquisition unit that acquires a captured image including the work area, first layout image data generated based on the generated layout information, and the acquired captured image A layout check unit that checks a layout by collating with the second layout image data generated in this way. Thereby, it is possible to easily determine whether or not the layout has been correctly performed.

前記レイアウト出力部は、前記作業領域上に敷くレイアウトシートをプリンターに印刷させる、ことを特徴としてもよい。これにより、作業台を改造することなく、レイアウトシートを敷くだけでレイアウトがユーザーに教示される。   The layout output unit may cause a printer to print a layout sheet laid on the work area. Thus, the layout is taught to the user simply by laying out the layout sheet without modifying the work table.

前記レイアウト出力部は、プロジェクターに前記作業領域上にレイアウトを投影させる、ことを特徴としてもよい。これにより、様々な種類のレイアウトに素早く対応できる。   The layout output unit may cause the projector to project a layout on the work area. As a result, various types of layouts can be quickly handled.

前記レイアウト出力部は、前記作業領域がある作業台に組み込まれたディスプレイにレイアウトを表示させる、ことを特徴としてもよい。これにより、様々な種類のレイアウトに素早く対応できる。   The layout output unit may display a layout on a display incorporated in a work table having the work area. As a result, various types of layouts can be quickly handled.

上記の課題を解決するための本発明の第二の態様は、ロボットであって、前記ロボットに対して教示される作業内容を取得する作業内容取得部と、前記取得された作業内容に応じて、前記ロボットの作業領域のレイアウトを示すレイアウト情報を生成するレイアウト生成部と、前記生成されたレイアウト情報に基づいて、実寸のレイアウトを出力させるレイアウト出力部と、を有することを特徴とする。これにより、ロボットの作業領域の実寸のレイアウトが出力されるため、ユーザーは現実のレイアウトを容易に構築することができる。   According to a second aspect of the present invention for solving the above problem, there is provided a robot, a work content acquisition unit for acquiring work content taught to the robot, and the acquired work content A layout generation unit that generates layout information indicating a layout of a work area of the robot; and a layout output unit that outputs an actual layout based on the generated layout information. Thereby, since the actual layout of the work area of the robot is output, the user can easily construct an actual layout.

上記の課題を解決するための本発明の第三の態様は、ロボットシステムであって、ロボットと、前記ロボットに対して教示する作業内容を取得する作業内容取得部と、前記取得された作業内容に応じて、前記ロボットの作業領域のレイアウトを示すレイアウト情報を生成するレイアウト生成部と、前記生成されたレイアウト情報に基づいて、実寸のレイアウトを出力させるレイアウト出力部と、前記ロボットに対して前記作業内容を出力する作業内容出力部と、を有することを特徴とする。これにより、ロボットの作業領域の実寸のレイアウトが出力されるため、ユーザーは現実のレイアウトを容易に構築することができる。   A third aspect of the present invention for solving the above problem is a robot system, a work content obtaining unit for obtaining work content taught to the robot, and the obtained work content. And a layout generation unit that generates layout information indicating a layout of the work area of the robot, a layout output unit that outputs an actual size layout based on the generated layout information, and the robot A work content output unit for outputting the work content. Thereby, since the actual layout of the work area of the robot is output, the user can easily construct an actual layout.

上記の課題を解決するための本発明の第四の態様は、教示出力方法であって、ロボットに対して教示する作業内容を取得する作業内容取得ステップと、前記取得された作業内容に応じて、前記ロボットの作業領域のレイアウトを示すレイアウト情報を生成するレイアウト生成ステップと、前記生成されたレイアウト情報に基づいて、実寸のレイアウトを出力させるレイアウト出力ステップと、を含むことを特徴とする。これにより、ロボットの作業領域の実寸のレイアウトが出力されるため、ユーザーは現実のレイアウトを容易に構築することができる。   According to a fourth aspect of the present invention for solving the above-described problem, there is provided a teaching output method, a work content obtaining step for obtaining work content to be taught to a robot, and depending on the obtained work content A layout generation step of generating layout information indicating a layout of the work area of the robot, and a layout output step of outputting an actual size layout based on the generated layout information. Thereby, since the actual layout of the work area of the robot is output, the user can easily construct an actual layout.

上記の課題を解決するための本発明の第五の態様は、プログラムであって、ロボットに対して教示する作業内容を取得する作業内容取得部と、前記取得された作業内容に応じて、前記ロボットの作業領域のレイアウトを示すレイアウト情報を生成するレイアウト生成部と、前記生成されたレイアウト情報に基づいて、実寸のレイアウトを出力させるレイアウト出力部として、コンピューターを機能させることを特徴とする。これにより、ロボットの作業領域の実寸のレイアウトが出力されるため、ユーザーは現実のレイアウトを容易に構築することができる。   A fifth aspect of the present invention for solving the above problem is a program, a work content acquisition unit for acquiring work content to be taught to a robot, and depending on the acquired work content, A computer is caused to function as a layout generation unit that generates layout information indicating a layout of a work area of a robot, and a layout output unit that outputs an actual size layout based on the generated layout information. Thereby, since the actual layout of the work area of the robot is output, the user can easily construct an actual layout.

上記の課題を解決するための本発明の第六の態様は、レイアウトシートであって、ロボットが行う作業内容に含まれる作業対象物が配置される場所と、前記場所に関連付けられた、前記作業対象物又は前記場所に関する補助情報と、を示したことを特徴とする。これにより、ロボットの作業領域のレイアウトが具体的に教示されるため、ユーザーは現実のレイアウトを容易にかつ正確に構築することができる。   A sixth aspect of the present invention for solving the above-described problem is a layout sheet, where the work object included in the work content performed by the robot is arranged, and the work associated with the place And auxiliary information related to the object or the place. Thereby, since the layout of the work area of the robot is specifically taught, the user can easily and accurately construct the actual layout.

本発明の実施形態に係るロボットシステムの概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the robot system which concerns on embodiment of this invention. レイアウトシートの一例を示す図である。It is a figure which shows an example of a layout sheet. 教示出力装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of a teaching output apparatus. 作業プログラムのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of a work program. オブジェクト情報のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of object information. レイアウト情報のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of layout information. 教示出力装置の機能を実現するハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions which implement | achieve the function of a teaching output apparatus. レイアウト生成処理の一例を示すフロー図である。It is a flowchart which shows an example of a layout production | generation process. レイアウトチェック処理の一例を示すフロー図である。It is a flowchart which shows an example of a layout check process.

本発明の実施形態について、図面を参照して説明する。   Embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施形態に係るロボットシステムの概略構成の一例を示す図である。ロボットシステム1は、ロボット2と、教示出力装置4とを備える。ロボット2は、制御装置3を備える。   FIG. 1 is a diagram illustrating an example of a schematic configuration of a robot system according to an embodiment of the present invention. The robot system 1 includes a robot 2 and a teaching output device 4. The robot 2 includes a control device 3.

ロボット2は、制御装置3により制御され、目的の作業を行う。ロボット2は、例えば、作業台Tの近くに配置され、作業台T上に敷かれたレイアウトシート6(図2で詳述)上の所定の作業領域内で作業を行う。ロボット2の作業内容は、特に限定されないが、例えば、道具Cを用いてワークEをワークAに嵌め込み、完成品Hを製造する作業が考えられる。   The robot 2 is controlled by the control device 3 and performs a desired work. For example, the robot 2 is disposed in the vicinity of the work table T and performs work in a predetermined work area on a layout sheet 6 (detailed in FIG. 2) laid on the work table T. Although the work content of the robot 2 is not particularly limited, for example, a work of manufacturing the finished product H by fitting the work E into the work A using the tool C is conceivable.

ロボット2は、胴部20と、アーム21と、ハンド22と、脚部24と、頭部25と、撮像装置26とを有する。   The robot 2 includes a body part 20, an arm 21, a hand 22, a leg part 24, a head part 25, and an imaging device 26.

アーム21は、胴部20に設けられる。アーム(「マニピュレーター」ともいう。)21は、一以上のジョイント(「回転軸」ともいう。)21a及び一以上のアーム部材(「リンク」ともいう。)21bを含む。   The arm 21 is provided on the trunk portion 20. The arm (also referred to as “manipulator”) 21 includes one or more joints (also referred to as “rotating shafts”) 21 a and one or more arm members (also referred to as “links”) 21 b.

ジョイント21aには、それらを動作させるためのアクチュエーター(図示せず)が設けられる。アクチュエーターは、例えば、サーボモーターやエンコーダーなどを備える。エンコーダーが出力するエンコーダー値は、制御装置3によるロボット2のフィードバック制御などに使用される。   The joint 21a is provided with an actuator (not shown) for operating them. The actuator includes, for example, a servo motor and an encoder. The encoder value output by the encoder is used for feedback control of the robot 2 by the control device 3.

また、アーム21の先端には、力覚センサー21cが設けられる。力覚センサーは、ロボット2が出している力に対する反力として受けている力や、モーメントを検出するセンサーである。力覚センサーとしては、例えば、並進3軸方向の力成分と、回転3軸回りのモーメント成分の6成分を同時に検出することができる6軸力覚センサーを用いることができる。なお、力覚センサーは、6軸に限らず、例えば3軸でもよい。   A force sensor 21 c is provided at the tip of the arm 21. The force sensor is a sensor that detects a force and a moment received as a reaction force to the force generated by the robot 2. As the force sensor, for example, a six-axis force sensor that can simultaneously detect six components, ie, a force component in the translational three-axis direction and a moment component around the three rotation axes, can be used. The force sensor is not limited to six axes, and may be, for example, three axes.

各回転軸を連動させることにより、アーム21の先端部などに設定された注目位置(「エンドポイント」ともいう。)を、所定の可動範囲内で自在に移動させたり自由な方向へ向けたりすることができる。なお、エンドポイントの位置は、アームの先端部に限定されず、例えば、エンドエフェクターの先端部などに設定されてもよい。   By linking each rotation axis, the position of interest (also referred to as “end point”) set at the tip of the arm 21 or the like is freely moved within a predetermined movable range or is directed in a free direction. be able to. Note that the position of the end point is not limited to the tip of the arm, and may be set to the tip of the end effector, for example.

なお、アーム21は、マニピュレーターの一種ということができる。マニピュレーターは、エンドポイントの位置を移動させる機構であり、アームに限られず様々な形態をとることができる。   The arm 21 can be said to be a kind of manipulator. The manipulator is a mechanism that moves the position of the end point, and is not limited to an arm and can take various forms.

ハンド22は、アーム21の先端に設けられる。ハンド22は、例えば、複数の指を備え、少なくとも2本の指で作業対象物を把持したり解放したりすることができる。ハンド22は、アーム21の先端部に対して着脱可能であってもよい。   The hand 22 is provided at the tip of the arm 21. The hand 22 includes, for example, a plurality of fingers, and can hold or release the work object with at least two fingers. The hand 22 may be detachable from the tip of the arm 21.

なお、ハンド22は、エンドエフェクターの一種ということができる。エンドエフェクターは、作業対象物を把持したり、持ち上げたり、吊り上げたり、吸着したり、ワークを加工したりするための部材である。エンドエフェクターは、ハンド、フック、吸盤など、様々な形態をとることができる。また、エンドエフェクターは、一本のアームに対して複数設けるようにしてもよい。   The hand 22 can be said to be a kind of end effector. The end effector is a member for gripping, lifting, lifting, adsorbing, or processing a work object. The end effector can take various forms such as a hand, a hook, and a suction cup. Further, a plurality of end effectors may be provided for one arm.

なお、ロボット2の構成は図示した例に限られない。例えば、図1ではジョイント数が6個(6軸)の例が示されているが、ジョイントの数(「軸数」ともいう。)やリンクの数を増減させてもよい。また、ジョイント、リンク、ハンド等の各種部材の形状、大きさ、配置、構造等も適宜変更してよい。   The configuration of the robot 2 is not limited to the illustrated example. For example, FIG. 1 shows an example in which the number of joints is six (six axes), but the number of joints (also referred to as “number of axes”) and the number of links may be increased or decreased. In addition, the shape, size, arrangement, structure, and the like of various members such as joints, links, and hands may be changed as appropriate.

撮像装置26は、頭部25に2台設けられる。撮像装置26は、例えば、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等を有し、作業台T上の作業領域を撮像して、ステレオの画像データを生成する。   Two imaging devices 26 are provided on the head 25. The imaging device 26 has, for example, a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), and the like, and captures a work area on the work table T to generate stereo image data.

制御装置3は、ロボット2の全体を制御する。例えば、制御装置3は、教示出力装置4から出力される作業プログラムに基づいて、ロボット2を動作させる制御命令を生成し、生成した制御命令に従ってアクチュエーターを駆動させることでロボット2を動作させる。また、制御装置3は、撮像装置26に撮像を行わせ、取得した撮像画像を教示出力装置4に出力する。   The control device 3 controls the entire robot 2. For example, the control device 3 generates a control command for operating the robot 2 based on a work program output from the teaching output device 4, and operates the robot 2 by driving an actuator according to the generated control command. In addition, the control device 3 causes the imaging device 26 to perform imaging, and outputs the acquired captured image to the teaching output device 4.

教示出力装置4は、ユーザーの操作に従って、ロボット2に実行させる作業内容を示す作業プログラムを生成する。また、教示出力装置4は、生成した作業プログラムを制御装置3に出力することにより、ロボット2に対して教示を行う。また、教示出力装置4は、生成した作業プログラムに基づいて、ワークや道具等の作業対象物を配置すべき領域などをユーザーに教示するレイアウト情報を生成する。また、教示出力装置4は、当該生成したレイアウト情報に基づいて、印刷装置5によりレイアウトシート6(図2で詳述)を印刷させる。また、教示出力装置4は、ロボット2の撮像装置26から出力される画像データと、レイアウト情報に基づいて生成した画像データとを照合することにより、レイアウトシート6上の現実のレイアウトのチェックを行う。教示出力装置4については、後に詳述する。   The teaching output device 4 generates a work program indicating work contents to be executed by the robot 2 in accordance with a user operation. The teaching output device 4 teaches the robot 2 by outputting the generated work program to the control device 3. In addition, the teaching output device 4 generates layout information that teaches a user an area where a work target such as a work or a tool is to be placed based on the generated work program. Further, the teaching output device 4 causes the printing device 5 to print the layout sheet 6 (detailed in FIG. 2) based on the generated layout information. The teaching output device 4 checks the actual layout on the layout sheet 6 by collating the image data output from the imaging device 26 of the robot 2 with the image data generated based on the layout information. . The teaching output device 4 will be described in detail later.

上記のロボットシステム1の構成は、本実施形態の特徴を説明するにあたって主要構成を説明したのであって、上記の構成例に限られない。また、一般的なロボットシステムが備える構成を排除するものではない。   The configuration of the robot system 1 described above is the main configuration in describing the features of the present embodiment, and is not limited to the above configuration example. Further, the configuration of a general robot system is not excluded.

例えば、撮像装置26の設置位置は、特に限定されず、ロボット2のアーム21の先端部分、胴体部などに設けられてもよいし、天井、壁などのロボット2の外部に設置されてもよい。また、例えば、撮像装置26に加えて、他の撮像装置を設けるようにしてもよい。また、例えば、制御装置3は、ロボット2と別に設けられ、ロボット2に外部から接続するようにしてもよい。また、例えば、制御装置3と教示出力装置4は、一体となっていてもよい。   For example, the installation position of the imaging device 26 is not particularly limited, and may be provided at the distal end portion or the trunk portion of the arm 21 of the robot 2 or may be installed outside the robot 2 such as a ceiling or a wall. . Further, for example, in addition to the imaging device 26, another imaging device may be provided. For example, the control device 3 may be provided separately from the robot 2 and connected to the robot 2 from the outside. For example, the control device 3 and the teaching output device 4 may be integrated.

次に、レイアウトシート6について説明する。   Next, the layout sheet 6 will be described.

本実施形態では、ユーザーは、ロボット2の作業内容に応じて作業領域のレイアウトを行う事前に、教示出力装置4によりレイアウトシート6を作成する。また、ユーザーは、作成したレイアウトシート6を作業台Tの上に敷き、レイアウトシート6に教示されている内容に従って、ワークや道具などの作業対象物を配置する、すなわち作業領域のレイアウトを行う。   In the present embodiment, the user creates the layout sheet 6 by the teaching output device 4 in advance of performing work area layout according to the work content of the robot 2. Further, the user lays the created layout sheet 6 on the work table T, and arranges work objects such as workpieces and tools according to the contents taught in the layout sheet 6, that is, performs work area layout.

図2は、レイアウトシートの一例を示す図である。レイアウトシート6は、矩形状のシートであり、印刷装置5(図1参照)により印刷される。レイアウトシート6は、例えば、紙、樹脂などの素材のシート状の印刷媒体とすることができる。また、レイアウトシート6の実寸サイズは、作業台Tの上面のサイズ、ロボット2の作業領域のサイズ等を考慮して、予め決定される。従って、レイアウトシート6の印刷に使用される画像データは、実寸サイズに対応している。   FIG. 2 is a diagram illustrating an example of a layout sheet. The layout sheet 6 is a rectangular sheet and is printed by the printing device 5 (see FIG. 1). The layout sheet 6 can be a sheet-like print medium made of a material such as paper or resin. The actual size of the layout sheet 6 is determined in advance in consideration of the size of the upper surface of the work table T, the size of the work area of the robot 2, and the like. Accordingly, the image data used for printing the layout sheet 6 corresponds to the actual size.

レイアウトシート6には、配置枠61と、補助情報枠62と、存在チェックマーク63と、位置決めマーク64と、照合マーク65とが描かれる。   On the layout sheet 6, an arrangement frame 61, an auxiliary information frame 62, an existence check mark 63, a positioning mark 64, and a collation mark 65 are drawn.

配置枠61は、作業に関係するワーク、道具、完成品などの作業対象物を置くべき領域を示す。図2の例では、配置枠61aは、ワークAを置く領域を示し、配置枠61bは、ワークEを置く領域を示し、配置枠61cは、道具Cを置く領域を示し、配置枠61dは、完成品Hを置く領域を示す。   The arrangement frame 61 indicates an area where work objects such as works, tools, and finished products related to work should be placed. In the example of FIG. 2, the arrangement frame 61 a indicates an area where the work A is placed, the arrangement frame 61 b indicates an area where the work E is placed, the arrangement frame 61 c indicates an area where the tool C is placed, and the arrangement frame 61 d is The area where the finished product H is placed is shown.

配置枠61内の色(「背景色」ともいう。)は、置かれる作業対象物の色に応じて決定される。例えば、対象物の色が暗い色である場合には、配置枠61の色は明るい色とすることができる。図2の例では、配置枠61bは、暗い色となっている。   The color in the arrangement frame 61 (also referred to as “background color”) is determined according to the color of the work object to be placed. For example, when the color of the object is a dark color, the color of the arrangement frame 61 can be a bright color. In the example of FIG. 2, the arrangement frame 61b has a dark color.

補助情報枠62は、配置枠61と関連付けられて配置される。図2の例では、配置枠61a〜61dに、それぞれ補助情報枠62a〜62dが線により関連付けられている。補助情報枠62内には、関連付けられた配置枠61に関する補助情報が示される。   The auxiliary information frame 62 is arranged in association with the arrangement frame 61. In the example of FIG. 2, auxiliary information frames 62a to 62d are associated with the arrangement frames 61a to 61d by lines. In the auxiliary information frame 62, auxiliary information related to the associated arrangement frame 61 is shown.

補助情報は、例えば、配置枠61の名称、説明文などである。配置枠61に置かれる作業対象物の名称、説明文などが示されてもよい。補助情報は、図が含まれていてもよい。補助情報枠62aには、配置枠61aの名称「場所B」とその説明が記載されている。補助情報枠62bには、配置枠61bの名称「場所F」とその説明が記載されている。補助情報枠62cには、配置枠61cの名称「道具C」とその説明(図を含む。)が記載されている。補助情報枠62dには、配置枠61dの名称「場所I」とその説明が記載されている。   The auxiliary information is, for example, the name of the arrangement frame 61, an explanatory note, and the like. The name, description, etc. of the work object placed in the arrangement frame 61 may be shown. The auxiliary information may include a figure. In the auxiliary information frame 62a, the name “location B” of the arrangement frame 61a and the description thereof are described. In the auxiliary information frame 62b, the name “place F” of the arrangement frame 61b and its description are described. In the auxiliary information frame 62c, the name “tool C” of the arrangement frame 61c and its description (including drawings) are described. In the auxiliary information frame 62d, the name “location I” of the arrangement frame 61d and its description are described.

存在チェックマーク63は、配置枠61内に示される。後述するように、撮像装置26で撮像した画像データ中に、存在チェックマーク63が認識できるか否かにより、配置枠61内に作業対象物が置かれているか否かを判定することができる。また、ユーザーも、存在チェックマーク63が視認できるか否かにより、配置枠61内に作業対象物が置かれているか否かを確認することができる。図2の例では、配置枠61c内に、存在チェックマーク63が示されているが、他の配置枠内に示されてもよい。   The existence check mark 63 is shown in the arrangement frame 61. As will be described later, whether or not the work object is placed in the arrangement frame 61 can be determined based on whether or not the existence check mark 63 can be recognized in the image data captured by the imaging device 26. Further, the user can also confirm whether or not the work object is placed in the arrangement frame 61 based on whether or not the presence check mark 63 can be visually recognized. In the example of FIG. 2, the existence check mark 63 is shown in the arrangement frame 61c, but it may be shown in another arrangement frame.

位置決めマーク64は、配置枠61内に示される。後述するように、撮像装置26で撮像した画像データ中に、位置決めマーク64が認識できるか否かにより、作業対象物が正しい位置に置かれているか否かを判定することができる。また、ユーザーも、位置決めマーク64が視認できるか否かにより、配置枠61内に作業対象物が正しく置かれているか否かを確認することができる。図2の例では、配置枠61c内に、位置決めマーク64が示されているが、他の配置枠内に示されてもよい。   The positioning mark 64 is shown in the arrangement frame 61. As will be described later, whether or not the work object is placed at the correct position can be determined based on whether or not the positioning mark 64 can be recognized in the image data captured by the imaging device 26. Further, the user can also confirm whether or not the work object is correctly placed in the arrangement frame 61 based on whether or not the positioning mark 64 is visible. In the example of FIG. 2, the positioning mark 64 is shown in the arrangement frame 61c. However, it may be shown in another arrangement frame.

照合マーク65は、レイアウトシート6の4角の近傍にそれぞれ示される。後述するように、撮像画像に含まれるレイアウトシート6中の照合マーク65と、レイアウト情報に基づいて生成されたレイアウトシート6の画像データ中の照合マーク65とが合うように、画像処理が行われ、現実のレイアウトのチェックが行われる。   The verification marks 65 are shown in the vicinity of the four corners of the layout sheet 6. As will be described later, image processing is performed so that the matching mark 65 in the layout sheet 6 included in the captured image matches the matching mark 65 in the image data of the layout sheet 6 generated based on the layout information. The actual layout is checked.

もちろん、上記の図2のレイアウトシートは一例であり、レイアウト作業の効率、正確性が向上するのであれば、他の構成であってもよい。例えば、枠の形状、枠の大きさ、マークの位置、マークの形状などは限定されない。また、レイアウトシート自体の形状も矩形状に限定されない。また、例えば、配置枠は、作業対象物を置くべき領域の位置及び範囲を示すことができれば、枠の形式に限られない。また、例えば、補助情報枠は、補助情報がいずれの配置枠と関連付けられているかを示すことができれば、枠の形式に限られない。   Of course, the layout sheet shown in FIG. 2 is merely an example, and other configurations may be used as long as the efficiency and accuracy of layout work are improved. For example, the shape of the frame, the size of the frame, the position of the mark, the shape of the mark, etc. are not limited. Further, the shape of the layout sheet itself is not limited to a rectangular shape. Further, for example, the arrangement frame is not limited to the frame format as long as it can indicate the position and range of the region where the work object is to be placed. Further, for example, the auxiliary information frame is not limited to the frame format as long as it can indicate which arrangement frame the auxiliary information is associated with.

次に、レイアウトシートに関する教示出力装置4の機能構成について説明する。   Next, the functional configuration of the teaching output device 4 relating to the layout sheet will be described.

図3は、教示出力装置の機能構成の一例を示す図である。教示出力装置4は、作業プログラム生成部(「作業内容取得部」又は「作業内容出力部」と呼んでもよい。)40と、レイアウト生成部41と、レイアウト出力部42と、画像取得部43と、レイアウトチェック部44と、作業プログラム格納部45と、オブジェクト情報格納部46と、レイアウト情報格納部47と、を有する。   FIG. 3 is a diagram illustrating an example of a functional configuration of the teaching output device. The teaching output device 4 includes a work program generation unit (may be referred to as a “work content acquisition unit” or “work content output unit”) 40, a layout generation unit 41, a layout output unit 42, and an image acquisition unit 43. A layout check unit 44, a work program storage unit 45, an object information storage unit 46, and a layout information storage unit 47.

作業プログラム生成部40は、ユーザーから入力装置等を介して作業内容の入力を受け付ける。   The work program generation unit 40 receives input of work contents from the user via an input device or the like.

本実施形態では、ユーザーにより入力される作業内容(「ユーザー命令」ともいう。)には、ロボットの目的の作業と当該作業に必要なパラメーターが含まれる。また、ユーザー命令は、例えば「move XO from XS to XE」のような大まかな形式とすることができる。「move XO from XS to XE」は、対象物XOを場所XSから場所XEに移動させることを意味する。ここで、大文字で表示された対象物XO、場所XS、場所XEは、変更可能なパラメーターであり、ユーザーは目的の作業に応じて任意の値をパラメーターに設定することができる。対象物XOには、例えば対象物の名称、形状などを特定するデータが設定される。場所XS及び場所XEには、例えば場所の名称、位置、範囲などを特定するデータが設定される。また、ユーザー命令は、複数入力されてもよいし、各ユーザー命令の実行順序が指定されてもよい。   In the present embodiment, the work content (also referred to as “user command”) input by the user includes a target work of the robot and parameters necessary for the work. Further, the user command can be in a rough format such as “move XO from XS to XE”. “Move XO from XS to XE” means that the object XO is moved from the location XS to the location XE. Here, the object XO, the place XS, and the place XE displayed in capital letters are parameters that can be changed, and the user can set any value as a parameter according to the target work. In the object XO, for example, data specifying the name, shape, etc. of the object is set. In the place XS and the place XE, for example, data specifying the name, position, range, etc. of the place is set. A plurality of user instructions may be input, or the execution order of each user instruction may be specified.

なお、本実施形態では、ユーザー命令のライブラリーが予め複数用意されている。従って、ユーザーは、ロボットの作業内容に応じて、ライブラリーからユーザー命令を一つ以上選択し、選択した各ユーザー命令にパラメーターを設定することで、簡単にユーザー命令を作成することができる。   In the present embodiment, a plurality of user instruction libraries are prepared in advance. Therefore, the user can easily create a user command by selecting one or more user commands from the library according to the work content of the robot and setting parameters for each selected user command.

また、作業プログラム生成部40は、入力されたユーザー命令に基づいて、当該ユーザー命令を実現する動作命令群(「シナリオ」ともいう。)を生成する。   Further, the work program generation unit 40 generates an operation command group (also referred to as “scenario”) that realizes the user command based on the input user command.

本実施形態では、シナリオは、制御装置3で解釈可能な一以上の動作命令で構成される。シナリオは、ユーザー命令を実現するために必要なロボットの動作単位で構成されるものである。もちろん、一つのユーザー命令に対して、シナリオが複数生成されてもよい。   In the present embodiment, the scenario is composed of one or more operation commands that can be interpreted by the control device 3. A scenario is composed of robot motion units necessary to realize a user command. Of course, a plurality of scenarios may be generated for one user command.

例えば、ユーザー命令が「move XO from XS to XE」である場合、動作命令「move to XS」、「grasp XO」、動作命令「move from XS to XE」、及び動作命令「release XO」を含むシナリオが生成される。動作命令「move to XS」は、エンドポイントの位置を場所XSへ移動させる、という意味である。動作命令「grasp XO」は、ハンドで対象物XOを把持する、という意味である。動作命令「move from XS to XE」は、エンドポイントの位置を場所XSから場所XEへ移動させる、という意味である。動作命令「release XO」は、ハンドで把持された対象物XOを解放する、という意味である。各動作命令に含まれるパラメーターは、ユーザー命令で設定されている。   For example, when the user instruction is “move XO from XS to XE”, the scenario includes the operation instruction “move to XS”, “grasp XO”, the operation instruction “move from XS to XE”, and the operation instruction “release XO”. Is generated. The operation command “move to XS” means that the position of the end point is moved to the location XS. The operation command “grasp XO” means that the object XO is gripped by the hand. The operation command “move from XS to XE” means that the position of the end point is moved from the location XS to the location XE. The operation command “release XO” means to release the object XO gripped by the hand. Parameters included in each operation command are set by a user command.

なお、本実施形態では、シナリオのライブラリーが予め複数用意されている。シナリオのライブラリーは、ユーザー命令に対応するものが予め用意されており、それぞれ一以上の動作命令で構成されている。従って、作業プログラム生成部40は、ユーザー命令に対応するシナリオのライブラリーを選択するとともに、選択したライブラリーに含まれる動作命令のパラメーターを設定することで、制御装置3で解釈可能なシナリオを簡単に生成することができる。   In this embodiment, a plurality of scenario libraries are prepared in advance. Scenario libraries corresponding to user commands are prepared in advance, each of which is composed of one or more operation commands. Accordingly, the work program generation unit 40 selects a scenario library corresponding to the user command, and easily sets a scenario interpretable by the control device 3 by setting a parameter of the operation command included in the selected library. Can be generated.

作業プログラム生成部40は、入力されたユーザー命令(作業内容)と、当該ユーザー命令に基づいて生成したシナリオ(動作命令)とを関連付けて、作業プログラム格納部45に格納する。このようにして、作業プログラムが生成される。   The work program generation unit 40 associates the input user command (work content) with the scenario (operation command) generated based on the user command, and stores it in the work program storage unit 45. In this way, a work program is generated.

図4は、作業プログラムのデータ構造の一例を示す図である。図4に示すように、作業プログラムには、それぞれの作業内容ごとに、当該作業内容の実行順番を示す工程番号451と、当該作業内容を示す作業内容452と、当該作業内容に対応する動作命令を示す動作命令453とが関連付けられた作業レコードが格納される。作業内容452には、ユーザー命令を特定する情報とともに当該ユーザー命令に含まれる各パラメーターの値が設定される。動作命令453には、動作命令を特定する情報とともに当該動作命令に含まれる各パラメーターの値が設定される。   FIG. 4 is a diagram illustrating an example of the data structure of the work program. As shown in FIG. 4, for each work content, the work program includes a process number 451 indicating the execution order of the work content, a work content 452 indicating the work content, and an operation command corresponding to the work content. A work record associated with an operation command 453 indicating the above is stored. In the work content 452, the value of each parameter included in the user command is set together with information specifying the user command. In the operation instruction 453, the value of each parameter included in the operation instruction is set together with information specifying the operation instruction.

図3の説明に戻る。また、作業プログラム生成部40は、生成したシナリオを制御装置3に出力する。例えば、作業プログラム生成部40は、作業プログラム格納部45に格納されている作業プログラムを参照し、工程番号451の示す工程番号順に動作命令453を読み出して制御装置3に出力する。作業プログラム生成部40は、生成したシナリオをさらに制御装置3により解釈可能な制御命令に変換してから、制御装置3に出力するようにしてもよい。   Returning to the description of FIG. Further, the work program generation unit 40 outputs the generated scenario to the control device 3. For example, the work program generation unit 40 refers to the work program stored in the work program storage unit 45, reads out the operation commands 453 in the order of the process numbers indicated by the process numbers 451, and outputs them to the control device 3. The work program generation unit 40 may further convert the generated scenario into a control command that can be interpreted by the control device 3 and then output it to the control device 3.

なお、制御装置3は、教示出力装置4からシナリオを受信して、記憶装置等に格納する。また、制御装置3は、記憶したシナリオに基づいて制御命令を生成し、アームやハンドの動作を制御する。アームの移動などの制御には、例えば、指定した開始位置から終了位置へエンドポイントを移動させる位置制御を用いることができる。制御装置3は、ロボット2の現在の状態(例えば、ジョイントの角度、手先の位置、力覚センサーなどのセンサーの出力値など)を取得するようにしてもよい。また、制御装置3は、撮像装置26を制御して撮像を行い、撮像画像に基づいてロボット2の周囲の環境の現在の状態(例えば、対象物の位置及び姿勢、障害物の位置及び範囲など)を特定するようにしてもよい。教示された作業プログラムに基づいてロボットを制御する処理は、一般的な技術を用いて実現できるので、詳細な説明を省略する。位置制御に限られず、現在画像と目標画像に基づいてロボットを動作させる視覚サーボ制御、インピーダンス制御などの力制御、を用いるようにしてもよい。   The control device 3 receives the scenario from the teaching output device 4 and stores it in a storage device or the like. Further, the control device 3 generates a control command based on the stored scenario, and controls the operation of the arm and the hand. For the control such as the movement of the arm, for example, position control for moving the end point from the specified start position to the end position can be used. The control device 3 may acquire the current state of the robot 2 (for example, the angle of the joint, the position of the hand, the output value of a sensor such as a force sensor). In addition, the control device 3 controls the imaging device 26 to perform imaging, and based on the captured image, the current state of the environment around the robot 2 (for example, the position and posture of the object, the position and range of the obstacle, etc.) ) May be specified. Since the process of controlling the robot based on the taught work program can be realized using a general technique, a detailed description is omitted. Not limited to position control, visual servo control for operating the robot based on the current image and the target image, and force control such as impedance control may be used.

また、作業プログラム生成部40は、ユーザーから入力装置等を介してオブジェクト情報を受け付け、オブジェクト情報格納部46に格納する。オブジェクト情報は、レイアウトシート6の構成を定義するレイアウト情報の生成に使用される。オブジェクト情報には、各オブジェクトに関する情報が設定される。オブジェクトは、例えば、ユーザー命令のパラメーターとして指定される作業対象物や場所などの要素である。   In addition, the work program generation unit 40 receives object information from the user via an input device or the like, and stores it in the object information storage unit 46. The object information is used to generate layout information that defines the configuration of the layout sheet 6. Information relating to each object is set in the object information. The object is, for example, an element such as a work object or a place specified as a parameter of a user command.

図5は、オブジェクト情報のデータ構造の一例を示す図である。図5に示すように、オブジェクト情報には、それぞれのオブジェクトごとに、当該オブジェクトのオブジェクト名461と、当該オブジェクトの属性462とが関連付けられたオブジェクトレコードが格納される。   FIG. 5 is a diagram illustrating an example of the data structure of the object information. As shown in FIG. 5, the object information stores an object record in which an object name 461 of the object and an attribute 462 of the object are associated with each object.

オブジェクト名461は、例えば、パラメーターで指定される作業対象物の名称(「部品A」、「部品E」、「完成品H」、「道具C」、「道具C.操作部G」)や、パラメーターで指定される場所の名称(「道具C.場所D」、「場所B」、「場所F」、「場所I」)である。「道具C.操作部G」は、道具C自身が操作部Gを有する場合に、「道具Cの操作部G」を意味している。「道具C.場所D」は、道具C自身が対象物を置く場所Dを有する場合に、「道具C上の場所D」を意味している。   The object name 461 is, for example, the name of the work object specified by the parameters (“part A”, “part E”, “finished product H”, “tool C”, “tool C. operation unit G”), The name of the place specified by the parameter (“tool C. place D”, “place B”, “place F”, “place I”). “Tool C. Operation unit G” means “Operation unit G of tool C” when the tool C itself has the operation unit G. “Tool C. place D” means “place D on tool C” when tool C itself has a place D on which an object is placed.

属性462は、オブジェクトに関する情報であり、例えば、オブジェクトに関する説明文、オブジェクトの色、オブジェクトが保持される方法、オブジェクトのサイズ、オブジェクトをロボットが把持するときの把持位置などを示す把持情報、オブジェクトの説明画像、オブジェクトに対して行うべき設定、などの項目を含む。また、属性462は、オブジェクトが配置される領域の位置及びその領域のサイズに関するヒント(「配置ヒント」ともいう。)を示す項目を含む。   The attribute 462 is information about the object. For example, the description about the object, the color of the object, the method of holding the object, the size of the object, the grip information indicating the grip position when the robot grips the object, etc. This includes items such as explanation images and settings to be made for objects. Further, the attribute 462 includes an item indicating a position of the area where the object is arranged and a hint regarding the size of the area (also referred to as “placement hint”).

オブジェクト情報に含まれる各オブジェクトの属性462は、ユーザーが任意に設定を行うことができる。ユーザーは、ロボットの作業プログラムの内容を把握しており、当該作業プログラムの内容に応じたレイアウトを教示するレイアウトシートを作成すべく、オブジェクト情報を設定すればよい。   The user can arbitrarily set the attribute 462 of each object included in the object information. The user knows the contents of the work program of the robot, and may set object information in order to create a layout sheet that teaches a layout according to the contents of the work program.

図3の説明に戻る。レイアウト生成部41は、作業プログラム格納部45に格納されている作業プログラムと、オブジェクト情報格納部46に格納されているオブジェクト情報とに基づいて、作業プログラムに含まれる作業対象物の配置などを示すレイアウト情報を生成し、レイアウト情報格納部47に格納する。このレイアウト生成処理については、後に詳述する。   Returning to the description of FIG. The layout generation unit 41 indicates the arrangement of work objects included in the work program based on the work program stored in the work program storage unit 45 and the object information stored in the object information storage unit 46. Layout information is generated and stored in the layout information storage unit 47. This layout generation process will be described in detail later.

図6は、レイアウト情報のデータ構造の一例を示す図である。レイアウト情報は、作業プログラムごとに生成されて、格納される。図6に示すように、レイアウト情報には、それぞれの領域(図2の配置枠61に対応する。)ごとに、当該領域の識別情報である領域ID471と、当該領域の名称472と、当該領域のレイアウトシート6上の位置、サイズ、色、マーク(存在チェックマーク63、位置決めマーク64)の有無などを示す定義473と、当該領域に関する説明などを示す関連情報474とが関連付けられた領域レコードが格納される。   FIG. 6 is a diagram illustrating an example of a data structure of layout information. The layout information is generated and stored for each work program. As shown in FIG. 6, the layout information includes, for each area (corresponding to the arrangement frame 61 in FIG. 2), an area ID 471 that is identification information of the area, a name 472 of the area, and the area. An area record in which a definition 473 indicating the position, size, color, presence / absence of a mark (existence check mark 63, positioning mark 64) on the layout sheet 6 and related information 474 indicating an explanation of the area is associated Stored.

図3の説明に戻る。レイアウト出力部42は、レイアウト情報格納部47に格納されているレイアウト情報に基づいて、レイアウトシート6の実寸サイズに対応した画像データを生成し、印刷装置5に出力させる。これにより、レイアウトシート6が印刷される。レイアウトシート6の画像データの生成処理については、後に詳述する。   Returning to the description of FIG. The layout output unit 42 generates image data corresponding to the actual size of the layout sheet 6 based on the layout information stored in the layout information storage unit 47 and causes the printing apparatus 5 to output the image data. Thereby, the layout sheet 6 is printed. The processing for generating the image data of the layout sheet 6 will be described in detail later.

画像取得部43は、制御装置3に指示を出し、レイアウトシート6を用いて実際にレイアウトが行われた状態の作業領域を撮像装置26により撮像させ、撮像画像を取得する。   The image acquisition unit 43 issues an instruction to the control device 3, causes the imaging device 26 to capture a work area in a state where the layout is actually performed using the layout sheet 6, and acquires a captured image.

レイアウトチェック部44は、画像取得部43により取得された撮像画像に含まれる現実のレイアウトと、レイアウト情報格納部47に格納されているレイアウト情報に基づいて生成されるレイアウトモデルとを照合し、現実のレイアウトが正しく行われているか否かをチェックする。レイアウトのチェック処理については、後に詳述する。   The layout check unit 44 collates the actual layout included in the captured image acquired by the image acquisition unit 43 with the layout model generated based on the layout information stored in the layout information storage unit 47, Check if the layout of is correct. The layout check process will be described in detail later.

作業プログラム格納部45は、作業プログラムを格納する。オブジェクト情報格納部46は、オブジェクト情報を格納する。レイアウト情報格納部47は、レイアウト情報を格納する。   The work program storage unit 45 stores a work program. The object information storage unit 46 stores object information. The layout information storage unit 47 stores layout information.

図7は、教示出力装置の機能を実現するハードウェア構成の一例を示す図である。   FIG. 7 is a diagram illustrating an example of a hardware configuration for realizing the function of the teaching output device.

教示出力装置4は、例えば、図7に示すような、CPU(Central Processing Unit)等の演算装置91と、RAM(Random Access Memory)などの主記憶装置92と、HDD(Hard Disk Drive)等の補助記憶装置93と、有線又は無線により通信ネットワークと接続するための通信インターフェイス(I/F)94と、マウス、キーボード、タッチセンサーやタッチパネルなどの入力装置95と、液晶ディスプレイなどの表示装置96と、DVD(Digital Versatile Disk)などの持ち運び可能な記憶媒体に対する情報の読み書きを行う読み書き装置97と、を備えるコンピューター90で実現することができる。   The teaching output device 4 includes, for example, a calculation device 91 such as a CPU (Central Processing Unit), a main storage device 92 such as a RAM (Random Access Memory), and a HDD (Hard Disk Drive) as shown in FIG. An auxiliary storage device 93, a communication interface (I / F) 94 for connecting to a communication network by wire or wireless, an input device 95 such as a mouse, keyboard, touch sensor, and touch panel, and a display device 96 such as a liquid crystal display It can be realized by a computer 90 including a read / write device 97 that reads and writes information from and on a portable storage medium such as a DVD (Digital Versatile Disk).

例えば、作業プログラム生成部40、レイアウト生成部41、レイアウト出力部42、画像取得部43、レイアウトチェック部44などの機能は、補助記憶装置93などから主記憶装置92にロードされた所定のプログラムを演算装置91が実行することで実現される。作業プログラム格納部45、オブジェクト情報格納部46、レイアウト情報格納部47などの機能は、例えば、演算装置91が主記憶装置92又は補助記憶装置93を利用することで実現される。ロボット2や印刷装置5との通信機能は、例えば、演算装置91が通信I/F94を利用することで実現される。なお、上記の所定のプログラムは、例えば、読み書き装置97により読み取られた記憶媒体からインストールされてもよいし、通信I/F94を介してネットワークからインストールされてもよい。   For example, the functions such as the work program generation unit 40, the layout generation unit 41, the layout output unit 42, the image acquisition unit 43, and the layout check unit 44 can execute predetermined programs loaded from the auxiliary storage device 93 or the like into the main storage device 92. This is realized by the execution of the arithmetic unit 91. Functions such as the work program storage unit 45, the object information storage unit 46, and the layout information storage unit 47 are realized by the arithmetic device 91 using the main storage device 92 or the auxiliary storage device 93, for example. The communication function with the robot 2 and the printing device 5 is realized by the arithmetic device 91 using the communication I / F 94, for example. The predetermined program may be installed from, for example, a storage medium read by the read / write device 97 or may be installed from the network via the communication I / F 94.

制御装置3は、例えば、演算装置、記憶装置、各種回路などを備えるコントローラー基板等により実現することができる。   The control device 3 can be realized by, for example, a controller board including an arithmetic device, a storage device, various circuits, and the like.

上述した教示出力装置4の機能構成は、教示出力装置4の構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。教示出力装置4の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。   The functional configuration of the teaching output device 4 described above is classified according to main processing contents in order to make the configuration of the teaching output device 4 easy to understand. The present invention is not limited by the way of classification and names of the constituent elements. The configuration of the teaching output device 4 can be classified into more components depending on the processing content. Moreover, it can also classify | categorize so that one component may perform more processes. Further, the processing of each component may be executed by one hardware or may be executed by a plurality of hardware.

また、教示出力装置4及び制御装置3の機能及び処理の分担は、説明した例に限られない。例えば、教示出力装置4の少なくとも一部の機能は、制御装置3に含まれ、制御装置3により実現されてもよい。また、例えば、制御装置3の少なくとも一部の機能は、教示出力装置4に含まれ、教示出力装置4により実現されてもよい。   Further, the functions and processing sharing of the teaching output device 4 and the control device 3 are not limited to the example described. For example, at least a part of the functions of the teaching output device 4 may be included in the control device 3 and realized by the control device 3. Further, for example, at least a part of the functions of the control device 3 may be included in the teaching output device 4 and realized by the teaching output device 4.

次に、教示出力装置4により実現される動作について説明する。   Next, the operation realized by the teaching output device 4 will be described.

図8は、レイアウト生成処理の一例を示すフロー図である。なお、作業プログラム及びオブジェクト情報は、それぞれ作業プログラム格納部45及びオブジェクト情報格納部46に格納されている。   FIG. 8 is a flowchart illustrating an example of the layout generation process. The work program and the object information are stored in the work program storage unit 45 and the object information storage unit 46, respectively.

まず、レイアウト生成部41は、作業プログラム格納部45を参照し、作業内容を一つ取得する(ステップS10)。ステップS10では、レイアウト生成部41は、未取得の作業内容452のうち、工程番号451が最も小さい工程に関連付けられた作業内容452を取得する。   First, the layout generation unit 41 refers to the work program storage unit 45 and acquires one work content (step S10). In step S <b> 10, the layout generation unit 41 acquires the work content 452 associated with the process having the smallest process number 451 among the unacquired work contents 452.

それから、レイアウト生成部41は、ステップS10で取得した作業内容において、部品に関する場所が参照されているか否かを判定する(ステップS20)。例えば、作業内容が「[部品A]を[場所B]から[道具C.場所D]へ移動」である場合、部品Aに関する場所Bが参照されていると判定できる。   Then, the layout generation unit 41 determines whether or not a location related to the component is referenced in the work content acquired in step S10 (step S20). For example, when the work content is “move [part A] from [place B] to [tool C. place D]”, it can be determined that the place B related to the part A is referenced.

部品に関する場所が参照されている場合(ステップS20でY)、レイアウト生成部41は、オブジェクト情報格納部46を参照し、部品に関する情報と、当該部品の場所に関する情報とを取得する(ステップS30)。例えば、レイアウト生成部41は、S20で特定した場所の名称をキーとして、オブジェクト情報格納部46から、対応する属性462を取得する。また、例えば、レイアウト生成部41は、ステップS20で特定した部品の名称をキーとして、オブジェクト情報格納部46から、対応する属性462を取得する。   When the location related to the component is referred to (Y in step S20), the layout generation unit 41 refers to the object information storage unit 46 and acquires information related to the component and information related to the location of the component (step S30). . For example, the layout generation unit 41 acquires the corresponding attribute 462 from the object information storage unit 46 using the name of the place specified in S20 as a key. For example, the layout generation unit 41 acquires the corresponding attribute 462 from the object information storage unit 46 using the name of the component specified in step S20 as a key.

それから、レイアウト生成部41は、部品の場所に関する領域情報を生成する(ステップS40)。例えば、レイアウト生成部41は、レイアウト情報格納部47に、領域レコードを一つ追加する。レイアウト生成部41は、領域を一意に識別する識別情報を領域ID471に設定する。また、レイアウト生成部41は、ステップS20で特定した場所の名称を、名称472に設定する。   Then, the layout generation unit 41 generates area information regarding the location of the component (step S40). For example, the layout generation unit 41 adds one area record to the layout information storage unit 47. The layout generation unit 41 sets identification information for uniquely identifying an area in the area ID 471. In addition, the layout generation unit 41 sets the name of the place specified in step S20 as the name 472.

また、レイアウト生成部41は、ステップS30で取得した場所の属性462に含まれる配置ヒントを、定義473に設定する。また、レイアウト生成部41は、ステップS30で取得した部品の属性462に含まれる当該部品の色に基づいて、領域の色を決定し、定義473に設定する。部品の色と領域の色との対応関係は、予め定義して記憶装置などに格納しておけばよい。領域の色は、例えば、画像処理において背景から部品を区別して認識し易い色とすればよい。ユーザーが背景から部品を区別して認識し易い色としてもよい。   In addition, the layout generation unit 41 sets the placement hint included in the location attribute 462 acquired in step S <b> 30 in the definition 473. In addition, the layout generation unit 41 determines the color of the region based on the color of the component included in the component attribute 462 acquired in step S <b> 30 and sets it in the definition 473. The correspondence between the color of the component and the color of the area may be defined in advance and stored in a storage device or the like. The color of the region may be a color that is easy to recognize by distinguishing components from the background in image processing, for example. It is good also as a color which a user distinguishes components from a background and is easy to recognize.

また、レイアウト生成部41は、ステップS30で取得した場所の属性462に含まれる説明文を、関連情報474に設定する。レイアウト生成部41は、取得した部品の属性462に含まれる説明文、説明画像、その他の情報などを、関連情報474に設定してもよい。   In addition, the layout generation unit 41 sets the explanatory text included in the location attribute 462 acquired in step S30 in the related information 474. The layout generation unit 41 may set the description information, the description image, and other information included in the acquired component attribute 462 in the related information 474.

部品に関する場所が参照されていない場合(ステップS20でN)、又は、ステップS40の後、レイアウト生成部41は、ステップS10で取得した作業内容において、道具が参照されているか否かを判定する(ステップS50)。例えば、作業内容が「[部品A]を[場所B]から[道具C.場所D]へ移動」である場合、道具Cが参照されていると判定できる。   When the location regarding the part is not referred to (N in Step S20), or after Step S40, the layout generation unit 41 determines whether or not the tool is referred to in the work content acquired in Step S10 ( Step S50). For example, when the work content is “move [part A] from [place B] to [tool C. place D]”, it can be determined that the tool C is referenced.

道具が参照されている場合(ステップS50でY)、レイアウト生成部41は、オブジェクト情報格納部46を参照し、当該道具に関する情報を取得する(ステップS60)。例えば、レイアウト生成部41は、ステップS50で特定した道具の名称をキーとして、オブジェクト情報格納部46から、対応する属性462を取得する。   When the tool is referred to (Y in step S50), the layout generation unit 41 refers to the object information storage unit 46 and acquires information regarding the tool (step S60). For example, the layout generation unit 41 acquires the corresponding attribute 462 from the object information storage unit 46 using the name of the tool specified in step S50 as a key.

それから、レイアウト生成部41は、道具に関する領域情報を生成する(ステップS70)。例えば、レイアウト生成部41は、レイアウト情報格納部47に、領域レコードを一つ追加する。レイアウト生成部41は、領域を一意に識別する識別情報を領域ID471に設定する。また、レイアウト生成部41は、ステップS50で特定した道具の名称を、名称472に設定する。   Then, the layout generation unit 41 generates area information about the tool (step S70). For example, the layout generation unit 41 adds one area record to the layout information storage unit 47. The layout generation unit 41 sets identification information for uniquely identifying an area in the area ID 471. In addition, the layout generation unit 41 sets the name of the tool identified in step S50 as the name 472.

また、レイアウト生成部41は、ステップS60で取得した道具の属性462に含まれる配置ヒントを、定義473に設定する。また、レイアウト生成部41は、ステップS60で取得した道具の属性462に含まれる当該部品の色に基づいて、領域の色を決定し、定義473に設定する。道具の色と領域の色との対応関係は、予め定義して記憶装置などに格納しておけばよい。領域の色は、例えば、画像処理で背景から道具を区別して認識し易い色とすればよい。ユーザーが背景から道具を区別して認識し易い色としてもよい。   In addition, the layout generation unit 41 sets the placement hint included in the tool attribute 462 acquired in step S 60 in the definition 473. In addition, the layout generation unit 41 determines the color of the region based on the color of the component included in the tool attribute 462 acquired in step S60 and sets the region color in the definition 473. The correspondence between the tool color and the area color may be defined in advance and stored in a storage device or the like. The color of the region may be a color that is easy to recognize by distinguishing the tool from the background by image processing, for example. It is good also as a color which a user distinguishes a tool from a background and is easy to recognize.

また、レイアウト生成部41は、ステップS60で取得した道具の属性462に含まれる説明文を、関連情報474に設定する。レイアウト生成部41は、道具の属性462に含まれる説明画像、その他の情報などを、関連情報474に設定してもよい。また、レイアウト生成部41は、ステップS60で取得した道具に関する場所(道具上の場所など)を特定し、当該場所の属性462に含まれる説明文などを、関連情報474に設定してもよい。   Further, the layout generation unit 41 sets the explanatory text included in the tool attribute 462 acquired in step S60 in the related information 474. The layout generation unit 41 may set an explanation image included in the tool attribute 462 and other information in the related information 474. In addition, the layout generation unit 41 may specify a place (such as a place on the tool) related to the tool acquired in step S60 and set an explanatory text included in the attribute 462 of the place in the related information 474.

道具が参照されていない場合(ステップS50でN)、又は、ステップS70の後、レイアウト生成部41は、ステップS10で取得した作業内容において、部品や道具に関連しない場所が参照されているか否かを判定する(ステップS80)。例えば、作業内容が「[完成品H]を[道具C.場所D]から[場所I]へ移動」である場合、部品や道具に関連しない場所Iが参照されていると判定できる。   When the tool is not referred to (N in step S50), or after step S70, the layout generation unit 41 determines whether or not a location not related to the part or tool is referenced in the work content acquired in step S10. Is determined (step S80). For example, when the work content is “Move [finished product H] from [tool C. place D] to [place I]”, it can be determined that a place I that is not related to parts or tools is referenced.

部品や道具に関連しない場所が参照されている場合(ステップS80でY)、レイアウト生成部41は、オブジェクト情報格納部46を参照し、当該場所に関する情報を取得する(ステップS90)。例えば、レイアウト生成部41は、ステップS80で特定した場所の名称をキーとして、オブジェクト情報格納部46から、対応する属性462を取得する。   When a location not related to a part or tool is referred to (Y in step S80), the layout generation unit 41 refers to the object information storage unit 46 and acquires information regarding the location (step S90). For example, the layout generation unit 41 acquires the corresponding attribute 462 from the object information storage unit 46 using the name of the place specified in step S80 as a key.

それから、レイアウト生成部41は、部品や道具に関連しない場所に関する領域情報を生成する(ステップS100)。例えば、レイアウト生成部41は、レイアウト情報格納部47に、領域レコードを一つ追加する。レイアウト生成部41は、領域を一意に識別する識別情報を領域ID471に設定する。また、レイアウト生成部41は、ステップS80で特定した場所の名称を、名称472に設定する。   Then, the layout generation unit 41 generates area information regarding a place that is not related to a part or tool (step S100). For example, the layout generation unit 41 adds one area record to the layout information storage unit 47. The layout generation unit 41 sets identification information for uniquely identifying an area in the area ID 471. In addition, the layout generation unit 41 sets the name of the place identified in step S80 as the name 472.

また、レイアウト生成部41は、ステップS90で取得した場所の属性462に含まれる配置ヒントを、定義473に設定する。また、レイアウト生成部41は、ステップS90で取得した場所の属性462に含まれる説明文を、関連情報474に設定する。   In addition, the layout generation unit 41 sets the placement hint included in the location attribute 462 acquired in step S <b> 90 in the definition 473. In addition, the layout generation unit 41 sets the explanatory text included in the location attribute 462 acquired in step S90 in the related information 474.

部品や道具に関連しない場所が参照されていない場合(ステップS80でN)、又は、ステップS100の後、レイアウト生成部41は、作業プログラム格納部45を参照し、次の工程があるか否かを判定する(ステップS110)。ステップS110では、レイアウト生成部41は、未取得の作業内容452があるか否かを判定する。次の工程の作業内容がある場合、レイアウト生成部41は、処理をステップS10に戻す。   When a location not related to a part or tool is not referred to (N in step S80), or after step S100, the layout generation unit 41 refers to the work program storage unit 45 and determines whether there is a next process. Is determined (step S110). In step S110, the layout generation unit 41 determines whether there is unacquired work content 452. If there is work content for the next process, the layout generation unit 41 returns the process to step S10.

次の工程の作業内容がない場合(ステップS110でN)、レイアウト生成部41は、レイアウト情報を合成する(ステップS120)。ここで、レイアウト情報格納部47には、各工程の作業内容それぞれについてステップS40、S70、又はS100で領域レコードが追加されている。そのため、同一の内容の領域レコードが複数含まれる場合がある。従って、レイアウト生成部41は、レイアウト情報に含まれる領域レコードのうち、同一の名称472を有する複数の領域レコードを一つの領域レコードにまとめる。   When there is no work content of the next process (N in step S110), the layout generation unit 41 synthesizes layout information (step S120). Here, an area record is added to the layout information storage unit 47 in step S40, S70, or S100 for each work content of each process. Therefore, a plurality of area records having the same contents may be included. Therefore, the layout generation unit 41 collects a plurality of area records having the same name 472 among the area records included in the layout information into one area record.

また、レイアウト生成部41は、各領域レコードの定義473に含まれる配置ヒントが示す領域の位置及びサイズに従って、対応する配置枠61を予め定められたレイアウトシート6の画像の領域内に配置する。そして、レイアウト生成部41は、各配置枠61が重なり合うことがないかを判定する。配置枠61が重なり合う場合は、レイアウト生成部41は、いずれかの配置枠61又は複数の配置枠61の位置を移動させることで、重複をなくす。このようにして各配置枠61の位置を調整した後、レイアウト生成部41は、位置に変更がある配置枠61の定義473を更新する。   In addition, the layout generation unit 41 arranges the corresponding arrangement frame 61 in the area of the image of the predetermined layout sheet 6 according to the position and size of the area indicated by the arrangement hint included in the definition 473 of each area record. Then, the layout generation unit 41 determines whether the arrangement frames 61 do not overlap each other. When the arrangement frames 61 overlap, the layout generation unit 41 eliminates the duplication by moving the position of any one of the arrangement frames 61 or the plurality of arrangement frames 61. After adjusting the position of each arrangement frame 61 in this way, the layout generation unit 41 updates the definition 473 of the arrangement frame 61 whose position is changed.

それから、レイアウト出力部42は、レイアウトを出力する(ステップS130)。例えば、レイアウト出力部42は、ステップS120で合成されたレイアウト情報をレイアウト情報格納部47から取得する。また、レイアウト出力部42は、予め定めたレイアウトシート6の画像を描画するとともに、各領域レコードに基づいて、レイアウトシート内に、枠やマークを描画する。   Then, the layout output unit 42 outputs the layout (step S130). For example, the layout output unit 42 acquires the layout information synthesized in step S120 from the layout information storage unit 47. Further, the layout output unit 42 draws an image of a predetermined layout sheet 6 and draws a frame and a mark in the layout sheet based on each area record.

すなわち、レイアウト出力部42は、定義473が示す領域の位置及びサイズに基づいて、配置枠61を描画する。また、定義473が示す色に基づいて、配置枠61内の色を描画する。また、定義473に、存在チェックマーク63の描画を指示されている場合、配置枠61内に存在チェックマーク63を描画する。また、定義473に、位置決めマーク64の描画を指示されている場合、配置枠61内に位置決めマーク64を描画する。   That is, the layout output unit 42 draws the arrangement frame 61 based on the position and size of the area indicated by the definition 473. In addition, the color in the arrangement frame 61 is drawn based on the color indicated by the definition 473. If the definition 473 instructs to draw the existence check mark 63, the existence check mark 63 is drawn in the arrangement frame 61. When the definition 473 instructs to draw the positioning mark 64, the positioning mark 64 is drawn in the arrangement frame 61.

また、レイアウト出力部42は、各配置枠61と重ならないように、各配置枠61に関連付けて補助情報枠62を描画する。また、名称472に基づいて、補助情報枠62内に配置枠の名称を描画する。また、関連情報474基づいて、説明文、説明画像などを補助情報枠62内に描画する。   Further, the layout output unit 42 draws the auxiliary information frame 62 in association with each arrangement frame 61 so as not to overlap with each arrangement frame 61. Further, the name of the arrangement frame is drawn in the auxiliary information frame 62 based on the name 472. In addition, based on the related information 474, an explanatory note, an explanatory image, and the like are drawn in the auxiliary information frame 62.

また、レイアウト出力部42は、レイアウトシート6の画像の所定位置に照合マーク65を描画する。   Further, the layout output unit 42 draws a matching mark 65 at a predetermined position of the image on the layout sheet 6.

レイアウト出力部42は、以上のようにして生成したレイアウトシート6の画像データを印刷装置5に出力し、印刷させる。そして、図8に示すフローチャートの処理を終了する。   The layout output unit 42 outputs the image data of the layout sheet 6 generated as described above to the printing apparatus 5 and causes it to be printed. And the process of the flowchart shown in FIG. 8 is complete | finished.

なお、レイアウト生成部41は、領域レコードに基づいて配置枠61や補助情報枠62を含むレイアウトシート6の画像データを生成し、表示装置96に表示してもよい。また、レイアウト生成部41は、ユーザーから入力装置95を介して各枠の定義、関連情報の内容などの編集を受け付け、レイアウト情報を更新するようにしてもよい。   The layout generation unit 41 may generate image data of the layout sheet 6 including the arrangement frame 61 and the auxiliary information frame 62 based on the area record and display the image data on the display device 96. In addition, the layout generation unit 41 may receive editing from the user via the input device 95 such as the definition of each frame and the content of related information, and update the layout information.

以上のようにして、作業内容に応じたレイアウト情報が生成され、図2に示すようなレイアウトシート6が印刷される。ユーザーは、印刷されたレイアウトシート6を、作業台Tの上に敷き、レイアウトシート6の記載を参照しながら、容易にかつ正確に対象物のレイアウトを行うことができる。   As described above, layout information corresponding to the work content is generated, and a layout sheet 6 as shown in FIG. 2 is printed. The user can lay out the printed layout sheet 6 on the work table T and easily and accurately lay out the object while referring to the description of the layout sheet 6.

図9は、レイアウトチェック処理の一例を示すフロー図である。図9のフローチャートは、レイアウトシート6が作業台Tの上に敷かれ、実際にレイアウトが行われた状態で、例えば、ユーザーの指示により開始される。このとき、教示出力装置4は、ユーザーから入力装置等を介して、チェック対象のレイアウトシート6(レイアウト情報)を識別する情報を受け付けるようにしてもよい。   FIG. 9 is a flowchart showing an example of the layout check process. The flowchart of FIG. 9 is started in accordance with a user instruction, for example, in a state where the layout sheet 6 is laid on the work table T and the layout is actually performed. At this time, the teaching output device 4 may receive information for identifying the layout sheet 6 (layout information) to be checked from the user via the input device or the like.

まず、レイアウトチェック部44は、レイアウト情報格納部47から、ユーザーから指定されたレイアウトシート6に対応するレイアウト情報を取得する(ステップS210)。   First, the layout check unit 44 acquires layout information corresponding to the layout sheet 6 designated by the user from the layout information storage unit 47 (step S210).

それから、レイアウトチェック部44は、レイアウトモデルを生成する(ステップS220)。例えば、レイアウトチェック部44は、ステップS210で取得したレイアウト情報に基づいて、配置枠や補助情報枠などを含むレイアウトシートの3次元モデルを生成する。なお、レイアウトシートは、高さのない2次元平面として表してよい。また、レイアウトチェック部44は、生成した3次元モデルに、予め記憶装置等に格納された部品や道具などの作業対象物の3次元モデルを合成し、3次元レイアウトモデルの画像データを生成する。レイアウト情報の関連情報474には、配置枠内に置かれる部品や道具に関する情報が含まれているため、部品や道具の3次元CADモデルを対応する配置枠内に合成することができる。なお、3次元モデルを生成する処理には、一般的な画像処理技術を使用できるので、詳細な説明を省略する。   Then, the layout check unit 44 generates a layout model (step S220). For example, the layout check unit 44 generates a three-dimensional model of a layout sheet including an arrangement frame and an auxiliary information frame based on the layout information acquired in step S210. Note that the layout sheet may be represented as a two-dimensional plane having no height. In addition, the layout check unit 44 synthesizes a three-dimensional model of a work target such as a part or tool stored in advance in a storage device or the like with the generated three-dimensional model to generate image data of the three-dimensional layout model. Since the related information 474 of the layout information includes information on the parts and tools placed in the placement frame, the three-dimensional CAD model of the parts and tools can be synthesized in the corresponding placement frame. In addition, since a general image processing technique can be used for the process which produces | generates a three-dimensional model, detailed description is abbreviate | omitted.

それから、画像取得部43は、制御装置3に指示を出し、ロボット2の環境(作業領域を含む)を撮像装置26により撮像させ、ステレオ画像を取得する(ステップS230)。   Then, the image acquisition unit 43 issues an instruction to the control device 3, causes the imaging device 26 to capture the environment (including the work area) of the robot 2, and acquires a stereo image (step S230).

それから、レイアウトチェック部44は、ステップS240で取得されたステレオ画像に基づいて、3次元(深さ方向を有する)画像データを生成する(ステップS240)。ステレオ画像から3次元画像データを生成する処理には、一般的な技術を使用することができるため、説明を省略する。   Then, the layout check unit 44 generates three-dimensional (having a depth direction) image data based on the stereo image acquired in step S240 (step S240). Since a general technique can be used for the process of generating the three-dimensional image data from the stereo image, description thereof is omitted.

それから、レイアウトチェック部44は、ステップS220で生成した3次元レイアウトモデルの画像データ(第一のレイアウト画像データ)を、ステップS240で生成した3次元画像データ(第二のレイアウト画像データ)に対して位置合わせする(ステップS250)。例えば、レイアウトチェック部44は、3次元レイアウトモデルの画像データに含まれるレイアウトシート6の4角の照合マーク65の位置が、3次元画像データから認識される照合マーク65の位置と一致するように、3次元レイアウトモデルの並進、回転、拡大、縮小などを行う。この処理は、3次元画像中のレイアウトシート6の位置及び姿勢を特定していると言える。これにより、レイアウトシート6に記載されている配置枠等の位置及び姿勢も特定される。   Then, the layout check unit 44 applies the image data (first layout image data) of the 3D layout model generated in step S220 to the 3D image data (second layout image data) generated in step S240. Alignment is performed (step S250). For example, the layout check unit 44 makes the positions of the four-dimensional matching marks 65 of the layout sheet 6 included in the image data of the three-dimensional layout model coincide with the positions of the matching marks 65 recognized from the three-dimensional image data. Perform translation, rotation, enlargement, reduction, etc. of the 3D layout model. It can be said that this process specifies the position and orientation of the layout sheet 6 in the three-dimensional image. Thereby, the position and orientation of the arrangement frame and the like described in the layout sheet 6 are also specified.

なお、レイアウトチェック部44は、上記のように位置合わせを行った3次元レイアウトモデルの画像データ及び3次元画像データの少なくとも一方を、表示装置96に表示してもよい。   The layout check unit 44 may display on the display device 96 at least one of the image data and the 3D image data of the 3D layout model that has been aligned as described above.

それから、レイアウトチェック部44は、3次元レイアウトモデルと3次元画像とを照合する(ステップS260)。この処理は、3次元レイアウトモデル中のレイアウトと、3次元画像中のレイアウトとを照合していると言える。   Then, the layout check unit 44 collates the 3D layout model with the 3D image (step S260). It can be said that this process collates the layout in the three-dimensional layout model with the layout in the three-dimensional image.

それから、レイアウトチェック部44は、レイアウトシート6上の各配置枠について、3次元画像から認識される物体が当該配置枠から基準範囲内にあるか否かを判定する(ステップS270)。例えば、配置枠から物体が所定距離以上外に突出している場合には、当該物体が基準範囲内にないと判定する。いずれか一つの配置枠で物体が基準範囲内にない場合、処理をステップS290に進める。   Then, the layout check unit 44 determines, for each arrangement frame on the layout sheet 6, whether or not an object recognized from the three-dimensional image is within the reference range from the arrangement frame (step S270). For example, when an object protrudes beyond a predetermined distance from the arrangement frame, it is determined that the object is not within the reference range. If the object is not within the reference range in any one of the arrangement frames, the process proceeds to step S290.

全ての配置枠において物体の位置が基準範囲内にある場合(ステップS270でY)、レイアウトチェック部44は、道具が正しく配置されているか否かを判定する(ステップS280)。例えば、レイアウトチェック部44は、3次元画像上の道具が置かれるべき配置枠内に、存在チェックマーク63を認識できる否かを判定する。存在チェックマーク63を認識できる場合には、道具が配置されていないと判定する。また、例えば、レイアウトチェック部44は、存在チェックマーク63を認識できる場合に、3次元画像上の道具が置かれるべき配置枠内に、位置決めマーク64を認識できるか否かを判定する。位置決めマーク64が認識できる場合には、道具が正しい位置に配置されていないと判定する。いずれか一つの配置枠内において、道具が配置されていない、又は道具が正しく配置されていない場合、レイアウトチェック部44は、処理をステップS290に進める。   When the position of the object is within the reference range in all the arrangement frames (Y in step S270), the layout check unit 44 determines whether the tool is correctly arranged (step S280). For example, the layout check unit 44 determines whether or not the existence check mark 63 can be recognized in the arrangement frame in which the tool on the three-dimensional image is to be placed. If the existence check mark 63 can be recognized, it is determined that no tool is arranged. For example, when the existence check mark 63 can be recognized, the layout check unit 44 determines whether or not the positioning mark 64 can be recognized within the arrangement frame in which the tool on the three-dimensional image is to be placed. If the positioning mark 64 can be recognized, it is determined that the tool is not placed at the correct position. In any one of the arrangement frames, if the tool is not arranged or the tool is not arranged correctly, the layout check unit 44 advances the process to step S290.

物体が配置枠から基準範囲内にない場合(ステップS270でN)、又は、道具が正しく配置されていない場合(ステップS280でN)、レイアウトチェック部44は、その旨をユーザーへの通知を行い(ステップS290)、図9に示すフローチャートの処理を終了する。例えば、レイアウトチェック部44は、物体が配置枠から基準範囲内にないこと、又は、道具が正しく配置されていないことを、表示装置等に表示させる。物体が基準範囲内にない配置枠を示す情報を表示してもよい。また、道具が配置されていない配置枠を示す情報を表示してもよい。また、道具が正しく配置されていない配置枠を示す情報を表示してもよい。また、3次元レイアウトモデル、あるいは、3次元画像とともに、問題となっている配置枠を示す情報を表示するようにしてもよい。   If the object is not within the reference range from the placement frame (N in step S270) or the tool is not placed correctly (N in step S280), the layout check unit 44 notifies the user to that effect. (Step S290), the process of the flowchart shown in FIG. For example, the layout check unit 44 displays on the display device or the like that the object is not within the reference range from the arrangement frame or that the tool is not arranged correctly. Information indicating an arrangement frame in which the object is not within the reference range may be displayed. Information indicating an arrangement frame in which no tool is arranged may be displayed. Information indicating an arrangement frame in which tools are not correctly arranged may be displayed. In addition, information indicating the problematic arrangement frame may be displayed together with the three-dimensional layout model or the three-dimensional image.

道具が正しく配置されている場合(ステップS280でY)、レイアウトチェック部44は、障害物を特定し(S300)、図9に示すフローチャートの処理を終了する。例えば、レイアウトチェック部44は、3次元画像上の各配置枠の範囲外に、物体が認識できるか否かを判定する。物体が認識できる場合、その物体を障害物と判定し、記録する。なお、レイアウトチェック部44は、例えば、障害物の情報を制御装置3に送る。制御装置3は、例えば、シナリオに従って位置制御を行う際に、エンドポイントの移動する経路を、障害物を回避するような経路に修正する。   If the tools are correctly arranged (Y in step S280), the layout check unit 44 identifies an obstacle (S300), and ends the process of the flowchart shown in FIG. For example, the layout check unit 44 determines whether or not an object can be recognized outside the range of each arrangement frame on the three-dimensional image. If the object can be recognized, the object is determined as an obstacle and recorded. For example, the layout check unit 44 sends information on the obstacle to the control device 3. For example, when the position control is performed according to the scenario, the control device 3 corrects the path along which the endpoint moves to a path that avoids the obstacle.

以上のようにして、現実のレイアウトが正しいか否かのチェックが行われる。また、現実のレイアウトのチェック結果が表示されるため、ユーザーは、レイアウトが正しく行われたか否かを容易に把握するとともに、レイアウトを修正することができる。レイアウトの修正後、ユーザーは、図9に示すレイアウトチェック処理を教示出力装置4に再度実行させることもできる。   As described above, it is checked whether the actual layout is correct. In addition, since the actual layout check result is displayed, the user can easily grasp whether or not the layout has been correctly performed and can correct the layout. After correcting the layout, the user can cause the teaching output device 4 to execute the layout check process shown in FIG. 9 again.

上述したフローチャートの各処理単位は、教示出力装置4の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理単位の分割の仕方や名称によって、本願発明が制限されることはない。教示出力装置4の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。   Each processing unit in the flowchart described above is divided according to the main processing contents in order to facilitate understanding of the processing of the teaching output device 4. The present invention is not limited by the way of dividing the processing unit or the name. The processing of the teaching output device 4 can be divided into more processing units according to the processing contents. Moreover, it can also divide | segment so that one process unit may contain many processes.

以上、本発明の実施形態について説明した。本実施形態によれば、ロボットが作業を行う現場(例えばセルラインなど)の現実のレイアウトを、容易に構築することができる。   The embodiment of the present invention has been described above. According to the present embodiment, an actual layout of a site (for example, a cell line) where the robot performs work can be easily constructed.

なお、上記の実施形態では、レイアウトシート6は印刷されるが、レイアウトシート6の出力態様はこれに限られない。例えば、レイアウト出力部42は、レイアウトシート6の画像データをプロジェクターに出力し、実寸のレイアウトシート6が作業台T上に(作業台Tがスクリーンとなる。)投影されるようにしてもよい。また、例えば、表示領域が作業台Tの上面と重なるように表示装置を作業台Tに組み込み、実寸のレイアウトシート6が表示されるようにしてもよい。上記のように出力態様を変えても、ユーザーは容易にかつ正確に対象物のレイアウトを行うことができる。   In the above embodiment, the layout sheet 6 is printed, but the output mode of the layout sheet 6 is not limited to this. For example, the layout output unit 42 may output the image data of the layout sheet 6 to the projector so that the actual layout sheet 6 is projected onto the work table T (the work table T serves as a screen). Further, for example, a display device may be incorporated in the work table T so that the display area overlaps the upper surface of the work table T, and the actual layout sheet 6 may be displayed. Even if the output mode is changed as described above, the user can easily and accurately lay out the object.

また、上記の実施形態では、教示出力装置4が画像取得部43およびレイアウトチェック部44を有する構成としたが、画像取得部43およびレイアウトチェック部44は有しない構成としてもよい。すなわち、教示出力装置4は、レイアウト出力部42によってレイアウトを出力させる機能を有し、出力されたレイアウトのチェックはユーザーが目視によって行うこととしてもよい。   In the above embodiment, the teaching output device 4 has the image acquisition unit 43 and the layout check unit 44. However, the image acquisition unit 43 and the layout check unit 44 may be omitted. That is, the teaching output device 4 may have a function of outputting a layout by the layout output unit 42, and the output layout may be checked visually by the user.

以上、本発明について実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に多様な変更または改良を加えることが可能であることが当業者には明らかである。また、そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。本発明の提供の態様にも、様々な態様が取り得る。本発明は、例えば、ロボットと、制御装置と、教示出力装置とを別個に有するロボットシステムとして提供してもよいし、ロボット又は制御装置に教示出力装置の機能が含まれる、ロボット又は制御装置として提供してもよい。また、本発明は、教示を出力する方法、教示を出力する装置のプログラム、当該プログラムを記憶した記憶媒体、レイアウトシートとして提供することもできる。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be made to the above embodiment. In addition, it is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention. Various aspects of the provided aspects of the invention can also be employed. The present invention may be provided, for example, as a robot system having a robot, a control device, and a teaching output device separately, or as a robot or control device in which the function of the teaching output device is included in the robot or the control device. May be provided. The present invention can also be provided as a method for outputting a teaching, a program for a device for outputting a teaching, a storage medium storing the program, and a layout sheet.

1:ロボットシステム
2:ロボット
3:制御装置
4:教示出力装置
5:印刷装置
6:レイアウトシート
20:胴部
21:アーム
21a:ジョイント
21b:アーム部材
21c:力覚センサー
22:ハンド
24:脚部
25:頭部
26:撮像装置
40:作業プログラム生成部
41:レイアウト生成部
42:レイアウト出力部
43:画像取得部
44:レイアウトチェック部
45:作業プログラム格納部
46:オブジェクト情報格納部
47:レイアウト情報格納部
61(61a、61b、61c、61d):配置枠
62(62a、62b、62c、62d):補助情報枠
63:存在チェックマーク
64:位置決めマーク
65:照合マーク
90:コンピューター
91:演算装置
92:主記憶装置
93:補助記憶装置
94:通信I/F
95:入力装置
96:表示装置
97:読み書き装置
451:工程番号
452:作業内容
453:動作命令
461:オブジェクト名
462:属性
471:領域ID
472:名称
473:定義
474:関連情報
1: Robot system 2: Robot 3: Control device 4: Teaching output device 5: Printing device 6: Layout sheet 20: Body 21: Arm 21a: Joint 21b: Arm member 21c: Force sensor 22: Hand 24: Leg 25: head 26: imaging device 40: work program generation unit 41: layout generation unit 42: layout output unit 43: image acquisition unit 44: layout check unit 45: work program storage unit 46: object information storage unit 47: layout information Storage unit 61 (61a, 61b, 61c, 61d): Arrangement frame 62 (62a, 62b, 62c, 62d): Auxiliary information frame 63: Presence check mark 64: Positioning mark 65: Collation mark 90: Computer 91: Computing device 92 : Main storage device 93: Auxiliary storage device 94: Communication I / F
95: Input device 96: Display device 97: Read / write device 451: Process number 452: Work content 453: Operation command 461: Object name 462: Attribute 471: Area ID
472: Name 473: Definition 474: Related information

Claims (14)

ロボットに対して教示する作業内容を取得する作業内容取得部と、
前記取得された作業内容に応じて、前記ロボットの作業領域のレイアウトを示すレイアウト情報を生成するレイアウト生成部と、
前記生成されたレイアウト情報に基づいて、実寸のレイアウトを出力させるレイアウト出力部と、
を有することを特徴とする教示出力装置。
A work content acquisition unit for acquiring the work content taught to the robot;
A layout generation unit that generates layout information indicating a layout of a work area of the robot according to the acquired work content;
A layout output unit for outputting an actual layout based on the generated layout information;
A teaching output device comprising:
請求項1に記載の教示出力装置であって、
前記作業内容取得部は、前記作業内容に含まれる作業対象物が配置される場所を取得し、
前記レイアウト生成部は、前記場所を含むレイアウト情報を生成し、
前記レイアウト出力部は、前記場所を示す実寸のレイアウトを出力させる、
ことを特徴とする教示出力装置。
The teaching output device according to claim 1,
The work content acquisition unit acquires a place where a work object included in the work content is arranged,
The layout generation unit generates layout information including the location,
The layout output unit outputs an actual layout indicating the location,
A teaching output device.
請求項2に記載の教示出力装置であって、
前記作業内容取得部は、前記作業対象物又は前記場所に関する補助情報を取得し、
前記レイアウト生成部は、前記作業対象物又は前記場所に関する補助情報を含むレイアウト情報を生成し、
前記レイアウト出力部は、前記場所に関連付けて、前記作業対象物又は前記場所に関する補助情報を示すレイアウトを出力させる、
ことを特徴とする教示出力装置。
The teaching output device according to claim 2,
The work content acquisition unit acquires auxiliary information related to the work object or the place,
The layout generation unit generates layout information including auxiliary information related to the work object or the place,
The layout output unit outputs a layout indicating auxiliary information related to the work object or the location in association with the location;
A teaching output device.
請求項2又は3に記載の教示出力装置であって、
前記レイアウト生成部は、前記作業対象物の色に応じて前記場所の色を決定し、
前記レイアウト出力部は、前記場所に、前記場所の色を描画したレイアウトを出力させる、
ことを特徴とする教示出力装置。
The teaching output device according to claim 2 or 3,
The layout generation unit determines the color of the place according to the color of the work object,
The layout output unit causes the place to output a layout in which the color of the place is drawn;
A teaching output device.
請求項2又は3に記載の教示出力装置であって、
前記レイアウト出力部は、前記場所に、当該場所に配置される前記作業対象物の存在又は位置をチェックすることに使用する所定のマークを描画したレイアウトを出力させる、
ことを特徴とする教示出力装置。
The teaching output device according to claim 2 or 3,
The layout output unit causes the place to output a layout in which a predetermined mark used for checking the presence or position of the work object placed at the place is drawn.
A teaching output device.
請求項1〜5いずれか一項に記載の教示出力装置であって、
前記作業領域を含む撮像画像を取得する画像取得部と、
前記生成されたレイアウト情報に基づいて生成した第一のレイアウト画像データと、前記取得された撮像画像に基づいて生成した第二のレイアウト画像データとを照合することにより、レイアウトのチェックを行うレイアウトチェック部と、
を有することを特徴とする教示出力装置。
The teaching output device according to any one of claims 1 to 5,
An image acquisition unit for acquiring a captured image including the work area;
Layout check for checking layout by collating first layout image data generated based on the generated layout information and second layout image data generated based on the acquired captured image And
A teaching output device comprising:
請求項1〜6いずれか一項に記載の教示出力装置であって、
前記レイアウト出力部は、前記作業領域上に敷くレイアウトシートをプリンターに印刷させる、
ことを特徴とする教示出力装置。
The teaching output device according to any one of claims 1 to 6,
The layout output unit causes a printer to print a layout sheet laid on the work area;
A teaching output device.
請求項1〜6いずれか一項に記載の教示出力装置であって、
前記レイアウト出力部は、プロジェクターに前記作業領域上にレイアウトを投影させる、
ことを特徴とする教示出力装置。
The teaching output device according to any one of claims 1 to 6,
The layout output unit causes a projector to project a layout onto the work area;
A teaching output device.
請求項1〜6いずれか一項に記載の教示出力装置であって、
前記レイアウト出力部は、前記作業領域がある作業台に組み込まれたディスプレイにレイアウトを表示させる、
ことを特徴とする教示出力装置。
The teaching output device according to any one of claims 1 to 6,
The layout output unit displays the layout on a display built in a work table with the work area;
A teaching output device.
ロボットであって、
前記ロボットに対して教示される作業内容を取得する作業内容取得部と、
前記取得された作業内容に応じて、前記ロボットの作業領域のレイアウトを示すレイアウト情報を生成するレイアウト生成部と、
前記生成されたレイアウト情報に基づいて、実寸のレイアウトを出力させるレイアウト出力部と、
を有することを特徴とするロボット。
A robot,
A work content acquisition unit for acquiring the work content taught to the robot;
A layout generation unit that generates layout information indicating a layout of a work area of the robot according to the acquired work content;
A layout output unit for outputting an actual layout based on the generated layout information;
A robot characterized by comprising:
ロボットと、
前記ロボットに対して教示する作業内容を取得する作業内容取得部と、
前記取得された作業内容に応じて、前記ロボットの作業領域のレイアウトを示すレイアウト情報を生成するレイアウト生成部と、
前記生成されたレイアウト情報に基づいて、実寸のレイアウトを出力させるレイアウト出力部と、
前記ロボットに対して前記作業内容を出力する作業内容出力部と、
を有することを特徴とするロボットシステム。
With robots,
A work content obtaining unit for obtaining work content taught to the robot;
A layout generation unit that generates layout information indicating a layout of a work area of the robot according to the acquired work content;
A layout output unit for outputting an actual layout based on the generated layout information;
A work content output unit for outputting the work content to the robot;
A robot system characterized by comprising:
ロボットに対して教示する作業内容を取得する作業内容取得ステップと、
前記取得された作業内容に応じて、前記ロボットの作業領域のレイアウトを示すレイアウト情報を生成するレイアウト生成ステップと、
前記生成されたレイアウト情報に基づいて、実寸のレイアウトを出力させるレイアウト出力ステップと、
を含むことを特徴とする教示出力方法。
A work content acquisition step for acquiring the work content taught to the robot;
A layout generation step for generating layout information indicating a layout of a work area of the robot according to the acquired work content;
A layout output step for outputting an actual layout based on the generated layout information;
A teaching output method comprising:
ロボットに対して教示する作業内容を取得する作業内容取得部と、
前記取得された作業内容に応じて、前記ロボットの作業領域のレイアウトを示すレイアウト情報を生成するレイアウト生成部と、
前記生成されたレイアウト情報に基づいて、実寸のレイアウトを出力させるレイアウト出力部として、
コンピューターを機能させることを特徴とするプログラム。
A work content acquisition unit for acquiring the work content taught to the robot;
A layout generation unit that generates layout information indicating a layout of a work area of the robot according to the acquired work content;
Based on the generated layout information, as a layout output unit for outputting an actual layout,
A program characterized by operating a computer.
ロボットが行う作業内容に含まれる作業対象物が配置される場所と、
前記場所に関連付けられた、前記作業対象物又は前記場所に関する補助情報と、
を示したことを特徴とするレイアウトシート。
A place where work objects included in the work performed by the robot are placed;
Auxiliary information related to the work object or the location, associated with the location;
A layout sheet characterized by showing.
JP2013220870A 2013-10-24 2013-10-24 Instruction output device, robot, robot system, instruction output method, program, and layout sheet Pending JP2015080842A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013220870A JP2015080842A (en) 2013-10-24 2013-10-24 Instruction output device, robot, robot system, instruction output method, program, and layout sheet

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013220870A JP2015080842A (en) 2013-10-24 2013-10-24 Instruction output device, robot, robot system, instruction output method, program, and layout sheet

Publications (1)

Publication Number Publication Date
JP2015080842A true JP2015080842A (en) 2015-04-27

Family

ID=53011731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013220870A Pending JP2015080842A (en) 2013-10-24 2013-10-24 Instruction output device, robot, robot system, instruction output method, program, and layout sheet

Country Status (1)

Country Link
JP (1) JP2015080842A (en)

Similar Documents

Publication Publication Date Title
JP6450960B2 (en) Robot, robot system and teaching method
CN107428009B (en) Method for commissioning an industrial robot, industrial robot system and control system using the method
JP6361213B2 (en) Robot control apparatus, robot, robot system, teaching method, and program
JP6733239B2 (en) Controller and robot system
JP6343353B2 (en) Robot motion program generation method and robot motion program generation device
WO2020090809A1 (en) External input device, robot system, control method for robot system, control program, and recording medium
US20190202058A1 (en) Method of programming an industrial robot
JP6538751B2 (en) Programming device and robot control method
JP2020055075A (en) Robot control device using augmented reality and composite reality and display device
JPWO2017064851A1 (en) Robot teaching method and robot arm control device
CN109834709B (en) Robot control device for setting micro-motion coordinate system
JP2004351570A (en) Robot system
JP2016187846A (en) Robot, robot controller and robot system
JP2015071206A (en) Control device, robot, teaching data generation method, and program
JP6469159B2 (en) Offline programming apparatus and method with work position detection program generation function by contact sensor
JP2015112654A (en) Control apparatus, robot, teaching data generation method, and robot system
WO2021246416A1 (en) Programming device
TW201606467A (en) Teaching data-generating device and teaching data-generating method for work robot
JP2015054378A (en) Information processing device, robot, scenario information creation method and program
TW202122225A (en) System and method for robotic bin picking using advanced scanning techniques
JP2015186834A (en) Robot control apparatus, holding unit control device, robot, holding unit, robot control method and program
JP6390088B2 (en) Robot control system, robot, program, and robot control method
CN115338855A (en) Double-arm robot assembling system
WO2019180916A1 (en) Robot control device
JP7190552B1 (en) Robot teaching system

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160617

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160624