JP4613752B2 - Robot and robot information display method - Google Patents

Robot and robot information display method Download PDF

Info

Publication number
JP4613752B2
JP4613752B2 JP2005249828A JP2005249828A JP4613752B2 JP 4613752 B2 JP4613752 B2 JP 4613752B2 JP 2005249828 A JP2005249828 A JP 2005249828A JP 2005249828 A JP2005249828 A JP 2005249828A JP 4613752 B2 JP4613752 B2 JP 4613752B2
Authority
JP
Japan
Prior art keywords
robot arm
position information
robot
workpiece
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005249828A
Other languages
Japanese (ja)
Other versions
JP2007061940A (en
Inventor
裕一 太田
守彦 大倉
一樹 横内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2005249828A priority Critical patent/JP4613752B2/en
Publication of JP2007061940A publication Critical patent/JP2007061940A/en
Application granted granted Critical
Publication of JP4613752B2 publication Critical patent/JP4613752B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、産業ロボット等のロボット、およびロボットの動作に係る情報の表示方法に関する。   The present invention relates to a robot such as an industrial robot and a method for displaying information relating to the operation of the robot.

従来、複数の関節を有するロボットアームの先端部にエンドエフェクタが設けられたロボットは公知となっている。このようなロボットは、いわゆる産業用ロボットとして広く生産現場等で用いられている。
上記ロボットの多くは、作業者がロボットに所定の作業に係る動作を教示し、ロボットが当該作業に係る動作を再生する、いわゆる教示再生型のロボットであるが、近年は作業の対象であるワークの姿勢や形状等を視覚認識して動作の補正を行うロボット(視覚認識機能を有するロボット)も用いられている。例えば、特許文献1に記載の如くである。
Conventionally, a robot in which an end effector is provided at the tip of a robot arm having a plurality of joints is known. Such robots are widely used in production sites as so-called industrial robots.
Many of the above robots are so-called teaching reproduction type robots in which an operator teaches a robot an operation related to a predetermined operation and the robot reproduces an operation related to the operation. A robot (a robot having a visual recognition function) that visually recognizes the posture, shape, etc., and corrects the motion is also used. For example, as described in Patent Document 1.

特許文献1に記載のロボットは、視覚認識機能を有しないロボットと比較すると、(1)ロボットがワークの位置および姿勢を認識し、適宜その動作を補正して作業を行うため、作業者が作業の都度ワークを所定の位置に所定の姿勢で精度良くセットする必要が無く、作業工数および労力の軽減が可能であること、(2)ワークが所定の形状を成していない(ワークが変形あるいは破損している、あるいは異なる種類のワークがセットされている)等の異常を視覚認識機能により検知することが可能であり、種々のトラブルを防止することが可能である、といった点で優れている。
特開2004−351570号公報
Compared with a robot that does not have a visual recognition function, the robot described in Patent Document 1 is (1) because the robot recognizes the position and orientation of the workpiece, and appropriately corrects its operation to perform the work. It is not necessary to accurately set the workpiece at a predetermined position and in a predetermined posture each time, and the work man-hours and labor can be reduced. (2) The workpiece does not have a predetermined shape (the workpiece is deformed or It is possible to detect abnormalities such as broken or different types of workpieces) with the visual recognition function, and it is excellent in that various troubles can be prevented. .
JP 2004-351570 A

しかし、特許文献1に記載のロボットには、以下の問題があった。   However, the robot described in Patent Document 1 has the following problems.

一般に、制御装置に格納されているロボットの動作、より厳密にはロボットアームの動作に係るプログラムは、所定の言語(以下、「プログラム言語」という)により作成されるため、複雑かつ長大なものとなる。そして、視覚認識機能を有するロボットの場合には、視覚認識に係る内容を組み合わせたものとなるため、ロボットアームの動作に係るプログラムは更に複雑なものとなる。
従来のロボットの場合、作業者は制御装置に有線または無線で接続されたティーチペンダントと呼ばれる端末に設けられた表示装置(液晶パネル等)に上記プログラム(プログラム言語で表現されたもの)を表示し、当該プログラムに直接的に修正を加えることによりロボットの教示を行うが、ティーチペンダントは一般にロボットアームの近傍に位置する作業者が手で持って使用するものであるため、その大きさや重量は作業者の労力軽減の観点から制限され、当該表示装置の表示画面の面積も限られたものとなる。
よって、通常は上記プログラムの全てを表示画面に同時に表示することができず、表示装置の表示画面にプログラムの一部を表示し、他の部分を表示したい場合には表示画面を上下または左右にスクロールする構成となっている。
In general, a program related to the operation of the robot stored in the control device, more precisely, the operation of the robot arm is created in a predetermined language (hereinafter referred to as “program language”), and therefore is complicated and long. Become. In the case of a robot having a visual recognition function, since the contents related to visual recognition are combined, the program related to the operation of the robot arm is further complicated.
In the case of a conventional robot, an operator displays the program (expressed in a program language) on a display device (liquid crystal panel, etc.) provided on a terminal called a teach pendant connected to the control device by wire or wirelessly. The robot is taught by modifying the program directly, but the teach pendant is generally used by an operator located in the vicinity of the robot arm. The area of the display screen of the display device is also limited.
Therefore, in general, not all of the above programs can be displayed on the display screen at the same time. If you want to display a part of the program on the display screen of the display device and display other parts, the display screen can be moved up and down or left and right. It is configured to scroll.

従って、作業者は表示装置に表示されたプログラムのどの部分がロボットの動作に対応し、どの部分が視覚認識に対応しているのかを把握することが困難であり、教示作業に係る工数の増加、教示作業の煩雑化の要因となっていた。
また、上記プログラムのうち、ロボットアームの動作に係る部分と視覚認識に係る部分とが上記プログラムの複数の箇所に離れて存在している場合には、表示装置の画面上に両者を同時に表示することができないために作業者が両者の関係を把握することが困難であり、教示作業がますます煩雑なものとなっていた。
さらに、従来のロボットの場合には表示装置に表示されたプログラムに直接的に新たなプログラムをプログラム言語で書き込むことによりロボットアームの動作に係るプログラムを修正するため、上記プログラムを一度修正してロボットを動作させたものの、種々の理由(例えば、周囲の構造体とロボットアームとが干渉する等)により当該プログラムを元の状態に復元したい場合に、先に修正した箇所が当該プログラムのどの部分であったかを把握することが困難であり、これも教示作業に係る工数の増加、教示作業の煩雑化の要因となっていた。
さらにまた、ロボットアームの動作に係るプログラムは所定の言語からなる複雑かつ長大なものであるため、ロボットの動作が複数のステップを有し、当該複数のステップの途中で何らかのトラブルによりロボットの動作が停止した場合に、作業者がどのステップでロボットの動作が停止したのかを把握することが困難であり、教示作業に係る工数の増加、教示作業の煩雑化の要因となっていた。
Therefore, it is difficult for the operator to grasp which part of the program displayed on the display device corresponds to the robot operation and which part corresponds to the visual recognition, and the man-hour related to the teaching work increases. This was a factor in complicating teaching work.
Further, in the above program, when the part related to the operation of the robot arm and the part related to visual recognition are present apart from each other in a plurality of locations of the program, both of them are simultaneously displayed on the screen of the display device. This makes it difficult for the operator to grasp the relationship between the two, and the teaching work has become increasingly complicated.
Further, in the case of a conventional robot, a program related to the operation of the robot arm is corrected by directly writing a new program in the program language on the program displayed on the display device. However, if you want to restore the program to its original state for various reasons (for example, interference between surrounding structures and the robot arm) It was difficult to grasp whether there was any, and this also increased the number of man-hours related to the teaching work and made the teaching work complicated.
Furthermore, since the program related to the operation of the robot arm is a complicated and long program composed of a predetermined language, the operation of the robot has a plurality of steps, and the operation of the robot is caused by some trouble in the middle of the plurality of steps. When the operation is stopped, it is difficult for the worker to grasp at which step the robot operation has been stopped, which causes an increase in man-hours related to teaching work and complicating teaching work.

本発明は以上の如き状況に鑑み、ロボットの動作状況(より厳密には、ロボットアームおよび視覚認識装置の動作状況)の把握が容易で、かつ教示作業時の作業性に優れたロボットおよびロボットの情報表示方法を提供するものである。   In view of the situation as described above, the present invention makes it easy to grasp the operation state of the robot (more precisely, the operation state of the robot arm and the visual recognition device) and has excellent workability during teaching work. An information display method is provided.

本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段を説明する。   The problem to be solved by the present invention is as described above. Next, means for solving the problem will be described.

即ち、請求項1においては、
複数の関節を有し、先端部にエンドエフェクタが設けられたロボットアームと、
ワークを撮像する撮像手段および該撮像手段により撮像されたワークの画像に基づいてワークの位置情報を算出するワーク位置情報算出手段を具備する視覚認識装置と、
予め設定されたロボットアームの動作に係るプログラムおよび視覚認識装置から取得したワークの位置情報に基づいてロボットアームの動作を制御する制御装置と、
ロボットアームの位置情報を上下に改行して時系列的に表示し、かつ、視覚認識装置がワークの位置情報を取得するためのパラメータを前記ロボットアームの位置情報に付帯して表示する表示装置と、
を具備し、
前記制御装置は、
予め設定されたロボットアームの動作に係るプログラムに従い、前記制御装置の所定の格納領域に格納された教示時のロボットアームの位置情報、再生時のロボットアームの位置情報、教示時のワークの位置情報、再生時のワークの位置情報および再生時の補正処理を適用するロボットアームの位置情報に基づいて再生時のロボットアームの動作の補正量を算出し、算出された再生時のロボットアームの動作の補正量に基づいて再生時のロボットアームの動作量を補正し、補正された動作量だけ前記ロボットアームを動作させ、
前記制御装置は、
前記表示装置に上下に改行して表示された前記ロボットアームの位置情報の行間となる位置に補正処理開始マーカーを表示するとともに前記ロボットアームの位置情報の行間であって前記補正処理開始マーカーよりも下方となる位置に補正処理終了マーカーを表示することにより、前記ロボットアームの位置情報のうち前記補正処理開始マーカーおよび前記補正処理終了マーカーにより挟まれた部分をロボットアームの位置情報の所定の範囲として指定し、当該所定の範囲として指定されたロボットアームの位置情報に対応するロボットアームの動作の再生時に補正処理を適用するものである。
That is, in claim 1,
A robot arm having a plurality of joints and provided with an end effector at the tip;
A visual recognition device comprising: an imaging means for imaging a workpiece; and a workpiece position information calculating means for calculating workpiece position information based on an image of the workpiece imaged by the imaging means;
A control device for controlling the operation of the robot arm based on a preset program related to the operation of the robot arm and the position information of the workpiece acquired from the visual recognition device;
A display device for displaying the position information of the robot arm in a time-series manner with line breaks up and down , and a parameter for the visual recognition device to acquire the position information of the work attached to the position information of the robot arm; ,
Equipped with,
The control device includes:
The robot arm position information at the time of teaching, the position information of the robot arm at the time of reproduction, and the position information of the workpiece at the time of teaching stored in a predetermined storage area of the control device in accordance with a program related to the operation of the robot arm set in advance. Based on the position information of the workpiece at the time of reproduction and the position information of the robot arm to which the correction process at the time of reproduction is applied, the correction amount of the movement of the robot arm at the time of reproduction is calculated, and the calculated movement amount of the robot arm at the time of reproduction is calculated. Based on the correction amount, correct the movement amount of the robot arm during playback, operate the robot arm by the corrected movement amount,
The control device includes:
A correction processing start marker is displayed at a position between the lines of the position information of the robot arm displayed on the display device with line breaks up and down, and between the lines of the position information of the robot arm and more than the correction processing start marker. By displaying a correction process end marker at a lower position, a portion sandwiched between the correction process start marker and the correction process end marker in the position information of the robot arm is set as a predetermined range of the position information of the robot arm. The correction process is applied at the time of reproducing the robot arm motion corresponding to the position information of the robot arm specified and specified as the predetermined range .

請求項2においては、
前記表示装置が表示するロボットアームの位置情報は、
ロボットアームの動作区分、ロボットアームの動作精度、ロボットアームの動作速度、ロボットアームの動作時の出力信号およびロボットアームの動作時の入力信号、に係る情報のうちの少なくとも一つを含むものである。
In claim 2 ,
The position information of the robot arm displayed by the display device is
It includes at least one of information related to the robot arm motion classification, the robot arm motion accuracy, the robot arm motion speed, the output signal during the robot arm motion, and the input signal during the robot arm motion.

請求項3においては、
前記表示装置が表示する前記視覚認識装置がワークの位置情報を取得するためのパラメータは、
視覚認識方法の区分、撮像手段の区分、ワーク番号、ワークにおける撮像部位、に係る情報のうちの少なくとも一つを含むものである。
In claim 3 ,
Parameters for the visual recognition device to display the position information of the workpiece displayed by the display device,
It includes at least one of information relating to the classification of the visual recognition method, the classification of the imaging means, the work number, and the imaging part of the work.

請求項4においては、
前記表示装置は、
再生時のロボットアームの動作に対応するロボットアームの位置情報を、反転して表示する、点滅して表示する、色を変えて表示する、または、所定のマークを付して表示するものである。
In claim 4 ,
The display device
The position information of the robot arm corresponding to the movement of the robot arm at the time of reproduction is displayed inverted, blinking, displayed in a different color, or displayed with a predetermined mark. .

請求項5においては、
複数の関節を有し、先端部にエンドエフェクタが設けられたロボットアームと、
ワークを撮像する撮像手段および該撮像手段により撮像されたワークの画像に基づいてワークの位置情報を算出するワーク位置情報算出手段を具備する視覚認識装置と、
予め設定されたロボットアームの動作に係るプログラムおよび視覚認識装置から取得したワークの位置情報に基づいてロボットアームの動作を制御する制御装置と、
ロボットアームの動作に係る情報を表示する表示装置と、
を具備するロボットの情報表示方法であって、
前記表示装置は、
ロボットアームの位置情報を上下に改行して時系列的に表示し、かつ、視覚認識装置がワークの位置情報を取得するためのパラメータを前記ロボットアームの位置情報に付帯して表示し、
前記制御装置は、
予め設定されたロボットアームの動作に係るプログラムに従い、前記制御装置の所定の格納領域に格納された教示時のロボットアームの位置情報、再生時のロボットアームの位置情報、教示時のワークの位置情報、再生時のワークの位置情報および再生時の補正処理を適用するロボットアームの位置情報に基づいて再生時のロボットアームの動作の補正量を算出し、算出された再生時のロボットアームの動作の補正量に基づいて再生時のロボットアームの動作量を補正し、補正された動作量だけ前記ロボットアームを動作させ、
前記制御装置は、
前記表示装置に上下に改行して表示された前記ロボットアームの位置情報の行間となる位置に補正処理開始マーカーを表示するとともに前記ロボットアームの位置情報の行間であって前記補正処理開始マーカーよりも下方となる位置に補正処理終了マーカーを表示することにより、前記ロボットアームの位置情報のうち前記補正処理開始マーカーおよび前記補正処理終了マーカーにより挟まれた部分をロボットアームの位置情報の所定の範囲として指定し、当該所定の範囲として指定されたロボットアームの位置情報に対応するロボットアームの動作の再生時に補正処理を適用するものである。
In claim 5 ,
A robot arm having a plurality of joints and provided with an end effector at the tip;
A visual recognition device comprising: an imaging means for imaging a workpiece; and a workpiece position information calculating means for calculating workpiece position information based on an image of the workpiece imaged by the imaging means;
A control device for controlling the operation of the robot arm based on a preset program related to the operation of the robot arm and the position information of the workpiece acquired from the visual recognition device;
A display device for displaying information related to the operation of the robot arm;
An information display method for a robot comprising:
The display device,
The position information of the robot arm is displayed in chronological order with line breaks up and down , and the parameters for the visual recognition device to acquire the position information of the work are displayed along with the position information of the robot arm ,
The control device includes:
The robot arm position information at the time of teaching, the position information of the robot arm at the time of reproduction, and the position information of the workpiece at the time of teaching stored in a predetermined storage area of the control device in accordance with a program related to the operation of the robot arm set in advance. Based on the position information of the workpiece at the time of reproduction and the position information of the robot arm to which the correction process at the time of reproduction is applied, the correction amount of the movement of the robot arm at the time of reproduction is calculated, and the calculated movement amount of the robot arm at the time of reproduction is calculated. Based on the correction amount, correct the movement amount of the robot arm during playback, operate the robot arm by the corrected movement amount,
The control device includes:
A correction processing start marker is displayed at a position between the lines of the position information of the robot arm displayed on the display device with line breaks up and down, and between the lines of the position information of the robot arm and more than the correction processing start marker. By displaying a correction process end marker at a lower position, a portion sandwiched between the correction process start marker and the correction process end marker in the position information of the robot arm is set as a predetermined range of the position information of the robot arm. The correction process is applied at the time of reproducing the robot arm motion corresponding to the position information of the robot arm specified and specified as the predetermined range .

請求項6においては、
前記表示装置が表示するロボットアームの位置情報は、
ロボットアームの動作区分、ロボットアームの動作精度、ロボットアームの動作速度、ロボットアームの動作時の出力信号およびロボットアームの動作時の入力信号、に係る情報のうちの少なくとも一つを含むものである。
In claim 6 ,
The position information of the robot arm displayed by the display device is
It includes at least one of information related to the robot arm motion classification, the robot arm motion accuracy, the robot arm motion speed, the output signal during the robot arm motion, and the input signal during the robot arm motion.

請求項7においては、
前記表示装置が表示する前記視覚認識装置がワークの位置情報を取得するためのパラメータは、
視覚認識方法の区分、撮像手段の区分、ワーク番号、ワークにおける撮像部位、に係る情報のうちの少なくとも一つを含むものである。
In claim 7 ,
Parameters for the visual recognition device to display the position information of the workpiece displayed by the display device,
It includes at least one of information relating to the classification of the visual recognition method, the classification of the imaging means, the work number, and the imaging part of the work.

請求項8においては、
前記表示装置は、
再生時のロボットアームの動作に対応するロボットアームの位置情報を、反転して表示する、点滅して表示する、色を変えて表示する、または、所定のマークを付して表示するものである。
In claim 8 ,
The display device
The position information of the robot arm corresponding to the movement of the robot arm at the time of reproduction is displayed inverted, blinking, displayed in a different color, or displayed with a predetermined mark. .

本発明の効果として、以下に示すような効果を奏する。   As effects of the present invention, the following effects can be obtained.

請求項1においては、ロボットの動作状況の把握が容易であり、教示作業時の作業性に優れる。
より詳細には、ロボットアームの教示作業時に、所定のプログラム言語により作成されているロボットアームの動作に係るプログラムを直接的に修正せずとも、表示装置に表示されたロボットアームの位置情報の一部を画面上で指定するだけで、ロボットアームの一連の動作のうち、前記指定された一部に対応する動作に補正処理を適用することを容易に指定することが可能である。
また、容易に再生時のロボットアームの補正量を算出することが可能である。
また、所定の格納領域にロボットアームの補正量を算出するための情報を格納しておくことにより、ロボットアームの動作に係るプログラムの再度の修正や復元にも柔軟に対応することが可能である。
また、作業者は、ロボットアームの一連の動作のうち、どの動作が補正処理の適用範囲となるかを容易に把握することが可能である。
According to the first aspect, it is easy to grasp the operation state of the robot, and the workability at the time of teaching work is excellent.
More specifically, the robot arm position information displayed on the display device is not directly corrected during the robot arm teaching operation without directly modifying the program related to the operation of the robot arm created in a predetermined program language. By simply designating the part on the screen, it is possible to easily designate that the correction process is applied to the action corresponding to the designated part of the series of actions of the robot arm.
Also, it is possible to easily calculate the correction amount of the robot arm during reproduction.
In addition, by storing information for calculating the correction amount of the robot arm in a predetermined storage area, it is possible to flexibly cope with re-correction and restoration of the program related to the operation of the robot arm. .
In addition, the operator can easily grasp which operation is within the application range of the correction process among the series of operations of the robot arm.

請求項2においては、ロボットアームの動作状況や内容を容易に把握することが可能である。 According to the second aspect , it is possible to easily grasp the operation state and contents of the robot arm.

請求項3においては、視覚認識処理が行われるタイミングや内容を容易に把握することが可能である。 According to the third aspect , it is possible to easily grasp the timing and contents of the visual recognition process.

請求項4においては、ロボットアームの再生時の動作時点を容易に把握することが可能である。
また、ロボットに何らかのトラブルが発生してロボットアームが所定の静止位置以外の位置で停止した場合、常時装置に表示されたどの位置情報が反転等して表示されているかを見ることにより、ロボットアームの一連の動作のどの過程において停止したのかを容易に把握することが可能であり、教示作業の作業性が向上する。
According to the fourth aspect of the present invention, it is possible to easily grasp the operation point at the time of reproduction of the robot arm.
In addition, when some trouble occurs in the robot and the robot arm stops at a position other than the predetermined stationary position, the robot arm is always checked by observing which position information displayed on the device is reversed. It is possible to easily grasp in which process of the series of operations the operation is stopped, and the workability of the teaching work is improved.

請求項5においては、ロボットの動作状況の把握が容易であり、教示作業時の作業性に優れる。
より詳細には、ロボットアームの教示作業時に、所定のプログラム言語により作成されているロボットアームの動作に係るプログラムを直接的に修正せずとも、表示装置に表示されたロボットアームの位置情報の一部を画面上で指定するだけで、ロボットアームの一連の動作のうち、前記指定された一部に対応する動作に補正処理を適用することを容易に指定することが可能である。
また、容易に再生時のロボットアームの補正量を算出することが可能である。
また、所定の格納領域にロボットアームの補正量を算出するための情報を格納しておくことにより、ロボットアームの動作に係るプログラムの再度の修正や復元にも柔軟に対応することが可能である。
また、作業者は、ロボットアームの一連の動作のうち、どの動作が補正処理の適用範囲となるかを容易に把握することが可能である。
According to the fifth aspect of the present invention, it is easy to grasp the operation status of the robot, and the workability at the time of teaching work is excellent.
More specifically, the robot arm position information displayed on the display device is not directly corrected during the robot arm teaching operation without directly modifying the program related to the operation of the robot arm created in a predetermined program language. By simply designating the part on the screen, it is possible to easily designate that the correction process is applied to the action corresponding to the designated part of the series of actions of the robot arm.
Also, it is possible to easily calculate the correction amount of the robot arm during reproduction.
In addition, by storing information for calculating the correction amount of the robot arm in a predetermined storage area, it is possible to flexibly cope with re-correction and restoration of the program related to the operation of the robot arm. .
In addition, the operator can easily grasp which operation is within the application range of the correction process among the series of operations of the robot arm.

請求項6においては、ロボットアームの動作状況や内容を容易に把握することが可能である。 According to the sixth aspect , it is possible to easily grasp the operation status and contents of the robot arm.

請求項7においては、視覚認識処理が行われるタイミングや内容を容易に把握することが可能である。 According to the seventh aspect , it is possible to easily grasp the timing and contents of the visual recognition process.

請求項8においては、ロボットアームの再生時の動作時点を容易に把握することが可能である。
また、ロボットに何らかのトラブルが発生してロボットアームが所定の静止位置以外の位置で停止した場合、常時装置に表示されたどの位置情報が反転等して表示されているかを見ることにより、ロボットアームの一連の動作のどの過程において停止したのかを容易に把握することが可能であり、教示作業の作業性が向上する。
According to the eighth aspect of the present invention, it is possible to easily grasp the operation point at the time of reproduction of the robot arm.
In addition, when some trouble occurs in the robot and the robot arm stops at a position other than the predetermined stationary position, the robot arm is always checked by observing which position information displayed on the device is reversed. It is possible to easily grasp in which process of the series of operations the operation is stopped, and the workability of the teaching work is improved.

以下では、図1を用いて本発明に係るロボットの実施の一形態であるロボット1について説明する。
本実施例のロボット1は取り出し側作業台12に載置されたワーク11を把持して移送し、取り付け側作業台13に載置する作業を行うものである。
ここで、本出願における「ロボット」は、JIS B0134に定義される産業用ロボット(シーケンスロボット、プレイバックロボット、数値制御ロボット、知能ロボット等)を広く含み、さらに、ワークを取り扱うロボットを広く含む。
ここで、本出願における「ワーク」は、ロボットが取り扱う対象となるものを指し、「ワークを取り扱う」とは、ワークを把持する、移送する、加工する、溶接する、塗装する等、ワークに何らかの作用を及ぼすことを広く含む。
Below, the robot 1 which is one Embodiment of the robot which concerns on this invention using FIG. 1 is demonstrated.
The robot 1 according to the present embodiment grips and transfers the workpiece 11 placed on the take-out work table 12 and places it on the attachment work table 13.
Here, “robot” in the present application widely includes industrial robots (sequence robot, playback robot, numerical control robot, intelligent robot, etc.) defined in JIS B0134, and further includes robots that handle workpieces.
Here, “work” in the present application refers to an object to be handled by the robot, and “handling the work” means that the work is gripped, transferred, processed, welded, painted, etc. Widely includes acting.

ロボット1は、主としてロボットアーム2、視覚認識装置3、コントローラ4、ティーチペンダント5等を具備する。   The robot 1 mainly includes a robot arm 2, a visual recognition device 3, a controller 4, a teach pendant 5, and the like.

以下では、図1を用いてロボットアーム2について説明する。
ロボットアーム2は本発明に係るロボットアームの実施の一形態であり、主として固定部材21、本体22、第一アーム部材23、第二アーム部材24、第三アーム部材25、第四アーム部材26、第五アーム部材27等を具備する。
Hereinafter, the robot arm 2 will be described with reference to FIG.
The robot arm 2 is an embodiment of the robot arm according to the present invention, and mainly includes a fixing member 21, a main body 22, a first arm member 23, a second arm member 24, a third arm member 25, a fourth arm member 26, A fifth arm member 27 and the like are provided.

固定部材21はロボットアーム2の最下部を成す構造体であり、地面に固定される。
なお、本実施例のロボットアーム2は地面に固定されるが、本発明に係るロボットアームはこれに限定されず、地面に対して移動可能な構成としても良い。
The fixing member 21 is a structure that forms the lowermost part of the robot arm 2 and is fixed to the ground.
Although the robot arm 2 of the present embodiment is fixed to the ground, the robot arm according to the present invention is not limited to this, and may be configured to be movable with respect to the ground.

本体22はロボットアーム2の主たる構造体であり、その基部が固定部材21の上面に旋回可能に接続される。   The main body 22 is a main structure of the robot arm 2, and a base portion of the main body 22 is pivotally connected to the upper surface of the fixing member 21.

第一アーム部材23は棒状の部材であり、その一端(基部)が本体22に回動可能に枢着される。
第二アーム部材24は棒状の部材であり、その一端(基部)が第一アーム部材23の他端(先端部)に回動可能に枢着される。
第三アーム部材25は棒状の部材であり、その一端(基部)が、第二アーム部材24の他端(先端部)に旋回可能に接続される。すなわち、第三アーム部材25の長手方向および第二アーム部材24の長手方向が略一直線となり、第三アーム部材25は第二アーム部材24に対してこれらの長手方向に略一致する回転軸を中心として回転可能である。
第四アーム部材26は短い棒状の部材であり、その一端(基部)が、第三アーム部材25の他端(先端部)に回動可能に枢着される。
第五アーム部材27は短い棒状の部材であり、その一端(基部)が、第四アーム部材26の他端(先端部)に旋回可能に接続される。すなわち、第五アーム部材27の長手方向および第四アーム部材26の長手方向が略一直線となり、第五アーム部材27は第四アーム部材26に対してこれらの長手方向に略一致する回転軸を中心として回転可能である。
The first arm member 23 is a rod-shaped member, and one end (base portion) of the first arm member 23 is pivotally attached to the main body 22.
The second arm member 24 is a rod-shaped member, and one end (base portion) of the second arm member 24 is pivotally attached to the other end (tip portion) of the first arm member 23.
The third arm member 25 is a rod-shaped member, and one end (base portion) of the third arm member 25 is pivotably connected to the other end (tip portion) of the second arm member 24. That is, the longitudinal direction of the third arm member 25 and the longitudinal direction of the second arm member 24 are substantially in a straight line, and the third arm member 25 is centered on a rotation axis that substantially coincides with the longitudinal direction of the second arm member 24. As rotatable.
The fourth arm member 26 is a short rod-like member, and one end (base portion) of the fourth arm member 26 is pivotally attached to the other end (tip portion) of the third arm member 25.
The fifth arm member 27 is a short rod-like member, and one end (base portion) of the fifth arm member 27 is pivotally connected to the other end (tip portion) of the fourth arm member 26. That is, the longitudinal direction of the fifth arm member 27 and the longitudinal direction of the fourth arm member 26 are substantially in a straight line, and the fifth arm member 27 is centered on a rotation axis that substantially matches the longitudinal direction with respect to the fourth arm member 26. As rotatable.

このように、ロボットアーム2は、固定部材21と本体22との接続部、本体22と第一アーム部材23との枢着部、第一アーム部材23と第二アーム部材24との枢着部、第二アーム部材24と第三アーム部材25との接続部、第三アーム部材25と第四アーム部材26との枢着部、および第四アーム部材26と第五アーム部材27との接続部に計六箇所の関節を有する。   As described above, the robot arm 2 includes a connecting portion between the fixing member 21 and the main body 22, a pivoting portion between the main body 22 and the first arm member 23, and a pivoting portion between the first arm member 23 and the second arm member 24. A connecting portion between the second arm member 24 and the third arm member 25, a pivoting portion between the third arm member 25 and the fourth arm member 26, and a connecting portion between the fourth arm member 26 and the fifth arm member 27. Have a total of six joints.

また、ロボットアーム2は、各関節においてロボットアーム2を構成する部材を回動または旋回させるためのアクチュエータ(モータ、油圧シリンダ等)を具備するとともに、各関節の回動角または旋回角を検出するための角度検出手段(ロータリーエンコーダ等の角度センサ)を具備する。   The robot arm 2 includes actuators (motors, hydraulic cylinders, etc.) for rotating or turning the members constituting the robot arm 2 at each joint, and detects the turning angle or turning angle of each joint. Angle detecting means (an angle sensor such as a rotary encoder).

なお、本実施例のロボットアーム2は計六箇所の関節を有するが、本発明に係るロボットアームは二箇所以上、すなわち複数の関節を有するロボットアームに広く適用可能である。   Although the robot arm 2 of the present embodiment has a total of six joints, the robot arm according to the present invention is widely applicable to robot arms having two or more places, that is, a plurality of joints.

ロボットアーム2の先端部、すなわち第五アーム部材27の先端部にはハンド28が設けられる。ハンド28は本出願に係るエンドエフェクタの実施の一形態であり、ロボットアーム2が取り扱う対象であるワークを把持するものである。
ここで、本発明に係る「エンドエフェクタ(手先作用器)」は、ワークに何らかの作用(把持、移送、加工、溶接、塗装等)を与えるものである。本発明に係るエンドエフェクタの別実施例としては、ワークの表面を研磨するグラインダ、ワークを溶接するトーチ、ワークに塗料を吹き付ける塗装ガン等が挙げられる。
なお、本実施例のロボットアーム2は第五アーム部材27の先端部にハンド28を固定する構成であるが、本発明に係るロボットアームはこれに限定されず、複数種類のエンドエフェクタを着脱可能とすることにより使い分ける構成としても良い。
A hand 28 is provided at the tip of the robot arm 2, that is, the tip of the fifth arm member 27. The hand 28 is an embodiment of an end effector according to the present application, and grips a workpiece that is a target to be handled by the robot arm 2.
Here, the “end effector (hand effector)” according to the present invention imparts some action (gripping, transferring, processing, welding, painting, etc.) to the workpiece. Other embodiments of the end effector according to the present invention include a grinder that polishes the surface of the workpiece, a torch that welds the workpiece, a coating gun that sprays paint on the workpiece, and the like.
The robot arm 2 of this embodiment is configured to fix the hand 28 to the tip of the fifth arm member 27. However, the robot arm according to the present invention is not limited to this, and multiple types of end effectors can be attached and detached. It is good also as a structure which uses properly by doing.

以下では、図1を用いて視覚認識装置3について説明する。
視覚認識装置3は本発明に係る視覚認識装置の実施の一形態であり、視覚認識処理を行うものである。
ここで、本出願における「視覚認識処理を行う」とは、視覚的な情報に基づいてワークの位置、あるいはロボットアームとワークとの相対的な位置関係を認識することを広く指すものとする。
Below, the visual recognition apparatus 3 is demonstrated using FIG.
The visual recognition device 3 is an embodiment of the visual recognition device according to the present invention, and performs visual recognition processing.
Here, “perform visual recognition processing” in the present application broadly refers to recognizing the position of the workpiece or the relative positional relationship between the robot arm and the workpiece based on visual information.

視覚認識装置3は主として第一固定カメラ31、第二固定カメラ32、ロボットアーム側カメラ33、視覚情報処理装置34等を具備する。   The visual recognition device 3 mainly includes a first fixed camera 31, a second fixed camera 32, a robot arm side camera 33, a visual information processing device 34, and the like.

第一固定カメラ31、第二固定カメラ32およびロボットアーム側カメラ33は、いずれも本発明に係る撮像手段の実施の一形態であり、ワーク11を撮像することによりワーク11の視覚的な情報を取得するものである。
第一固定カメラ31は所定の位置に固定されており、取り出し側作業台12に載置されたワーク11を撮像する。第二固定カメラ32は所定の位置に固定されており、ロボット1により移送されて取り付け側作業台13に載置されたワーク11を撮像する。ロボットアーム側カメラ33はロボットアーム2の第五アーム部材27に固定され、ワーク11を撮像する。なお、ロボットアーム側カメラ33が撮像するワーク11は、(1)ハンド28により把持されているか否か、あるいは(2)ワーク11が取り出し側作業台12または取り付け側作業台13に載置されている状態かロボットアーム2により移送されている状態か、を問わない。
The first fixed camera 31, the second fixed camera 32, and the robot arm side camera 33 are all embodiments of the imaging means according to the present invention, and visual information of the workpiece 11 is obtained by imaging the workpiece 11. To get.
The first fixed camera 31 is fixed at a predetermined position, and images the work 11 placed on the take-out work table 12. The second fixed camera 32 is fixed at a predetermined position, and images the workpiece 11 transferred by the robot 1 and placed on the attachment work table 13. The robot arm side camera 33 is fixed to the fifth arm member 27 of the robot arm 2 and images the workpiece 11. The workpiece 11 picked up by the robot arm side camera 33 is either (1) whether or not it is gripped by the hand 28, or (2) the workpiece 11 is placed on the takeout-side workbench 12 or the attachment-side workbench 13. Whether it is in a state of being transferred or being transferred by the robot arm 2.

本発明に係る撮像手段の具体例としては、一般的にはCCDカメラやCMOSカメラ等の可視光を利用するカメラが挙げられるが、可視光を利用するものに限定されず、赤外線カメラ等の可視光と異なる波長の光を利用するカメラでも良い。
さらに、本実施例の撮像手段は第一固定カメラ31、第二固定カメラ32およびロボットアーム側カメラ33の計三個であるがこれに限定されず、本発明に係る撮像手段の取り付け位置および個数はロボットアームが行う動作や作業の内容に応じて適宜選択されるものである。
Specific examples of the image pickup means according to the present invention generally include a camera using visible light such as a CCD camera or a CMOS camera. However, the imaging means is not limited to the one using visible light, and visible such as an infrared camera. A camera using light having a wavelength different from that of light may be used.
Further, the number of image pickup means of the present embodiment is three in total, that is, the first fixed camera 31, the second fixed camera 32, and the robot arm side camera 33. However, the present invention is not limited to this. Is appropriately selected according to the operation and work performed by the robot arm.

視覚情報処理装置34は本発明に係るワーク位置情報算出手段の実施の一形態であり、第一固定カメラ31、第二固定カメラ32およびロボットアーム側カメラ33により撮像されたワーク11の画像に基づいてワーク11の位置情報を算出することにより、ワーク11の位置、あるいはロボットアーム2とワーク11との相対的な位置関係を認識するものである。視覚情報処理装置34は、第一固定カメラ31、第二固定カメラ32およびロボットアーム側カメラ33に接続される。
ここで、本出願における「ワークの位置情報」には、三次元空間における存在位置、すなわちワークの三次元座標に係る情報だけでなく、ワークの姿勢に係る情報、あるいはワークの特定部位(例えば、ワークに形成された孔)の位置に係る情報等を含んでも良い。
従って、本出願における「ワークの位置情報を算出すること」には、ワークの姿勢を計測すること、ワークの種類を確認(認識)すること、所定の位置にワークが存在するか否かを確認(認識)すること、ワークの精度を確認すること、等が含まれる。また、「ワークの精度」にはワーク自体の寸法精度(形状)やワークを所望の位置に載置する際の位置精度が含まれる。
The visual information processing device 34 is an embodiment of the workpiece position information calculating means according to the present invention, and is based on the image of the workpiece 11 captured by the first fixed camera 31, the second fixed camera 32, and the robot arm side camera 33. Thus, by calculating the position information of the workpiece 11, the position of the workpiece 11 or the relative positional relationship between the robot arm 2 and the workpiece 11 is recognized. The visual information processing device 34 is connected to the first fixed camera 31, the second fixed camera 32, and the robot arm side camera 33.
Here, in the “application position information” in the present application, not only the information on the existence position in the three-dimensional space, that is, information on the three-dimensional coordinates of the work, but also information on the posture of the work, or a specific part of the work (for example, Information on the position of the hole formed in the workpiece may be included.
Therefore, “calculating workpiece position information” in this application includes measuring the posture of the workpiece, confirming (recognizing) the type of workpiece, and confirming whether the workpiece exists at a predetermined position. (Recognition), checking the accuracy of the workpiece, and the like are included. Further, “workpiece accuracy” includes the dimensional accuracy (shape) of the workpiece itself and the position accuracy when the workpiece is placed at a desired position.

以下では、図1を用いてコントローラ4について説明する。
コントローラ4は本発明に係る制御装置の実施の一形態であり、予め設定されたロボットアーム2の動作に係るプログラムおよび視覚認識装置3から取得したワーク11の位置情報に基づいてロボットアーム2の動作を制御するものである。
Hereinafter, the controller 4 will be described with reference to FIG.
The controller 4 is an embodiment of the control device according to the present invention, and the operation of the robot arm 2 based on a preset program related to the operation of the robot arm 2 and the position information of the workpiece 11 acquired from the visual recognition device 3. Is to control.

コントローラ4は、ロボットアーム2の動作に係るプログラム等を格納する格納手段、該プログラム等を展開する展開手段、該プログラム等に従って所定の演算を行う演算手段、演算結果等を記憶する記憶手段等を具備する。
コントローラ4は、より具体的にはCPU、ROM、RAM、HDD等がバスで接続される構成であっても良く、あるいはワンチップのLSI等からなる構成であっても良い。
なお、本実施例のコントローラ4は専用品であるが、市販のパソコンやワークステーション等を用いて達成することも可能である。
The controller 4 includes storage means for storing a program related to the operation of the robot arm 2, expansion means for expanding the program, calculation means for performing a predetermined calculation according to the program, storage means for storing calculation results, and the like. It has.
More specifically, the controller 4 may be configured such that a CPU, a ROM, a RAM, an HDD, and the like are connected by a bus, or may be configured by a one-chip LSI or the like.
Although the controller 4 of this embodiment is a dedicated product, it can also be achieved using a commercially available personal computer or workstation.

コントローラ4はロボットアーム2が具備する角度検出手段(図示せず)に接続され、当該角度検出手段が検出したロボットアーム2の各関節の回動角または旋回角に係る情報を取得することが可能である。   The controller 4 is connected to angle detection means (not shown) provided in the robot arm 2, and can acquire information related to the rotation angle or turning angle of each joint of the robot arm 2 detected by the angle detection means. It is.

コントローラ4はロボットアーム2が具備するアクチュエータ群(モータ等)に接続され、当該アクチュエータ群を駆動することによりロボットアーム2に種々の動作を行わせることが可能である。また、コントローラ4は、ロボットアーム2の動作の種類を、作業の内容に応じて適宜選択することが可能である。ここで、ロボットアーム2の動作の種類としては、直線動作、各軸動作、円弧補間動作、曲線補間動作、相対値移動動作等が挙げられる。
なお、「直線動作」は、ロボットアーム2の先端部(ハンド28)を異なる二点間で直線的に(移動経路が直線状となるように)移動させる動作であり、「各軸動作」はロボットアーム2の先端部(ハンド28)を異なる二点間で移動させる場合に最も所要時間が短くなるように移動させる動作である。
The controller 4 is connected to an actuator group (such as a motor) provided in the robot arm 2 and can drive the robot arm 2 to perform various operations by driving the actuator group. Further, the controller 4 can appropriately select the type of operation of the robot arm 2 according to the content of the work. Here, the types of operations of the robot arm 2 include linear operations, axis operations, circular interpolation operations, curve interpolation operations, relative value movement operations, and the like.
The “linear motion” is an operation in which the tip (hand 28) of the robot arm 2 is linearly moved between two different points (so that the movement path is linear). This is an operation to move the tip of the robot arm 2 (hand 28) so that the required time is minimized when the tip (hand 28) is moved between two different points.

コントローラ4はハンド28が具備するアクチュエータ群(モータ等)に接続され、当該アクチュエータ群を駆動することによりハンド28に種々の動作を行わせることが可能である。   The controller 4 is connected to an actuator group (such as a motor) included in the hand 28, and can drive the hand 28 to perform various operations by driving the actuator group.

コントローラ4は視覚認識装置3の視覚情報処理装置34に接続され、視覚情報処理装置34が算出したワーク11の位置情報を取得することが可能である。   The controller 4 is connected to the visual information processing device 34 of the visual recognition device 3 and can acquire the position information of the workpiece 11 calculated by the visual information processing device 34.

なお、本実施例のロボット1は、一台のコントローラ4に対して一基のロボットアーム2が接続される構成であるが、一台のコントローラに複数のロボットアームを接続し、一台のコントローラで複数のロボットアームの動作をそれぞれ制御する構成としても良い。
また、本実施例のロボット1はコントローラ4と視覚認識装置3の視覚情報処理装置34とが別体となっているが、これらを一体とする構成(コントローラ4に視覚情報処理装置34が行う視覚認識に係るプログラムを格納する構成)としても良い。
The robot 1 of this embodiment has a configuration in which one robot arm 2 is connected to one controller 4, but a plurality of robot arms are connected to one controller, and one controller is connected. Thus, it is possible to control each of the operations of the plurality of robot arms.
In the robot 1 of this embodiment, the controller 4 and the visual information processing device 34 of the visual recognition device 3 are separated from each other. However, these are integrated (the visual information performed by the visual information processing device 34 on the controller 4). A configuration for storing a program related to recognition may be adopted.

以下では、図1を用いてティーチペンダント5について説明する。
ティーチペンダント5は本発明に係る表示装置の実施の一形態である。本実施例の場合、ティーチペンダント5はコントローラ4に対する種々の指令、あるいはコントローラ4に格納されているプログラム等の修正(追加、削除、書き換え等)を行う入力装置としての機能と、コントローラ4に格納されているプログラムやその他の情報を表示する表示装置としての機能と、を兼ねる装置であり、教示作業等で用いられる。
Hereinafter, the teach pendant 5 will be described with reference to FIG.
The teach pendant 5 is an embodiment of the display device according to the present invention. In the case of the present embodiment, the teach pendant 5 has a function as an input device for performing various commands to the controller 4 or correction (addition, deletion, rewriting, etc.) of a program stored in the controller 4, and the controller 4 stores it. This is a device that also has a function as a display device that displays a program and other information being used, and is used in teaching work and the like.

ここで、本出願における「教示」は、作業者がロボットアームを所定の姿勢にして当該姿勢を制御装置に記憶させ、さらにある姿勢から次の姿勢に移行するときのロボットアームの動作内容(直線動作や各軸動作等の動作方法、動作速度、動作精度等)を指定することを繰り返すことにより、ロボットアームの一連の動作を形成することを指す。
また、本出願における「再生」は、教示作業により形成された一連の動作をロボットアームが再現することを指す。なお、「再生」には、教示作業により形成された一連の動作を忠実に再現する場合だけでなく、視覚認識装置により算出されたワークの位置情報等に基づいて教示作業により形成された一連の動作の一部または全部を適宜補正した上で再現することも含まれる。
Here, “teaching” in the present application refers to the operation content of the robot arm (straight line) when the operator sets the robot arm in a predetermined posture, stores the posture in the control device, and further shifts from one posture to the next posture. It refers to forming a series of motions of the robot arm by repeatedly designating motions, motion methods such as motions of each axis, motion speed, motion accuracy, and the like.
Further, “reproduction” in the present application means that the robot arm reproduces a series of operations formed by the teaching work. Note that “reproduction” includes not only a case where a series of movements formed by the teaching work is faithfully reproduced, but also a series of movements formed by the teaching work based on the position information of the workpiece calculated by the visual recognition device. It also includes reproduction after correcting part or all of the operation as appropriate.

ティーチペンダント5はケーブルによりコントローラ4に接続され、コントローラ4との間で種々の情報を双方向に通信可能である。また、作業者がティーチペンダント5を手に持ってロボットアーム2の近傍で教示作業を行うことが前提となっているため、ティーチペンダント5の大きさおよび重量は一定の範囲に定められる。
なお、本実施例のティーチペンダント5はケーブルにより(有線で)コントローラ4と接続されるが、無線で接続する(無線で種々の情報を双方向に通信する)構成としても良い。
The teach pendant 5 is connected to the controller 4 by a cable, and various information can be bidirectionally communicated with the controller 4. Further, since it is assumed that the operator performs teaching work in the vicinity of the robot arm 2 with the teach pendant 5 in his / her hand, the size and weight of the teach pendant 5 are determined within a certain range.
The teach pendant 5 of the present embodiment is connected to the controller 4 by a cable (wired), but may be configured to be connected wirelessly (various information is communicated wirelessly).

ティーチペンダント5は、主として本体51、入力部52、表示部53を具備する。
本体51はティーチペンダント5の主たる構造体であり、その前面下部には入力部52が設けられ、前面上部には表示部53が設けられる。
入力部52はティーチペンダント5の入力装置としての機能を達成するものであり、本実施例の場合は複数の押しボタンで構成される。これらの押しボタンを操作することにより、コントローラ4に対して種々の指令を行ったり、あるいはコントローラ4に格納されているプログラム等の修正(追加、削除、書き換え等)を行ったりすることが可能である。
表示部53はティーチペンダント5の表示装置としての機能を達成するものであり、本実施例の場合は液晶画面で構成される。
なお、タッチパネルを用いることにより、入力部と表示部を一体としても良い。
The teach pendant 5 mainly includes a main body 51, an input unit 52, and a display unit 53.
The main body 51 is a main structure of the teach pendant 5, and an input unit 52 is provided at the lower part of the front surface, and a display unit 53 is provided at the upper part of the front surface.
The input unit 52 achieves a function as an input device of the teach pendant 5, and in the case of the present embodiment, is constituted by a plurality of push buttons. By operating these push buttons, it is possible to give various commands to the controller 4 or to modify (add, delete, rewrite, etc.) programs stored in the controller 4. is there.
The display unit 53 achieves the function of the teach pendant 5 as a display device. In the present embodiment, the display unit 53 is composed of a liquid crystal screen.
Note that the input unit and the display unit may be integrated by using a touch panel.

なお、本実施例ではティーチペンダント5にのみ表示装置を設ける構成としたが、コントローラ4にも表示装置を設ける構成としても良い。   In this embodiment, the display device is provided only on the teach pendant 5, but the controller 4 may be provided with a display device.

以下では、図1、図2および図3を用いて、ティーチペンダント5の表示部53におけるロボット1の動作に係る情報、より厳密には、ロボットアーム2の動作に係る情報および視覚認識装置3による視覚認識処理に係る情報、の表示方法について説明する。   1, 2, and 3, information related to the operation of the robot 1 in the display unit 53 of the teach pendant 5, more precisely, information related to the operation of the robot arm 2 and the visual recognition device 3 will be described below. A method of displaying information related to the visual recognition process will be described.

<ロボットアームの位置情報の表示方法>
本実施例のロボット1は、従来のロボットと同様にティーチペンダント5の表示部53にコントローラ4に格納されているロボットアーム2の動作に係るプログラムを所定のプログラム言語の状態で表示するだけでなく、上記プログラムに基づいて行われるロボットアーム2の一連の動作を、図2に示す如く、時系列的に並べられたロボットの位置情報71・72・73・74・75・76として表示することが可能である。
<Display method of robot arm position information>
The robot 1 according to the present embodiment not only displays a program related to the operation of the robot arm 2 stored in the controller 4 on the display unit 53 of the teach pendant 5 in the state of a predetermined program language as in the conventional robot. A series of operations of the robot arm 2 performed based on the above program can be displayed as position information 71, 72, 73, 74, 75, 76 of the robots arranged in time series as shown in FIG. Is possible.

通常、ロボットアームの一連の動作は、(1)ロボットアームの静止位置(または通過位置)、および、(2)ある静止位置(または通過位置)から次の静止位置(または通過位置)に移行するときのロボットアームの動作内容(直線動作や各軸動作等の動作方法、動作速度、動作精度等)、を組み合わせることにより形成される。
ここで、「ロボットアームの静止位置」は、厳密にはロボットアームの先端部(エンドエフェクタが設けられる部分)が静止したときの位置(三次元座標)を指し、「ロボットアームの通過位置」は、厳密にはロボットアームの先端部が通過したときの位置(三次元座標)を指すものであり、実体的には、ロボットアームの各関節の回動角および旋回角を特定することにより特定される。
すなわち、ロボットアームの静止位置および通過位置は、通常はロボットアームの各関節の回動角や旋回角、およびロボットアームを構成する各部材の形状等のパラメータを用いて算出された三次元座標の形で表現される。
なお、ロボットアームの各関節の回動角および旋回角を特定することにより、ロボットアームの先端部の位置が求められるだけでなく、ロボットアームの姿勢(ロボットアームを構成する各部材およびエンドエフェクタの向き)も特定される。
Usually, a series of movements of the robot arm are (1) a stationary position (or passing position) of the robot arm, and (2) a transition from one stationary position (or passing position) to the next stationary position (or passing position). It is formed by combining the operation details of the robot arm (operation method such as linear operation and operation of each axis, operation speed, operation accuracy, etc.).
Here, strictly speaking, the “robot arm stationary position” refers to the position (three-dimensional coordinates) when the tip of the robot arm (part where the end effector is provided) is stationary, and the “robot arm passage position” is Strictly speaking, it indicates the position (three-dimensional coordinates) when the tip of the robot arm has passed, and is practically specified by specifying the rotation angle and turning angle of each joint of the robot arm. The
In other words, the stationary position and the passing position of the robot arm are usually three-dimensional coordinates calculated using parameters such as the rotation angle and turning angle of each joint of the robot arm and the shape of each member constituting the robot arm. Expressed in shape.
By specifying the turning angle and turning angle of each joint of the robot arm, not only the position of the tip of the robot arm is obtained, but also the posture of the robot arm (each member constituting the robot arm and the end effector) Orientation) is also specified.

本実施例の場合、ティーチペンダント5の表示部53に表示されるロボットの位置情報71・72・73・74・75・76が時系列的に表示される。
本実施例の位置情報71・72・73・74・75・76はそれぞれ、表示部53に表示する項目として(a)位置番号、(b)動作区分、(c)動作精度、(d)動作速度、(e)出力信号、(f)入力信号、を含み、ロボットアーム2の動作状況や内容を容易に把握可能なレイアウトとなっている。
In the case of the present embodiment, the position information 71, 72, 73, 74, 75, 76 of the robot displayed on the display unit 53 of the teach pendant 5 is displayed in time series.
The position information 71, 72, 73, 74, 75, and 76 of the present embodiment are (a) position number, (b) operation classification, (c) operation accuracy, and (d) operation as items to be displayed on the display unit 53, respectively. The layout includes the speed, (e) output signal, and (f) input signal, so that the operation state and contents of the robot arm 2 can be easily grasped.

(a)位置番号は、ロボットアーム2が一連の動作を開始してから終了するまでの間に、ロボットアーム2が一時的に静止する静止位置またはロボットアーム2が通過する通過位置が複数ある場合に、当該複数の静止位置または通過位置にロボットアーム2が到達する順に、すなわち時系列的に付した番号である。
本実施例の場合、ロボットアーム2の動作の開始から終了までの間に静止位置または通過位置が計六箇所あり、これら六箇所の静止位置または通過位置にそれぞれ位置番号(1〜6)が付されている。
(A) When the robot arm 2 has a plurality of stationary positions where the robot arm 2 temporarily stops or a plurality of passing positions through which the robot arm 2 passes between the start and end of a series of operations. The numbers are given in the order in which the robot arm 2 arrives at the plurality of stationary positions or passing positions, that is, in time series.
In the case of the present embodiment, there are a total of six stationary positions or passing positions from the start to the end of the operation of the robot arm 2, and each of these six stationary positions or passing positions is assigned a position number (1-6). Has been.

ロボットアーム2の静止位置または通過位置をロボットアーム2の各関節の回動角や旋回角の形で表示せず、ロボットアーム2がその位置に到達する順に番号を付して時系列的に並べて表示するのは、作業者は教示作業時において、ロボットアーム2の動作をロボットアーム2の各関節の回動角や旋回角の形で認識するよりも、むしろ実際に作業者の目で見たロボットアーム2の先端部(あるいはハンド28)の位置や姿勢により「今何番目の静止位置または通過位置にいる」という形で認識するからである。
従って、ティーチペンダント5の表示部53に静止位置または通過位置が時系列的に表示されていれば作業者は当該静止位置または通過位置および目で見たロボットアーム2の姿勢からロボットアーム2の動作状況を十分に把握することが可能である。
なお、操作部52を操作することにより、ある静止位置または通過位置におけるロボットアーム2の各関節の回動角や旋回角を表示することも可能である。
The stationary position or passing position of the robot arm 2 is not displayed in the form of the rotation angle or turning angle of each joint of the robot arm 2, but is numbered in time series in the order in which the robot arm 2 reaches the position. What is displayed is that the operator actually saw the movement of the robot arm 2 with the eyes of the operator rather than recognizing the movement of each joint of the robot arm 2 in the form of the rotation angle and the turning angle during the teaching operation. This is because the robot arm 2 is recognized in the form of “the current stationary position or passing position” depending on the position and posture of the tip of the robot arm 2 (or the hand 28).
Accordingly, if the stationary position or the passing position is displayed in time series on the display unit 53 of the teach pendant 5, the operator operates the robot arm 2 from the stationary position or the passing position and the posture of the robot arm 2 as seen with eyes. It is possible to fully grasp the situation.
In addition, by operating the operation unit 52, it is also possible to display the rotation angle and the turning angle of each joint of the robot arm 2 at a certain stationary position or passing position.

(b)動作区分は、対象となる静止位置または通過位置に到達するまでのロボットアーム2の動作方法の区分を指すものである。本実施例の場合、ロボットアーム2の動作方法として、直線動作、各軸動作、円弧補間動作、曲線補間動作、相対値移動動作等の中からいずれか一つが選択される。
なお、ロボットアームの動作方法がいずれか一つに固定されているロボットの場合には当該動作区分を表示する必要がないので、これを表示項目の対象から外すことが可能である。
(B) The movement classification refers to the classification of the movement method of the robot arm 2 until reaching the target stationary position or passing position. In the case of the present embodiment, one of a movement method of the robot arm 2 is selected from a linear operation, each axis operation, a circular interpolation operation, a curve interpolation operation, a relative value movement operation, and the like.
Note that in the case of a robot in which the operation method of the robot arm is fixed to any one, it is not necessary to display the operation classification, so that it can be excluded from the display items.

(c)動作精度は、対象となる静止位置または通過位置に静止した時のロボットアーム2の各関節の回動角または旋回角の精度(すなわち、対象となる静止位置または通過位置に到達した時の各関節の回動角または旋回角の設定値と、角度検出手段による各関節の回動角または旋回角の検出値と、の差の許容範囲)を指すものである。本実施例の場合、動作精度として精度が高いものから順に3つのランク(1〜3)が予め設定されており、その中からいずれか一つが選択される。
なお、ロボットアームの動作精度のランクがいずれか一つに固定されているロボットの場合には当該動作精度を表示する必要がないので、これを表示項目の対象から外すことが可能である。
(C) The operation accuracy is the accuracy of the rotation angle or the turning angle of each joint of the robot arm 2 when the robot arm 2 stops at the target stationary position or the passing position (that is, when the target stationary position or the passing position is reached). The allowable range of the difference between the set value of the rotation angle or turning angle of each joint and the detected value of the turning angle or turning angle of each joint by the angle detection means). In the case of the present embodiment, three ranks (1 to 3) are set in advance in descending order of operation accuracy, and any one of them is selected.
Note that in the case of a robot in which the rank of the operation accuracy of the robot arm is fixed to any one, it is not necessary to display the operation accuracy, and this can be excluded from the display items.

(d)動作速度は、ロボットアーム2の動作速度、すなわち各関節の回動角速度または旋回角速度を指すものである。本実施例の場合、動作速度として速度が低いものから高いものまで9つのランク(1〜9)が予め設定されており、その中からいずれか一つが選択される。
なお、ロボットアームの動作速度のランクがいずれか一つに固定されているロボットの場合には当該動作速度を表示する必要がないので、これを表示項目の対象から外すことが可能である。
(D) The operation speed refers to the operation speed of the robot arm 2, that is, the rotation angular velocity or the rotation angular velocity of each joint. In the case of the present embodiment, nine ranks (1 to 9) from a low speed to a high speed are set in advance, and any one of them is selected.
Note that in the case of a robot in which the rank of the operation speed of the robot arm is fixed to any one, it is not necessary to display the operation speed, so that it can be excluded from the display items.

(e)出力信号は、ロボットアーム2が対象となる静止位置または通過位置に到達したことを示す信号を、他のどの機器(例えば、ロボットアーム2に隣接して設けられている別のロボットアームや、ワーク11を搬送して取り出し側作業台12に載置する搬送装置等)に対して出力するかを表すものである。
なお、ロボットの使用条件等によっては他の機器に信号を出力する必要がない場合もあるので、そのような場合には出力信号を表示項目の対象から外すことが可能である。
(E) The output signal is a signal indicating that the robot arm 2 has reached the target stationary position or passing position, and any other device (for example, another robot arm provided adjacent to the robot arm 2). In addition, it represents whether the workpiece 11 is transported and output to a transporting device or the like mounted on the take-out work table 12.
In some cases, it may not be necessary to output a signal to another device depending on the use conditions of the robot. In such a case, the output signal can be excluded from the display items.

(f)入力信号は、他のどの機器からの入力信号を取得してから動作を開始し、対象となる静止位置または通過位置に到達するかを表すものである。
なお、ロボットの使用条件等によっては他の機器からの入力信号を必要としない場合もあるので、そのような場合には入力信号を表示項目の対象から外すことが可能である。
(F) The input signal represents from which other device the input signal is acquired and then the operation is started to reach the target stationary position or passing position.
In some cases, an input signal from another device may not be required depending on the use condition of the robot. In such a case, the input signal can be excluded from the display items.

本実施例の場合、ティーチペンダント5の表示部53に時系列的に表示されたロボットアーム2の位置情報71・72・73・74・75・76を、表示部53の画面上で修正(追加、削除、書き換え等)することが可能である。
また、ロボット1のコントローラ4は、表示部53に時系列的に表示されたロボットアーム2の位置情報71・72・73・74・75・76を表示部53の画面上で修正した結果を再生時のロボットアーム2の動作に反映させるためのプログラムを格納しており、当該プログラムが作動することにより、所定のプログラム言語により作成されているロボットアーム2の動作に係るプログラムを修正(追加、削除、書き換え等)したのと同様の効果を得ることが可能である。
従って、作業者は、ロボットアーム2の教示作業時に、所定のプログラム言語により作成されているロボットアーム2の動作に係るプログラムを直接的に修正せずとも、表示部53に表示されたロボットアーム2の位置情報71・72・73・74・75・76を適宜修正するだけでロボットアーム2の動作を修正することが可能であり、教示作業時の作業性に優れる(教示作業の省力化、教示作業に係る作業時間の短縮に寄与する)。
In the case of this embodiment, the position information 71, 72, 73, 74, 75, 76 of the robot arm 2 displayed in time series on the display unit 53 of the teach pendant 5 is corrected (added) on the screen of the display unit 53. Delete, rewrite, etc.).
Further, the controller 4 of the robot 1 reproduces the result of correcting the position information 71, 72, 73, 74, 75, 76 of the robot arm 2 displayed in time series on the display unit 53 on the screen of the display unit 53. Stores a program to be reflected in the operation of the robot arm 2 at the time, and the program related to the operation of the robot arm 2 created in a predetermined program language is corrected (added or deleted) by operating the program , Rewriting, etc.) can be obtained.
Therefore, the operator can correct the robot arm 2 displayed on the display unit 53 without directly correcting the program related to the operation of the robot arm 2 created in a predetermined program language during the teaching work of the robot arm 2. It is possible to correct the operation of the robot arm 2 by appropriately correcting the position information 71, 72, 73, 74, 75, 76 of the robot, and it is excellent in workability during teaching work (labor saving of teaching work, teaching Contributes to shortening the working time of work).

<視覚認識装置による視覚認識処理のパラメータの表示方法>
図2に示す如く、視覚認識装置3がワーク11の位置情報を取得するためのパラメータ81、言い換えれば、視覚認識装置3による視覚認識処理のパラメータ81は、位置情報71に付帯して表示される。
ここで、本出願における「視覚認識処理のパラメータをロボットアームの位置情報に付帯して表示する」とは、視覚認識処理のパラメータと、当該視覚認識処理を行う静止位置または通過位置との関係が表示画面上で明確となる態様で表示することを指す。
本実施例の場合、パラメータ81を、視覚認識処理を行う静止位置または通過位置(位置番号が「1」の静止位置または通過位置)に対応するロボットアーム2の位置情報71と、次の静止位置または通過位置に対応するロボットアーム2の位置情報72との間(言い換えれば、位置情報71の直下)に表示することにより、ロボットアーム2の位置情報71に付帯して表示する。
<Method for Displaying Parameters of Visual Recognition Processing by Visual Recognition Device>
As shown in FIG. 2, the parameter 81 for the visual recognition device 3 to acquire the position information of the workpiece 11, in other words, the parameter 81 for visual recognition processing by the visual recognition device 3 is displayed along with the position information 71. .
Here, “displaying the parameters of the visual recognition process attached to the position information of the robot arm” in the present application means that the relationship between the parameters of the visual recognition process and the stationary position or the passing position where the visual recognition process is performed. It means displaying in a mode that is clear on the display screen.
In the case of the present embodiment, the parameter 81 includes the position information 71 of the robot arm 2 corresponding to the stationary position or passing position (the stationary position or passing position where the position number is “1”) for performing visual recognition processing, and the next stationary position. Alternatively, by displaying the position information 72 of the robot arm 2 corresponding to the passing position (in other words, directly below the position information 71), the position information 71 of the robot arm 2 is displayed.

図2および図3に示す如く、本実施例のパラメータ81は、表示部53に表示する項目として(i)視覚認識方法の区分、(ii)撮像手段の区分、(iii)ワーク番号、(iv)ワークにおける撮像部位、を含み、視覚認識処理が行われるタイミングや内容を容易に把握可能なレイアウトとなっている。
本実施例の場合、表示部53には、視覚認識装置3がワーク11の位置情報を取得する位置である位置番号が「1」の静止位置または通過位置に係る位置情報71と、次の静止位置または通過位置である位置番号が「2」の静止位置または通過位置に係る位置情報72との間に、「FN(視覚認識方法の区分(大分類))[(撮像手段の区分),(視覚認識方法の区分(小分類)),(ワーク番号),(ワークにおける撮像部位(その1)),(ワークにおける撮像部位(その2)),(ワークにおける撮像部位(その3))]」の形で表示される。
As shown in FIGS. 2 and 3, the parameter 81 of this embodiment includes (i) visual recognition method classification, (ii) imaging means classification, (iii) work number, (iv) as items to be displayed on the display unit 53. ) The layout includes an imaging part of the workpiece, and the timing and contents at which the visual recognition process is performed can be easily grasped.
In the case of the present embodiment, the display unit 53 includes position information 71 related to a stationary position or a passing position whose position number is “1”, which is a position where the visual recognition device 3 acquires position information of the workpiece 11, and the next stationary state. Between the position information 72 relating to the stationary position or passing position whose position number is “2”, which is the position or passing position, “FN (visual recognition method classification (major classification)) [(imaging means classification), ( Classification of visual recognition methods (minor classification)), (work number), (imaging part of work (part 1)), (imaging part of work (part 2)), (imaging part of work (part 3))]] Is displayed.

(i)視覚認識方法の区分は、視覚認識装置3が行う作業の区分を指すものである。
本実施例の場合、視覚認識方法の区分を更に大分類と小分類に分けている。視覚認識方法の区分の大分類としては、ワークの姿勢の計測、およびワークの検査・確認が予め設定されている。また、視覚認識方法の区分の小分類としては、姿勢の詳細な計測、ワークの種類の確認、ワークが所定の位置に存在するか否かの確認、およびワークの精度の確認が予め設定されている。なお、本実施例の視覚認識方法の区分の小分類は、さらに撮像時にワーク11をハンド28で把持しているか否かで細分されている。
なお、ロボットの使用条件等によっては特定の視覚認識方法しか使用せず、視覚認識方法の区分を選択する必要が無い場合もあるので、そのような場合には視覚認識方法の区分を表示項目の対象から外すことが可能である。
(I) The classification of the visual recognition method indicates the classification of work performed by the visual recognition device 3.
In this embodiment, the visual recognition method is further divided into a large classification and a small classification. As major classifications of visual recognition methods, workpiece posture measurement and workpiece inspection / confirmation are set in advance. In addition, small classifications of visual recognition method classifications include detailed posture measurement, confirmation of the type of workpiece, confirmation of whether the workpiece is present at a predetermined position, and confirmation of accuracy of the workpiece. Yes. In addition, the small classification of the classification of the visual recognition method of the present embodiment is further subdivided depending on whether or not the work 11 is gripped by the hand 28 at the time of imaging.
Depending on the use conditions of the robot, etc., only a specific visual recognition method may be used, and it may not be necessary to select a visual recognition method category. It is possible to remove from the target.

(ii)撮像手段の区分は、視覚認識装置3が視覚認識処理を行う際に使用する撮像手段を指すものである。本実施例の場合、第一固定カメラ31、第二固定カメラ32およびロボットアーム側カメラ33にそれぞれ番号が付され、いずれかが選択される。
なお、視覚認識装置が撮像手段を一つだけ具備する構成である場合には使用する撮像手段を選択する必要がないので、そのような場合には、撮像手段の区分を表示項目の対象から外すことが可能である。
(Ii) The classification of imaging means refers to imaging means used when the visual recognition device 3 performs visual recognition processing. In the case of the present embodiment, numbers are assigned to the first fixed camera 31, the second fixed camera 32, and the robot arm side camera 33, and any one is selected.
If the visual recognition apparatus has only one image pickup means, it is not necessary to select the image pickup means to be used. In such a case, the image pickup means is excluded from the display items. It is possible.

(iii)ワーク番号は、ロボット1が異なる複数種類のワークを取り扱う場合に、視覚認識の対象となるワークの種類を指すものである。本実施例の場合、ロボット1が取り扱うワークの種類毎に異なるワーク番号が予め設定されており、そのいずれかが選択される。
なお、ロボット1が一種類のワーク11を取り扱う場合にはワークの種類を選択する必要がないので、そのような場合には、ワーク番号を表示項目の対象から外すことが可能である。
(Iii) The work number indicates the type of work to be visually recognized when the robot 1 handles a plurality of different kinds of works. In the present embodiment, a different work number is set in advance for each type of work handled by the robot 1, and one of them is selected.
When the robot 1 handles one type of workpiece 11, it is not necessary to select the type of workpiece, and in such a case, the workpiece number can be excluded from the display items.

(iv)ワークにおける撮像部位は、視覚認識装置3が撮像手段により撮像されたワークのどの部分を用いてワークの位置情報の算出を行うかを指すものである。本実施例の場合、視覚認識装置3を用いてワークの姿勢を計測するためには少なくともワークの異なる三箇所についての位置情報が必要であるため、ワークにおける撮像部位を三箇所選択可能としている。
なお、視覚認識装置が行う作業の内容やワークの形状によって、視覚認識装置が行う作業に必要なワークにおける撮像部位の数は変動する。また、ワークのある一箇所のみを計測すれば良い場合にはワークにおける撮像部位を選択する必要がないので、そのような場合には、ワークにおける撮像部位を表示項目の対象から外すことが可能である。
(Iv) The imaging part of the workpiece indicates which part of the workpiece imaged by the imaging means the visual recognition device 3 uses to calculate the position information of the workpiece. In the case of the present embodiment, in order to measure the posture of the work using the visual recognition device 3, position information about at least three different parts of the work is required, so that three imaging parts in the work can be selected.
Note that the number of imaging parts in the work necessary for the work performed by the visual recognition device varies depending on the content of the work performed by the visual recognition device and the shape of the work. In addition, when it is only necessary to measure a certain part of the workpiece, it is not necessary to select an imaging part in the work. In such a case, the imaging part in the work can be excluded from the display items. is there.

本実施例のロボット1のコントローラ4は、ティーチペンダント5の表示部53に表示されたパラメータ81の表示画面上の修正(追加、削除、書き換え等)を再生時の視覚認識装置3による視覚認識に反映させるためのプログラムを格納しており、当該プログラムが作動することにより、所定のプログラム言語により作成されているロボットアーム2の動作に係るプログラムのうち視覚認識処理に係る部分を修正(追加、削除、書き換え等)したのと同様の効果を得ることが可能である。
従って、作業者は、ロボットアーム2の教示作業時に、視覚認識処理の内容を修正するために所定のプログラム言語により作成されているロボットアーム2の動作に係るプログラムを直接的に修正せずとも、ティーチペンダント5の表示部53に表示されたパラメータ81を表示画面上で修正するだけで視覚認識装置3による視覚認識処理の内容を修正することが可能であり、作業性に優れる(作業の省力化、作業時間の短縮に寄与する)。
The controller 4 of the robot 1 according to the present embodiment makes correction (addition, deletion, rewriting, etc.) on the display screen of the parameter 81 displayed on the display unit 53 of the teach pendant 5 for visual recognition by the visual recognition device 3 during reproduction. Stores a program to be reflected, and corrects (adds or deletes) the part related to the visual recognition process in the program related to the operation of the robot arm 2 created in a predetermined program language when the program operates. , Rewriting, etc.) can be obtained.
Therefore, the operator does not directly correct the program related to the operation of the robot arm 2 created in a predetermined program language to correct the contents of the visual recognition process at the time of teaching work of the robot arm 2. It is possible to correct the contents of the visual recognition processing by the visual recognition device 3 only by correcting the parameter 81 displayed on the display unit 53 of the teach pendant 5 on the display screen, and the workability is excellent (labor saving of work). , Contribute to shortening the working time).

<補正処理の適用範囲の指定方法・表示方法>
本実施例のロボット1は、ティーチペンダント5の表示部53に時系列的に表示されたロボットアーム2の位置情報の所定の範囲の直上に補正処理開始マーカー82を表示し、所定の範囲の直下に補正処理終了マーカー83を表示することにより、ロボットアーム2の位置情報の所定の範囲を画面上で指定することができる。
図2に示す如く、本実施例の場合には、位置情報72と位置情報73の間に補正処理開始マーカー82を表示し、位置情報75と位置情報76の間に補正処理終了マーカー83が表示されているが、これは、位置情報73・74・75が「所定の範囲」として指定されていることを示す。
なお、補正処理開始マーカー82および補正処理終了マーカー83は、操作部52を操作することにより表示部53に表示される。
補正処理開始マーカー82は補正処理が開始される時点(静止位置または通過位置)を指定するものであり、補正処理終了マーカー83は補正処理が終了される時点(静止位置または通過位置)を指定するものである。
ここで、本出願における「補正処理」は、視覚認識装置により取得されたワークの位置情報に基づいて、予め設定されたロボットアームの一連の動作の全部または一部を、ワークの姿勢や位置に応じて適宜補正することを指す。
<Specifying / applying correction processing range>
The robot 1 of this embodiment displays a correction processing start marker 82 immediately above a predetermined range of the position information of the robot arm 2 displayed in time series on the display unit 53 of the teach pendant 5, and directly below the predetermined range. By displaying the correction processing end marker 83, a predetermined range of the position information of the robot arm 2 can be designated on the screen.
As shown in FIG. 2, in this embodiment, a correction processing start marker 82 is displayed between the position information 72 and the position information 73, and a correction processing end marker 83 is displayed between the position information 75 and the position information 76. However, this indicates that the position information 73, 74, 75 is designated as “predetermined range”.
The correction process start marker 82 and the correction process end marker 83 are displayed on the display unit 53 by operating the operation unit 52.
The correction process start marker 82 designates the time point when the correction process is started (still position or pass position), and the correction process end marker 83 designates the time point when the correction process is finished (still position or pass position). Is.
Here, the “correction processing” in the present application is based on the workpiece position information acquired by the visual recognition device, and all or part of a series of preset movements of the robot arm is changed to the posture and position of the workpiece. It means that correction is made accordingly.

ロボット1のコントローラ4は、表示部53に時系列的に表示されたロボットアーム2の位置情報71・72・73・74・75・76の所定の範囲を表示部53の画面上で指定した結果を、再生時のロボットアーム2の補正処理に反映させるためのプログラムを格納しており、当該プログラムが作動することにより、当該所定の範囲(より厳密には、所定の範囲に含まれるロボットアームの位置情報にそれぞれ対応する静止位置の間のロボットアーム2の動作)について補正処理を行うように所定のプログラム言語により作成されているロボットアーム2の動作に係るプログラムを修正したのと同様の効果を得ることが可能である。
従って、作業者は、ロボットアーム2の教示作業時に、所定のプログラム言語により作成されているロボットアーム2の動作に係るプログラムを直接的に修正せずとも、表示部53に表示されたロボットアーム2の位置情報の一部である位置情報73・74・75を補正処理開始マーカー82および補正処理終了マーカー83で挟むことにより画面上で指定するだけで、ロボットアーム2の一連の動作のうち、位置情報73・74・75に対応する動作に補正処理を適用することを容易に指定することが可能であり、教示作業時の作業性に優れる(教示作業の省力化、教示作業に係る作業時間の短縮に寄与する)。
また、作業者は、補正処理開始マーカー82および補正処理終了マーカー83の位置を見ればロボットアーム2の一連の動作のうち、どの動作が補正処理の適用範囲となるかを容易に把握することが可能であり、このことも教示作業時の作業性の向上に寄与する。
The controller 4 of the robot 1 designates a predetermined range of the position information 71, 72, 73, 74, 75, 76 of the robot arm 2 displayed in time series on the display unit 53 on the screen of the display unit 53. Is stored in the correction process of the robot arm 2 at the time of reproduction, and when the program operates, the predetermined range (more strictly, the robot arm included in the predetermined range The same effect as that obtained by correcting the program related to the operation of the robot arm 2 created in a predetermined program language so as to perform correction processing on the movement of the robot arm 2 between the stationary positions corresponding to the position information) It is possible to obtain.
Therefore, the operator can correct the robot arm 2 displayed on the display unit 53 without directly correcting the program related to the operation of the robot arm 2 created in a predetermined program language during the teaching work of the robot arm 2. The position information 73, 74, and 75, which is a part of the position information of the robot arm 2, is specified on the screen by sandwiching it between the correction processing start marker 82 and the correction processing end marker 83, and the position of the robot arm 2 can be It is possible to easily specify that the correction processing is applied to the operation corresponding to the information 73, 74, and 75, and the workability at the time of teaching work is excellent (labor saving of teaching work, work time related to teaching work is reduced) Contributes to shortening).
Further, the operator can easily grasp which operation is within the application range of the correction processing among the series of operations of the robot arm 2 by looking at the positions of the correction processing start marker 82 and the correction processing end marker 83. This also contributes to the improvement of workability during teaching work.

<補正処理に係るデータ格納構造>
ロボット1のコントローラ4は、表示部53に表示されたロボットアーム2の位置情報の所定の範囲を画面上で指定することにより再生時のロボットアーム2の動作の補正量を容易に算出可能とするために、図4の如きデータ格納構造を有する。
図4に示す如く、ロボット1のコントローラ4は、格納手段の所定の格納領域に、教示時における視覚認識処理を行う静止位置または通過位置(本実施例の場合、教示時における位置番号が「1」の静止位置または通過位置)を示すロボットアーム2の位置ベクトルA、教示時における視覚認識処理により算出されるワーク11の位置(本実施例の場合、教示時においてロボットアーム2が位置番号が「1」の静止位置または通過位置にあるときにロボットアーム側カメラ33により撮像された画像に基づいて算出されたワーク11の位置)を示す位置ベクトルB、教示時の補正処理適用範囲であるロボットアームの位置(本実施例の場合、教示時における補正処理の適用範囲のうち、最後の静止位置または通過位置である位置番号が「5」の静止位置または通過位置)を示す位置ベクトルC、再生時における視覚認識処理を行う静止位置または通過位置を示すロボットアームの位置ベクトルD、再生時における視覚認識処理により算出されるワークの位置ベクトルEが格納される。
そして、ロボット1のコントローラ4は、再生時のロボットアームの補正量を示す位置ベクトルFを、以下の数1を用いて算出する。
<Data storage structure related to correction processing>
The controller 4 of the robot 1 can easily calculate the correction amount of the operation of the robot arm 2 during reproduction by designating a predetermined range of the position information of the robot arm 2 displayed on the display unit 53 on the screen. Therefore, it has a data storage structure as shown in FIG.
As shown in FIG. 4, the controller 4 of the robot 1 has a stationary position or a passing position for performing visual recognition processing at the time of teaching (in this embodiment, the position number at teaching is “1” in a predetermined storage area of the storing means. Position vector A of the robot arm 2 indicating the position of the robot 11 and the position of the workpiece 11 calculated by the visual recognition processing at the time of teaching (in this embodiment, the position number of the robot arm 2 at the time of teaching is “ Position vector B indicating the position of the workpiece 11 calculated based on an image captured by the robot arm side camera 33 when the robot arm is at the stationary position or passing position of “1”, and the robot arm that is the correction processing application range at the time of teaching (In the case of this embodiment, the position number which is the last stationary position or passing position in the application range of the correction processing at the time of teaching is “5”. A position vector C indicating a stationary position or a passing position), a robot arm position vector D indicating a stationary position or a passing position for performing visual recognition processing during reproduction, and a workpiece position vector E calculated by visual recognition processing during reproduction. Stored.
Then, the controller 4 of the robot 1 calculates a position vector F indicating the correction amount of the robot arm at the time of reproduction using the following formula 1.

Figure 0004613752
Figure 0004613752

本実施例のロボット1のコントローラ4は、表示部53に時系列的に表示されたロボットアーム2の位置情報71・72・73・74・75・76、ロボットアーム2の位置情報71に付帯して表示された視覚認識処理に係るパラメータ81、あるいは補正処理の適用範囲を指定する補正処理開始マーカー82および補正処理終了マーカー83を適宜表示部53の画面上で修正した内容をロボットアーム2の再生時の動作に反映するためのプログラムを格納しているが、修正後の再生時におけるロボットアーム2の動作の補正量を算出するために必要な情報(位置ベクトルA・B・C・D・E)をコントローラ4の格納手段の所定の格納領域に格納することにより、これらから容易に再生時のロボットアームの補正量を示す位置ベクトルFを算出することが可能である。
また、表示部53に時系列的に表示されたロボットアーム2の位置情報71・72・73・74・75・76、ロボットアーム2の位置情報71に付帯して表示された視覚認識処理に係るパラメータ81、あるいは補正処理の適用範囲を指定する補正処理開始マーカー82および補正処理終了マーカー83を表示部53の画面上で修正した時点で、当該修正を反映して位置ベクトルA・B・C・D・Eは適宜修正されて格納されるので、所定のプログラム言語で作成されたロボットアーム2の動作に係るプログラムを直接的に修正せずとも同様の効果を得ることが可能であるとともに、再度の修正や復元にも柔軟に対応することが可能であり、作業性に優れる。
The controller 4 of the robot 1 of the present embodiment is attached to the position information 71, 72, 73, 74, 75, 76 of the robot arm 2 and the position information 71 of the robot arm 2 displayed in time series on the display unit 53. The robot arm 2 is reproduced by appropriately correcting the parameters 81 relating to the visual recognition processing displayed on the screen or the correction processing start marker 82 and the correction processing end marker 83 for specifying the application range of the correction processing on the screen of the display unit 53 as appropriate. Is stored in a program for reflecting the motion of the time, but information (position vectors A, B, C, D, E) necessary to calculate the correction amount of the motion of the robot arm 2 at the time of reproduction after correction is stored. ) Is stored in a predetermined storage area of the storage means of the controller 4 so that a position vector F indicating the correction amount of the robot arm at the time of reproduction can be easily obtained from these. It is possible to output.
Further, the position information 71, 72, 73, 74, 75, 76 of the robot arm 2 displayed in time series on the display unit 53, and the visual recognition process displayed in addition to the position information 71 of the robot arm 2 are related. When the parameter 81 or the correction process start marker 82 and the correction process end marker 83 that specify the application range of the correction process are corrected on the screen of the display unit 53, the position vectors A, B, C, Since D and E are appropriately modified and stored, it is possible to obtain the same effect without directly modifying the program related to the operation of the robot arm 2 created in a predetermined program language, and again It is possible to flexibly cope with the correction and restoration of the data, and the workability is excellent.

<再生時の動作時点の表示方法>
本実施例のロボット1は、再生時において、ティーチペンダント5のロボットアーム2が行っている動作に対応する位置情報を反転して(白黒を逆にして)表示する。図2の場合、位置情報74が反転して表示されているが、これはロボットアーム2が位置番号が「3」の静止位置または通過位置で静止した状態から位置番号が「4」の静止位置または通過位置で静止した状態に移行する途中であることを示している。
このように構成することにより、作業者はロボットアーム2の再生時の動作時点、すなわちロボットアーム2の動作の再生時においてロボットアーム2が一連の動作のどの部分を再生しているのか、を容易に把握することが可能である。
また、ロボット1に何らかのトラブルが発生してロボットアーム2が所定の静止位置または通過位置以外の位置で停止した場合、表示部53に表示されたどの位置情報が反転して表示されているかを見ることにより、ロボットアーム2の一連の動作のどの過程において停止したのかを容易に把握することが可能であり、ロボットアーム2の動作の教示作業の作業性が向上する(作業の省力化、作業時間の短縮に寄与する)。
なお、本実施例のロボット1の場合は、再生時のロボットアーム2の動作に対応するロボットアーム2の位置情報を反転して表示する構成としたが、再生時のロボットアーム2の動作に対応するロボットアーム2の位置情報を点滅して表示する構成としても、色を変えて表示する構成としても、所定のマークを付して表示する(例えば、位置番号の横に黒丸を表示する等)構成としても、略同様の効果を奏する。
<Display method of the operation point during playback>
The robot 1 of the present embodiment inverts and displays position information corresponding to the operation performed by the robot arm 2 of the teach pendant 5 (reversing black and white) during reproduction. In the case of FIG. 2, the position information 74 is displayed in reverse video. This is because the robot arm 2 is stationary at the position number “3” or at the passing position, and the stationary position is position number “4”. Or it shows that it is in the middle of shifting to the stationary state at the passing position.
With this configuration, the operator can easily determine which part of the series of operations the robot arm 2 is reproducing at the time of the operation of the robot arm 2 during reproduction, that is, at the time of reproducing the operation of the robot arm 2. It is possible to grasp.
Further, when some trouble occurs in the robot 1 and the robot arm 2 stops at a position other than a predetermined stationary position or passing position, which position information displayed on the display unit 53 is reversed and displayed. As a result, it is possible to easily grasp in which process of the series of operations of the robot arm 2 it is stopped, and the workability of the teaching operation of the operation of the robot arm 2 is improved (labor saving of work, work time) Contributes to shortening).
In the case of the robot 1 of this embodiment, the position information of the robot arm 2 corresponding to the operation of the robot arm 2 at the time of reproduction is reversed and displayed, but the operation of the robot arm 2 at the time of reproduction is supported. Whether the position information of the robot arm 2 to be blinked is displayed or displayed in a different color, the information is displayed with a predetermined mark (for example, a black circle is displayed next to the position number). Even in the configuration, there are substantially the same effects.

以上の如く、本実施例のロボット1は、
複数の関節を有し、先端部にハンド28が設けられたロボットアーム2と、
ワーク11を撮像する第一固定カメラ31、第二固定カメラ32、ロボットアーム側カメラ33、および第一固定カメラ31、第二固定カメラ32、ロボットアーム側カメラ33により撮像されたワーク11の画像に基づいてワーク11の位置情報を算出する視覚情報処理装置34を具備する視覚認識装置3と、
予め設定されたロボットアーム2の動作に係るプログラムおよび視覚認識装置3から取得したワーク11の位置情報に基づいてロボットアーム2の動作を制御するコントローラ4と、
ロボットアーム2の位置情報71・72・73・74・75・76を時系列的に表示し、かつ、視覚認識装置3がワーク11の位置情報を取得するためのパラメータ81をロボットアーム2の位置情報71に付帯して表示するティーチペンダント5(より厳密には、ティーチペンダント5の表示部53)と、
を具備するものである。
このように構成することにより、ロボット1の動作状況(より厳密には、ロボットアーム2および視覚認識装置3の動作状況)の把握が容易であり、教示作業時の作業性に優れる(作業の省力化、作業時間の短縮に寄与する)。
As described above, the robot 1 of this embodiment is
A robot arm 2 having a plurality of joints and having a hand 28 at the tip;
The first fixed camera 31, the second fixed camera 32, the robot arm side camera 33, and the image of the work 11 captured by the first fixed camera 31, the second fixed camera 32, and the robot arm side camera 33, which image the workpiece 11. A visual recognition device 3 including a visual information processing device 34 that calculates position information of the workpiece 11 based on the information;
A controller 4 for controlling the operation of the robot arm 2 based on a preset program related to the operation of the robot arm 2 and position information of the workpiece 11 acquired from the visual recognition device 3;
The position information 71, 72, 73, 74, 75, 76 of the robot arm 2 is displayed in time series, and the parameter 81 for the visual recognition device 3 to acquire the position information of the workpiece 11 is set to the position of the robot arm 2. A teach pendant 5 (more precisely, a display unit 53 of the teach pendant 5) that is displayed along with the information 71;
It comprises.
With this configuration, it is easy to grasp the operation state of the robot 1 (more strictly, the operation state of the robot arm 2 and the visual recognition device 3), and the workability during teaching work is excellent (labor saving work). And contribute to shortening work time).

また、ロボット1は、
ティーチペンダント5の表示部53に時系列的に表示されたロボットアーム2の位置情報の所定の範囲(位置情報73・74・75)を、画面上で補正処理開始マーカー82および補正処理終了マーカー83で挟んで指定することにより、当該指定されたロボットアーム2の位置情報に対応するロボットアーム2の動作の再生時に補正処理を適用するものである。
このように構成することにより、ロボットアーム2の教示作業時に、所定のプログラム言語により作成されているロボットアーム2の動作に係るプログラムを直接的に修正せずとも、表示部53に表示されたロボットアーム2の位置情報の一部である位置情報73・74・75を補正処理開始マーカー82および補正処理終了マーカー83で挟むことにより画面上で指定するだけで、ロボットアーム2の一連の動作のうち、位置情報73・74・75に対応する動作に補正処理を適用することを容易に指定することが可能であり、教示作業時の作業性に優れる(教示作業の省力化、教示作業に係る作業時間の短縮に寄与する)。
また、作業者は、補正処理開始マーカー82および補正処理終了マーカー83の位置を見ればロボットアーム2の一連の動作のうち、どの動作が補正処理の適用範囲となるかを容易に把握することが可能であり、このことも教示作業時の作業性の向上に寄与する。
In addition, the robot 1
A predetermined range (position information 73, 74, 75) of the position information of the robot arm 2 displayed in time series on the display unit 53 of the teach pendant 5 is displayed on the screen as a correction processing start marker 82 and a correction processing end marker 83. By specifying between them, correction processing is applied when reproducing the motion of the robot arm 2 corresponding to the position information of the designated robot arm 2.
With this configuration, the robot displayed on the display unit 53 can be corrected without directly correcting the program related to the operation of the robot arm 2 created in a predetermined program language during the teaching operation of the robot arm 2. Of the series of operations of the robot arm 2, the position information 73, 74, 75, which is a part of the position information of the arm 2, is simply specified on the screen by sandwiching it between the correction process start marker 82 and the correction process end marker 83. , It is possible to easily specify that the correction process is applied to the operation corresponding to the position information 73, 74, and 75, and the workability at the time of teaching work is excellent (labor saving of teaching work, work related to teaching work) Contributes to saving time).
Further, the operator can easily grasp which operation is within the application range of the correction processing among the series of operations of the robot arm 2 by looking at the positions of the correction processing start marker 82 and the correction processing end marker 83. This also contributes to the improvement of workability during teaching work.

また、ロボット1のコントローラ4は、
コントローラ4の所定の格納領域に格納された教示時のロボットアーム2の位置情報(位置ベクトルA)、再生時のロボットアーム2の位置情報(位置ベクトルD)、教示時のワーク11の位置情報(位置ベクトルB)、再生時のワーク11の位置情報(位置ベクトルE)および再生時の補正処理を適用するロボットアーム2の位置情報(位置ベクトルC)に基づいて再生時のロボットアーム2の動作の補正量(位置ベクトルF)を算出するものである。
このように構成することにより、容易に再生時のロボットアーム2の補正量を算出することが可能である。また、所定の格納領域にロボットアーム2の補正量を算出するための情報を格納しておくことにより、ロボットアーム2の動作に係るプログラムの再度の修正や復元にも柔軟に対応することが可能であり、作業性に優れる。
The controller 4 of the robot 1
Position information (position vector A) of the robot arm 2 at the time of teaching, position information (position vector D) of the robot arm 2 at the time of reproduction, position information of the workpiece 11 at the time of teaching (position vector A) stored in a predetermined storage area of the controller 4 Based on the position vector B), the position information of the workpiece 11 at the time of reproduction (position vector E), and the position information of the robot arm 2 to which the correction processing at the time of reproduction is applied (position vector C), the operation of the robot arm 2 at the time of reproduction A correction amount (position vector F) is calculated.
With this configuration, it is possible to easily calculate the correction amount of the robot arm 2 during reproduction. Further, by storing information for calculating the correction amount of the robot arm 2 in a predetermined storage area, it is possible to flexibly cope with re-correction and restoration of a program related to the operation of the robot arm 2. And excellent workability.

また、ロボット1のティーチペンダント5の表示部53が表示するロボットアーム2の位置情報71・72・73・74・75・76は、
ロボットアーム2の動作区分、ロボットアーム2の動作精度、ロボットアーム2の動作速度、ロボットアーム2の動作時の出力信号およびロボットアーム2の動作時の入力信号、に係る情報のうちの少なくとも一つを含むものである。
このように構成することにより、ロボットアーム2の動作状況や内容を容易に把握することが可能である。
The position information 71, 72, 73, 74, 75, 76 of the robot arm 2 displayed on the display unit 53 of the teach pendant 5 of the robot 1 is
At least one of the information related to the operation classification of the robot arm 2, the operation accuracy of the robot arm 2, the operation speed of the robot arm 2, the output signal when the robot arm 2 operates, and the input signal when the robot arm 2 operates Is included.
With this configuration, it is possible to easily grasp the operation status and contents of the robot arm 2.

また、ロボット1のティーチペンダント5の表示部53が表示するワーク11の位置情報を取得するためのパラメータ81は、
視覚認識方法の区分、撮像手段の区分、ワーク番号、ワークにおける撮像部位、に係る情報のうちの少なくとも一つを含むものである。
このように構成することにより、視覚認識処理が行われるタイミングや内容を容易に把握することが可能である。
The parameter 81 for acquiring the position information of the workpiece 11 displayed on the display unit 53 of the teach pendant 5 of the robot 1 is:
It includes at least one of information relating to the classification of the visual recognition method, the classification of the imaging means, the work number, and the imaging part of the work.
With this configuration, it is possible to easily grasp the timing and content of the visual recognition process.

また、ロボット1のティーチペンダント5の表示部53は、
再生時のロボットアーム2の動作に対応するロボットアーム2の位置情報を、反転して表示する、点滅して表示する、色を変えて表示する、または、所定のマークを付して表示するものである。
このように構成することにより、ロボットアーム2の再生時の動作時点を容易に把握することが可能である。
また、ロボット1に何らかのトラブルが発生してロボットアーム2が所定の静止位置以外の位置で停止した場合、表示部53に表示されたどの位置情報が反転等して表示されているかを見ることにより、ロボットアーム2の一連の動作のどの過程において停止したのかを容易に把握することが可能であり、教示作業の作業性が向上する(作業の省力化、作業時間の短縮に寄与する)。
The display unit 53 of the teach pendant 5 of the robot 1 is
Information indicating the position of the robot arm 2 corresponding to the operation of the robot arm 2 during reproduction is displayed inverted, blinking, displayed in a different color, or displayed with a predetermined mark. It is.
With this configuration, it is possible to easily grasp the operation time point when the robot arm 2 is reproduced.
In addition, when some trouble occurs in the robot 1 and the robot arm 2 stops at a position other than a predetermined stationary position, by checking which position information displayed on the display unit 53 is displayed inverted or the like. Thus, it is possible to easily grasp in which process of the series of operations of the robot arm 2 is stopped, and the workability of teaching work is improved (contributing to labor saving and shortening of work time).

また、本実施例のロボットの情報表示方法は、
複数の関節を有し、先端部にハンド28が設けられたロボットアーム2と、
ワーク11を撮像する第一固定カメラ31、第二固定カメラ32、ロボットアーム側カメラ33、および第一固定カメラ31、第二固定カメラ32、ロボットアーム側カメラ33により撮像されたワーク11の画像に基づいてワーク11の位置情報を算出する視覚情報処理装置34を具備する視覚認識装置3と、
予め設定されたロボットアーム2の動作に係るプログラムおよび視覚認識装置3から取得したワーク11の位置情報に基づいてロボットアーム2の動作を制御するコントローラ4と、
ロボットアーム2の動作に係る情報を表示するティーチペンダント5(より厳密には、ティーチペンダント5の表示部53)と、
を具備するロボット1の情報表示方法であって、
ティーチペンダント5(より厳密には、ティーチペンダント5の表示部53)に、ロボットアーム2の位置情報71・72・73・74・75・76を時系列的に表示し、かつ、視覚認識装置3がワーク11の位置情報を取得するためのパラメータ81をロボットアーム2の位置情報71に付帯して表示するものである。
このように構成することにより、ロボット1の動作状況(より厳密には、ロボットアーム2および視覚認識装置3の動作状況)の把握が容易であり、教示作業時の作業性に優れる(作業の省力化、作業時間の短縮に寄与する)。
Also, the robot information display method of this embodiment is
A robot arm 2 having a plurality of joints and having a hand 28 at the tip;
The first fixed camera 31, the second fixed camera 32, the robot arm side camera 33, and the image of the work 11 captured by the first fixed camera 31, the second fixed camera 32, and the robot arm side camera 33, which image the workpiece 11. A visual recognition device 3 including a visual information processing device 34 that calculates position information of the workpiece 11 based on the information;
A controller 4 for controlling the operation of the robot arm 2 based on a preset program related to the operation of the robot arm 2 and position information of the workpiece 11 acquired from the visual recognition device 3;
A teach pendant 5 (more precisely, a display unit 53 of the teach pendant 5) for displaying information relating to the operation of the robot arm 2,
An information display method for the robot 1 comprising:
The position information 71, 72, 73, 74, 75, 76 of the robot arm 2 is displayed in time series on the teach pendant 5 (more precisely, the display unit 53 of the teach pendant 5), and the visual recognition device 3 The parameter 81 for acquiring the position information of the workpiece 11 is added to the position information 71 of the robot arm 2 and displayed.
With this configuration, it is easy to grasp the operation state of the robot 1 (more strictly, the operation state of the robot arm 2 and the visual recognition device 3), and the workability during teaching work is excellent (labor saving work). And contribute to shortening work time).

また、本実施例のロボットの情報表示方法は、
ティーチペンダント5の表示部53に時系列的に表示されたロボットアーム2の位置情報の所定の範囲(位置情報73・74・75)を、画面上で補正処理開始マーカー82および補正処理終了マーカー83で挟んで指定することにより、当該指定されたロボットアーム2の位置情報に対応するロボットアーム2の動作の再生時に補正処理を適用するものである。
このように構成することにより、ロボットアーム2の教示作業時に、所定のプログラム言語により作成されているロボットアーム2の動作に係るプログラムを直接的に修正せずとも、表示部53に表示されたロボットアーム2の位置情報の一部である位置情報73・74・75を補正処理開始マーカー82および補正処理終了マーカー83で挟むことにより画面上で指定するだけで、ロボットアーム2の一連の動作のうち、位置情報73・74・75に対応する動作に補正処理を適用することを容易に指定することが可能であり、教示作業時の作業性に優れる(教示作業の省力化、教示作業に係る作業時間の短縮に寄与する)。
また、作業者は、補正処理開始マーカー82および補正処理終了マーカー83の位置を見ればロボットアーム2の一連の動作のうち、どの動作が補正処理の適用範囲となるかを容易に把握することが可能であり、このことも教示作業時の作業性の向上に寄与する。
Also, the robot information display method of this embodiment is
A predetermined range (position information 73, 74, 75) of the position information of the robot arm 2 displayed in time series on the display unit 53 of the teach pendant 5 is displayed on the screen as a correction processing start marker 82 and a correction processing end marker 83. By specifying between them, correction processing is applied when reproducing the motion of the robot arm 2 corresponding to the position information of the designated robot arm 2.
With this configuration, the robot displayed on the display unit 53 can be corrected without directly correcting the program related to the operation of the robot arm 2 created in a predetermined program language during the teaching operation of the robot arm 2. Of the series of operations of the robot arm 2, the position information 73, 74, 75, which is a part of the position information of the arm 2, is simply specified on the screen by sandwiching it between the correction process start marker 82 and the correction process end marker 83. , It is possible to easily specify that the correction process is applied to the operation corresponding to the position information 73, 74, and 75, and the workability at the time of teaching work is excellent (labor saving of teaching work, work related to teaching work) Contributes to saving time).
Further, the operator can easily grasp which operation is within the application range of the correction processing among the series of operations of the robot arm 2 by looking at the positions of the correction processing start marker 82 and the correction processing end marker 83. This also contributes to the improvement of workability during teaching work.

また、本実施例のロボットの情報表示方法の場合、
ロボット1のコントローラ4は、
コントローラ4の所定の格納領域に格納された教示時のロボットアーム2の位置情報(位置ベクトルA)、再生時のロボットアーム2の位置情報(位置ベクトルD)、教示時のワーク11の位置情報(位置ベクトルB)、再生時のワーク11の位置情報(位置ベクトルE)および再生時の補正処理を適用するロボットアーム2の位置情報(位置ベクトルC)に基づいて再生時のロボットアーム2の動作の補正量(位置ベクトルF)を算出するものである。
このように構成することにより、容易に再生時のロボットアーム2の補正量を算出することが可能である。また、所定の格納領域にロボットアーム2の補正量を算出するための情報を格納しておくことにより、ロボットアーム2の動作に係るプログラムの再度の修正や復元にも柔軟に対応することが可能であり、作業性に優れる。
In the case of the robot information display method of this embodiment,
The controller 4 of the robot 1
Position information (position vector A) of the robot arm 2 at the time of teaching, position information (position vector D) of the robot arm 2 at the time of reproduction, position information of the workpiece 11 at the time of teaching (position vector A) stored in a predetermined storage area of the controller 4 Based on the position vector B), the position information of the workpiece 11 at the time of reproduction (position vector E), and the position information of the robot arm 2 to which the correction processing at the time of reproduction is applied (position vector C), the operation of the robot arm 2 at the time of reproduction A correction amount (position vector F) is calculated.
With this configuration, it is possible to easily calculate the correction amount of the robot arm 2 during reproduction. Further, by storing information for calculating the correction amount of the robot arm 2 in a predetermined storage area, it is possible to flexibly cope with re-correction and restoration of a program related to the operation of the robot arm 2. And excellent workability.

また、本実施例のロボットの情報表示方法の場合、
また、ロボット1のティーチペンダント5の表示部53が表示するロボットアーム2の位置情報71・72・73・74・75・76は、
ロボットアーム2の動作区分、ロボットアーム2の動作精度、ロボットアーム2の動作速度、ロボットアーム2の動作時の出力信号およびロボットアーム2の動作時の入力信号、に係る情報のうちの少なくとも一つを含むものである。
このように構成することにより、ロボットアーム2の動作状況や内容を容易に把握することが可能である。
In the case of the robot information display method of this embodiment,
The position information 71, 72, 73, 74, 75, 76 of the robot arm 2 displayed on the display unit 53 of the teach pendant 5 of the robot 1 is
At least one of the information related to the operation classification of the robot arm 2, the operation accuracy of the robot arm 2, the operation speed of the robot arm 2, the output signal when the robot arm 2 operates, and the input signal when the robot arm 2 operates Is included.
With this configuration, it is possible to easily grasp the operation status and contents of the robot arm 2.

また、本実施例のロボットの情報表示方法の場合、
ロボット1のティーチペンダント5の表示部53が表示するワーク11の位置情報を取得するためのパラメータ81は、
視覚認識方法の区分、撮像手段の区分、ワーク番号、ワークにおける撮像部位、に係る情報のうちの少なくとも一つを含むものである。
このように構成することにより、視覚認識処理が行われるタイミングや内容を容易に把握することが可能である。
In the case of the robot information display method of this embodiment,
The parameter 81 for acquiring the position information of the workpiece 11 displayed on the display unit 53 of the teach pendant 5 of the robot 1 is:
It includes at least one of information relating to the classification of the visual recognition method, the classification of the imaging means, the work number, and the imaging part of the work.
With this configuration, it is possible to easily grasp the timing and content of the visual recognition process.

また、本実施例のロボットの情報表示方法の場合、
ロボット1のティーチペンダント5の表示部53は、
再生時のロボットアーム2の動作に対応するロボットアーム2の位置情報を、反転して表示する、点滅して表示する、色を変えて表示する、または、所定のマークを付して表示するものである。
このように構成することにより、ロボットアーム2の再生時の動作時点を容易に把握することが可能である。
また、ロボット1に何らかのトラブルが発生してロボットアーム2が所定の静止位置以外の位置で停止した場合、表示部53に表示されたどの位置情報が反転等して表示されているかを見ることにより、ロボットアーム2の一連の動作のどの過程において停止したのかを容易に把握することが可能であり、教示作業の作業性が向上する(作業の省力化、作業時間の短縮に寄与する)。
In the case of the robot information display method of this embodiment,
The display unit 53 of the teach pendant 5 of the robot 1 is
Information indicating the position of the robot arm 2 corresponding to the operation of the robot arm 2 during reproduction is displayed inverted, blinking, displayed in a different color, or displayed with a predetermined mark. It is.
With this configuration, it is possible to easily grasp the operation time point when the robot arm 2 is reproduced.
In addition, when some trouble occurs in the robot 1 and the robot arm 2 stops at a position other than a predetermined stationary position, by checking which position information displayed on the display unit 53 is displayed inverted or the like. Thus, it is possible to easily grasp in which process of the series of operations of the robot arm 2 is stopped, and the workability of teaching work is improved (contributing to labor saving and shortening of work time).

本発明に係るロボットの実施の一形態の全体模式図。1 is an overall schematic diagram of an embodiment of a robot according to the present invention. ティーチペンダントの表示部の表示画面を示す図。The figure which shows the display screen of the display part of a teach pendant. 表示部に表示される視覚認識処理に係るパラメータを示す図。The figure which shows the parameter which concerns on the visual recognition process displayed on a display part. コントローラの補正処理に係る情報の格納構造を示す図。The figure which shows the storage structure of the information which concerns on the correction process of a controller.

1 ロボット
2 ロボットアーム
3 視覚認識装置
4 コントローラ(制御装置)
5 ティーチペンダント
11 ワーク
28 ハンド(エンドエフェクタ)
31 第一固定カメラ(撮像手段)
32 第二固定カメラ(撮像手段)
33 ロボットアーム側カメラ(撮像手段)
34 視覚情報処理装置(ワーク位置情報算出手段)
53 表示部(表示装置)
DESCRIPTION OF SYMBOLS 1 Robot 2 Robot arm 3 Visual recognition apparatus 4 Controller (control apparatus)
5 Teach Pendant 11 Work 28 Hand (End Effector)
31 First fixed camera (imaging means)
32 Second fixed camera (imaging means)
33 Robot arm side camera (imaging means)
34 Visual information processing device (work position information calculation means)
53 Display unit (display device)

Claims (8)

複数の関節を有し、先端部にエンドエフェクタが設けられたロボットアームと、
ワークを撮像する撮像手段および該撮像手段により撮像されたワークの画像に基づいてワークの位置情報を算出するワーク位置情報算出手段を具備する視覚認識装置と、
予め設定されたロボットアームの動作に係るプログラムおよび視覚認識装置から取得したワークの位置情報に基づいてロボットアームの動作を制御する制御装置と、
ロボットアームの位置情報を上下に改行して時系列的に表示し、かつ、視覚認識装置がワークの位置情報を取得するためのパラメータを前記ロボットアームの位置情報に付帯して表示する表示装置と、
を具備し、
前記制御装置は、
予め設定されたロボットアームの動作に係るプログラムに従い、前記制御装置の所定の格納領域に格納された教示時のロボットアームの位置情報、再生時のロボットアームの位置情報、教示時のワークの位置情報、再生時のワークの位置情報および再生時の補正処理を適用するロボットアームの位置情報に基づいて再生時のロボットアームの動作の補正量を算出し、算出された再生時のロボットアームの動作の補正量に基づいて再生時のロボットアームの動作量を補正し、補正された動作量だけ前記ロボットアームを動作させ、
前記制御装置は、
前記表示装置に上下に改行して表示された前記ロボットアームの位置情報の行間となる位置に補正処理開始マーカーを表示するとともに前記ロボットアームの位置情報の行間であって前記補正処理開始マーカーよりも下方となる位置に補正処理終了マーカーを表示することにより、前記ロボットアームの位置情報のうち前記補正処理開始マーカーおよび前記補正処理終了マーカーにより挟まれた部分をロボットアームの位置情報の所定の範囲として指定し、当該所定の範囲として指定されたロボットアームの位置情報に対応するロボットアームの動作の再生時に補正処理を適用する、
ロボット。
A robot arm having a plurality of joints and provided with an end effector at the tip;
A visual recognition device comprising: an imaging means for imaging a workpiece; and a workpiece position information calculating means for calculating workpiece position information based on an image of the workpiece imaged by the imaging means;
A control device for controlling the operation of the robot arm based on a preset program related to the operation of the robot arm and the position information of the workpiece acquired from the visual recognition device;
A display device for displaying the position information of the robot arm in a time-series manner with line breaks up and down , and a parameter for the visual recognition device to acquire the position information of the work attached to the position information of the robot arm; ,
Equipped with,
The control device includes:
In accordance with a preset program related to the robot arm operation, the robot arm position information during teaching, the robot arm position information during reproduction, and the workpiece position information during teaching stored in a predetermined storage area of the control device. Based on the position information of the workpiece at the time of reproduction and the position information of the robot arm to which the correction process at the time of reproduction is applied, the correction amount of the movement of the robot arm at the time of reproduction is calculated, and the calculated movement amount of the robot arm at the time of reproduction is calculated. Based on the correction amount, correct the movement amount of the robot arm during playback, operate the robot arm by the corrected movement amount,
The control device includes:
A correction processing start marker is displayed at a position between the lines of the position information of the robot arm displayed on the display device with line breaks up and down, and between the lines of the position information of the robot arm and more than the correction processing start marker. By displaying a correction process end marker at a lower position, a portion sandwiched between the correction process start marker and the correction process end marker in the position information of the robot arm is set as a predetermined range of the position information of the robot arm. Specify and apply correction processing when reproducing the robot arm motion corresponding to the position information of the robot arm specified as the predetermined range,
robot.
前記表示装置が表示するロボットアームの位置情報は、
ロボットアームの動作区分、ロボットアームの動作精度、ロボットアームの動作速度、ロボットアームの動作時の出力信号およびロボットアームの動作時の入力信号、に係る情報のうちの少なくとも一つを含む請求項1に記載のロボット。
The position information of the robot arm displayed by the display device is
Actuation of the robot arm, according to claim 1 comprising operating accuracy of the robot arm, the operation speed of the robot arm, at least one of information relating to the input signal, at the time of operation of the output signal and the robot arm during the operation of the robot arm The robot described in 1.
前記表示装置が表示する前記視覚認識装置がワークの位置情報を取得するためのパラメータは、
視覚認識方法の区分、撮像手段の区分、ワーク番号、ワークにおける撮像部位、に係る情報のうちの少なくとも一つを含む請求項1または請求項2に記載のロボット。
Parameters for the visual recognition device to display the position information of the workpiece displayed by the display device,
The robot according to claim 1, comprising at least one of information relating to a classification of a visual recognition method, a classification of an imaging unit, a work number, and an imaging part of the work.
前記表示装置は、
再生時のロボットアームの動作に対応するロボットアームの位置情報を、反転して表示する、点滅して表示する、色を変えて表示する、または、所定のマークを付して表示する請求項1から請求項3までのいずれか一項に記載のロボット。
The display device
The position information of the robot arm corresponding to the operation of the robot arm at the time of reproduction is displayed inverted, blinking, displayed in a different color, or displayed with a predetermined mark. The robot according to any one of claims 1 to 3 .
複数の関節を有し、先端部にエンドエフェクタが設けられたロボットアームと、
ワークを撮像する撮像手段および該撮像手段により撮像されたワークの画像に基づいてワークの位置情報を算出するワーク位置情報算出手段を具備する視覚認識装置と、
予め設定されたロボットアームの動作に係るプログラムおよび視覚認識装置から取得したワークの位置情報に基づいてロボットアームの動作を制御する制御装置と、
ロボットアームの動作に係る情報を表示する表示装置と、
を具備するロボットの情報表示方法であって、
前記表示装置は、
ロボットアームの位置情報を上下に改行して時系列的に表示し、かつ、視覚認識装置がワークの位置情報を取得するためのパラメータを前記ロボットアームの位置情報に付帯して表示し、
前記制御装置は、
予め設定されたロボットアームの動作に係るプログラムに従い、前記制御装置の所定の格納領域に格納された教示時のロボットアームの位置情報、再生時のロボットアームの位置情報、教示時のワークの位置情報、再生時のワークの位置情報および再生時の補正処理を適用するロボットアームの位置情報に基づいて再生時のロボットアームの動作の補正量を算出し、算出された再生時のロボットアームの動作の補正量に基づいて再生時のロボットアームの動作量を補正し、補正された動作量だけ前記ロボットアームを動作させ、
前記制御装置は、
前記表示装置に上下に改行して表示された前記ロボットアームの位置情報の行間となる位置に補正処理開始マーカーを表示するとともに前記ロボットアームの位置情報の行間であって前記補正処理開始マーカーよりも下方となる位置に補正処理終了マーカーを表示することにより、前記ロボットアームの位置情報のうち前記補正処理開始マーカーおよび前記補正処理終了マーカーにより挟まれた部分をロボットアームの位置情報の所定の範囲として指定し、当該所定の範囲として指定されたロボットアームの位置情報に対応するロボットアームの動作の再生時に補正処理を適用する、
ロボットの情報表示方法。
A robot arm having a plurality of joints and provided with an end effector at the tip;
A visual recognition device comprising: an imaging means for imaging a workpiece; and a workpiece position information calculating means for calculating workpiece position information based on an image of the workpiece imaged by the imaging means;
A control device for controlling the operation of the robot arm based on a preset program related to the operation of the robot arm and the position information of the workpiece acquired from the visual recognition device;
A display device for displaying information related to the operation of the robot arm;
An information display method for a robot comprising:
The display device,
The position information of the robot arm is displayed in chronological order with line breaks up and down , and the parameters for the visual recognition device to acquire the position information of the work are displayed along with the position information of the robot arm ,
The control device includes:
The robot arm position information at the time of teaching, the position information of the robot arm at the time of reproduction, and the position information of the workpiece at the time of teaching stored in a predetermined storage area of the control device in accordance with a program related to the operation of the robot arm set in advance. Based on the position information of the workpiece at the time of reproduction and the position information of the robot arm to which the correction process at the time of reproduction is applied, the correction amount of the movement of the robot arm at the time of reproduction is calculated, and the calculated movement amount of the robot arm at the time of reproduction is calculated. Based on the correction amount, correct the movement amount of the robot arm during playback, operate the robot arm by the corrected movement amount,
The control device includes:
A correction processing start marker is displayed at a position between the lines of the position information of the robot arm displayed on the display device with line breaks up and down, and between the lines of the position information of the robot arm and more than the correction processing start marker. By displaying a correction process end marker at a lower position, a portion sandwiched between the correction process start marker and the correction process end marker in the position information of the robot arm is set as a predetermined range of the position information of the robot arm. Specify and apply correction processing when reproducing the robot arm motion corresponding to the position information of the robot arm specified as the predetermined range,
Robot information display method.
前記表示装置が表示するロボットアームの位置情報は、
ロボットアームの動作区分、ロボットアームの動作精度、ロボットアームの動作速度、ロボットアームの動作時の出力信号およびロボットアームの動作時の入力信号、に係る情報のうちの少なくとも一つを含む請求項5に記載のロボットの情報表示方法。
The position information of the robot arm displayed by the display device is
6. The apparatus according to claim 5 , comprising at least one of information relating to an operation classification of the robot arm, an operation accuracy of the robot arm, an operation speed of the robot arm, an output signal when the robot arm is operated, and an input signal when the robot arm is operated. The robot information display method described in 1.
前記表示装置が表示する前記視覚認識装置がワークの位置情報を取得するためのパラメータは、
視覚認識方法の区分、撮像手段の区分、ワーク番号、ワークにおける撮像部位、に係る情報のうちの少なくとも一つを含む請求項5または請求項6に記載のロボットの情報表示方法。
Parameters for the visual recognition device to display the position information of the workpiece displayed by the display device,
The robot information display method according to claim 5 , comprising at least one of information relating to a classification of a visual recognition method, a classification of an imaging unit, a work number, and an imaging part of the work.
前記表示装置は、
再生時のロボットアームの動作に対応するロボットアームの位置情報を、反転して表示する、点滅して表示する、色を変えて表示する、または、所定のマークを付して表示する請求項5から請求項7までのいずれか一項に記載のロボットの情報表示方法。
The display device
The position information of the robot arm corresponding to the operation of the robot arm at the time of reproduction, and displaying the inverted, displayed by blinking, and displays a different color, or claim 5 for displaying denoted by the predetermined mark The robot information display method according to any one of claims 1 to 7 .
JP2005249828A 2005-08-30 2005-08-30 Robot and robot information display method Expired - Fee Related JP4613752B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005249828A JP4613752B2 (en) 2005-08-30 2005-08-30 Robot and robot information display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005249828A JP4613752B2 (en) 2005-08-30 2005-08-30 Robot and robot information display method

Publications (2)

Publication Number Publication Date
JP2007061940A JP2007061940A (en) 2007-03-15
JP4613752B2 true JP4613752B2 (en) 2011-01-19

Family

ID=37924740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005249828A Expired - Fee Related JP4613752B2 (en) 2005-08-30 2005-08-30 Robot and robot information display method

Country Status (1)

Country Link
JP (1) JP4613752B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3178618B1 (en) * 2014-08-05 2020-05-06 Panasonic Intellectual Property Management Co., Ltd. Offline teaching device
JP6773713B2 (en) * 2018-03-29 2020-10-21 ファナック株式会社 Robot system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001222309A (en) * 2000-02-10 2001-08-17 Yaskawa Electric Corp Robot controller
JP2001236244A (en) * 2000-02-23 2001-08-31 Mitsubishi Electric Corp Debug system for robot program
JP2002301673A (en) * 2000-08-25 2002-10-15 Janome Sewing Mach Co Ltd Robot
JP2005066797A (en) * 2003-08-27 2005-03-17 Fanuc Ltd Robot program position correcting apparatus

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58114892A (en) * 1981-12-26 1983-07-08 日産自動車株式会社 Visual device for robot
JPS6353610A (en) * 1986-08-22 1988-03-07 Fanuc Ltd Off-line control executing method
JPH07122823B2 (en) * 1988-06-27 1995-12-25 株式会社日立製作所 Teaching and control method for robot / automatic machine with hand vision
JPH0619522A (en) * 1992-06-29 1994-01-28 Hitachi Constr Mach Co Ltd Robot controller
JP2816269B2 (en) * 1992-03-16 1998-10-27 ファナック株式会社 Robot operation program execution method
JPH06288731A (en) * 1993-04-01 1994-10-18 Komatsu Ltd Visual sensor
JP3832686B2 (en) * 1997-08-08 2006-10-11 株式会社安川電機 Robot operation program display device and control device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001222309A (en) * 2000-02-10 2001-08-17 Yaskawa Electric Corp Robot controller
JP2001236244A (en) * 2000-02-23 2001-08-31 Mitsubishi Electric Corp Debug system for robot program
JP2002301673A (en) * 2000-08-25 2002-10-15 Janome Sewing Mach Co Ltd Robot
JP2005066797A (en) * 2003-08-27 2005-03-17 Fanuc Ltd Robot program position correcting apparatus

Also Published As

Publication number Publication date
JP2007061940A (en) 2007-03-15

Similar Documents

Publication Publication Date Title
JP4167940B2 (en) Robot system
WO2020090809A1 (en) External input device, robot system, control method for robot system, control program, and recording medium
CN110977931A (en) Robot control device and display device using augmented reality and mixed reality
CN111093903B (en) Robot system and method for operating the same
JP6931457B2 (en) Motion generation method, motion generator, system and computer program
CN108235696B (en) Robot control method and apparatus
JP2010142910A (en) Robot system
JP2020015128A (en) Sensing system, work system, extended reality image display method, extended reality image memorizing method, and program
JP2004261878A (en) Control system using working robot, and work machining method using that control system
JP2013049102A (en) Robot control device and method of determining robot attitude
CN111093911B (en) Robot system and method for operating the same
JP2018167334A (en) Teaching device and teaching method
JP2018176332A (en) Device, system and method for automatically creating operation trajectory of robot
JP5729226B2 (en) Robot position and orientation interpolation method and robot control apparatus
JP2009190113A (en) Robot simulation device
JP2009172685A (en) Manipulator system and its control method
CN114055460B (en) Teaching method and robot system
JP4613752B2 (en) Robot and robot information display method
US20210260750A1 (en) Method to Modify a Program for Robotic Welding
WO2021166842A1 (en) Deburring device and control system
JP7190552B1 (en) Robot teaching system
JP7208443B2 (en) A control device capable of receiving direct teaching operations, a teaching device, and a computer program for the control device
JP2010172969A (en) Robot system and method of controlling robot
JP3218553B2 (en) Robot system control method and device
US20220355478A1 (en) Robot slider position setting device, robot slider position setting method, and robot slider position setting program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080506

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100921

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101004

R151 Written notification of patent or utility model registration

Ref document number: 4613752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131029

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees