JP2022015933A - Cooperation system - Google Patents

Cooperation system Download PDF

Info

Publication number
JP2022015933A
JP2022015933A JP2020119116A JP2020119116A JP2022015933A JP 2022015933 A JP2022015933 A JP 2022015933A JP 2020119116 A JP2020119116 A JP 2020119116A JP 2020119116 A JP2020119116 A JP 2020119116A JP 2022015933 A JP2022015933 A JP 2022015933A
Authority
JP
Japan
Prior art keywords
robot
posture
image
work
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020119116A
Other languages
Japanese (ja)
Other versions
JP6848110B1 (en
Inventor
秀樹 長末
Hideki NAGASUE
勇太 大場
Yuta Oba
秀明 田中
Hideaki Tanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DMG Mori Co Ltd
Original Assignee
DMG Mori Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DMG Mori Seiki Co Ltd filed Critical DMG Mori Seiki Co Ltd
Priority to JP2020119116A priority Critical patent/JP6848110B1/en
Application granted granted Critical
Publication of JP6848110B1 publication Critical patent/JP6848110B1/en
Publication of JP2022015933A publication Critical patent/JP2022015933A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To cause a robot to operate an operated part provided on an operation panel of an industrial machine even if a stop position of an unmanned transport vehicle varies in a cooperation system comprising the industrial machine and the unmanned transport vehicle on which the robot is mounted.SOLUTION: A position identification mark T1 is provided at a prescribed part of an operation panel 16 of an industrial machine, an unmanned transport vehicle or a robot 25 has a camera 31 which images the prescribed part of the operation panel 16 in the state that the unmanned transport vehicle 25 stops at a prescribed stop position. A control device for controlling the robot 25 and the unmanned transport vehicle executes: picking-up processing for causing the camera 31 to pick up an image of the prescribed part of the operation panel 16 in the state the unmanned transport vehicle is stopped at a work station; and operation processing for recognizing a positional relationship between operated parts 166 to 168 and the robot 25 on the basis of an image of the position identification mark T1 included in the picked-up image obtained by the picking-up processing, and for causing the robot 25 to operate the operated parts 166 to 168 of the operation panel 16 on the basis of the recognized positional relationship.SELECTED DRAWING: Figure 11

Description

被操作部が設けられた操作盤を有する産業機械と、前記産業機械に対して作業を行うロボットと、該ロボットを搭載し、前記産業機械に対して予め設定された作業位置に経由する無人搬送車と、前記ロボット及び前記無人搬送車を制御する制御装置とを備えた協働システムに関する。 An industrial machine having an operation panel provided with an operated unit, a robot that performs work on the industrial machine, and an automatic guided vehicle that is equipped with the robot and travels to a work position preset for the industrial machine. The present invention relates to a collaborative system including a vehicle and a control device for controlling the robot and the automatic guided vehicle.

従来、上述した協働システムの一例として、国際公開第2018/092222号(下記特許文献1)に開示された協働システムが知られている。この協働システムでは、ロボットを搭載した無人搬送車が、工作機械(産業機械の一例)に対して設定された作業位置に移動し、当該作業位置において、ロボットにより当該工作機械に対してワークの着脱等の作業が実行される。 Conventionally, as an example of the above-mentioned collaborative system, the collaborative system disclosed in International Publication No. 2018/092222 (Patent Document 1 below) is known. In this collaborative system, an automatic guided vehicle equipped with a robot moves to a work position set for a machine tool (an example of an industrial machine), and at that work position, the robot moves the work to the machine tool. Work such as attachment / detachment is executed.

この協働システムでは、工作機械の制御装置と、ロボット及び無人搬送車の制御装置とが、通信機器を介して信号を送受信することで、ロボットが工作機械に対して適切なタイミングで作業を行えるようになっている。 In this collaborative system, the control device of the machine tool and the control device of the robot and the automatic guided vehicle transmit and receive signals via the communication device, so that the robot can work on the machine tool at an appropriate timing. It has become like.

国際公開第2018/092222号International Publication No. 2018/092222

ところで、例えば旧式の工作機械(産業機械)等では、無人搬送車及びロボットとの通信を行うための通信機器を有していない機種や、通信機器を有していても通信規格が異なるために通信を行うことができない機種が存在する。 By the way, for example, in old-fashioned machine tools (industrial machines), models that do not have communication equipment for communicating with automatic guided vehicles and robots, and even if they have communication equipment, the communication standards are different. There are models that cannot communicate.

このような産業機械に対して、上述した特許文献1に示す無人搬送車及びロボットを用いた協働システムを適用しようとしても、無人搬送車及びロボットを制御する制御装置と、産業機械を制御する制御装置との間で通信を行うことができないので、ロボットの動作と産業機械の動作とを所定の順序通りに連携させることができず、協働システムとして成立し得ない。 Even if an attempt is made to apply a collaborative system using an automatic guided vehicle and a robot shown in Patent Document 1 to such an industrial machine, the control device for controlling the automatic guided vehicle and the robot and the industrial machine are controlled. Since it is not possible to communicate with the control device, the operation of the robot and the operation of the industrial machine cannot be linked in a predetermined order, and it cannot be established as a collaborative system.

これに対して、例えばオペレータが行う操作盤の操作をロボットに行わせることができれば、工作機械の動作とロボットの動作とを所定の順序通りに実行し、ロボットと工作機械との協働システムを実現できる可能性が高まる。 On the other hand, for example, if the robot can operate the operation panel performed by the operator, the operation of the machine tool and the operation of the robot are executed in a predetermined order, and a collaborative system between the robot and the machine tool is established. The possibility of achieving it increases.

しかし、無人搬送車に搭載されたロボットと、操作盤に設けられた操作ボタン(被操作部)との位置関係は、無人搬送車の停車位置のバラツキ等に起因して毎回変化するので、ロボットに被操作部を正確に操作させることは困難である。 However, the positional relationship between the robot mounted on the automatic guided vehicle and the operation button (operated part) provided on the operation panel changes each time due to variations in the stop position of the automatic guided vehicle, so the robot It is difficult to make the operated part operate accurately.

本発明は、以上の実情に鑑みてなされたものであって、無人搬送車の停車位置にバラツキが生じたとしても、ロボットに、産業機械の操作盤に設けられた被操作部を正確に操作させることができる協働システムを提供することを、その目的とする。 The present invention has been made in view of the above circumstances, and even if the stop position of the automatic guided vehicle varies, the robot can accurately operate the operated portion provided on the operation panel of the industrial machine. The purpose is to provide a collaborative system that can be made to work.

前記課題を解決するための本発明は、
被操作部が設けられた操作盤を有する産業機械と、前記産業機械に対して作業を行うロボットと、該ロボットを搭載し、前記産業機械に対して予め設定された作業位置に経由する無人搬送車と、前記ロボット及び前記無人搬送車を制御する制御装置とを備えた協働システムであって、
前記産業機械の前記操作盤の所定箇所には位置識別標識が設けられ、
前記無人搬送車又は前記ロボットは、前記無人搬送車が前記作業位置に停車した状態で前記操作盤の前記所定箇所を撮像可能なカメラを有し、
前記制御装置は、前記無人搬送車を前記作業位置に停車させた状態で、前記カメラに、前記操作盤の前記所定箇所を撮像させる撮像処理と、該撮像処理により得られた撮像画像中に含まれる前記位置識別標識の画像を基に、前記被操作部と前記ロボットとの位置関係を認識して、認識した該位置関係を基に、前記ロボットに前記操作盤の前記被操作部を操作させる操作処理とを実行可能に構成されている協働システムに係る。
The present invention for solving the above problems
An industrial machine having an operation panel provided with an operated unit, a robot that performs work on the industrial machine, and an automatic guided vehicle that is equipped with the robot and travels to a work position preset for the industrial machine. A collaborative system including a vehicle and a control device for controlling the robot and the automatic guided vehicle.
A position identification mark is provided at a predetermined position on the operation panel of the industrial machine.
The automatic guided vehicle or the robot has a camera capable of taking an image of the predetermined position on the operation panel while the automatic guided vehicle is stopped at the work position.
The control device is included in an image pickup process for causing the camera to take an image of the predetermined portion of the operation panel while the automatic guided vehicle is stopped at the work position, and an image captured image obtained by the image pickup process. The positional relationship between the operated unit and the robot is recognized based on the image of the position identification sign, and the robot is made to operate the operated unit of the operation panel based on the recognized positional relationship. It relates to a collaborative system that is configured to be able to execute operation processing.

この協働システムによれば、制御装置は、無人搬送車を産業機械の作業位置に停車させた状態で、撮像処理と操作処理とを実行可能になっている。この撮像処理では、制御装置による制御の下にカメラが作動して、操作盤の所定箇所の画像が該カメラにより撮像される。該所定箇所には位置識別標識が設けられるので、カメラによる撮像画像には、この位置識別標識の画像が含まれることとなる。前記操作処理では、制御部においてこの位置識別標識の画像を基に被操作部とロボットとの位置関係を認識する。そして、制御部は、認識した位置関係を基にロボットに操作盤の被操作部を操作させる。この操作部としては、例えば、工作機械(産業機械の一例)の操作盤に設けられた起動ボタン等が挙げられる。 According to this collaborative system, the control device can execute the imaging process and the operation process while the automatic guided vehicle is stopped at the working position of the industrial machine. In this imaging process, the camera operates under the control of the control device, and an image of a predetermined position on the operation panel is captured by the camera. Since the position identification mark is provided at the predetermined position, the image captured by the camera includes the image of the position identification mark. In the operation process, the control unit recognizes the positional relationship between the operated unit and the robot based on the image of the position identification mark. Then, the control unit causes the robot to operate the operated unit of the operation panel based on the recognized positional relationship. Examples of the operation unit include a start button provided on an operation panel of a machine tool (an example of an industrial machine).

斯くして、本発明の協働システムによれば、制御装置は、ロボットに操作盤の被操作部を操作させる際に、操作盤に設けられた位置識別標識の画像を基に、被操作部とロボットとの位置関係を認識するように構成されているので、無人搬送車の停車位置のバラツキが生じたとしても、ロボットによる被操作部の操作を正確に行うことができる。 Thus, according to the collaborative system of the present invention, when the control device causes the robot to operate the operated portion of the operation panel, the operated unit is based on the image of the position identification sign provided on the operation panel. Since it is configured to recognize the positional relationship between the robot and the robot, even if the stop position of the unmanned carrier varies, the robot can accurately operate the operated portion.

また、前記協働システムにおいて、前記産業機械は、前記被操作部に対する操作を待つ操作待ち状態にあるか否かを判定して、該操作待ち状態にあると判定した場合には、前記位置識別標識を前記カメラにより撮像可能な撮像可能状態にする一方、前記操作待ち状態にないと判定した場合に、前記位置識別標識を前記カメラにより撮像不能な撮像不能状態に切替える識別切替部を有し、前記制御装置は、前記無人搬送車を前記作業位置に停車させた状態で、前記撮像処理として、前記カメラにより前記操作盤の前記所定箇所を継続的に撮像する処理を実行し、該撮像処理により得られた撮像画像中に前記位置識別標識の画像が検出された場合に、前記操作処理を実行し、前記撮像画像中に前記位置識別標識の画像が検出されない場合には、前記操作処理を実行せずに前記カメラによる撮像を継続するように構成されている態様を採用することができる。 Further, in the collaborative system, the industrial machine determines whether or not it is in an operation waiting state waiting for an operation on the operated portion, and if it is determined that it is in the operation waiting state, the position identification is performed. It has an identification switching unit that switches the position identification marker to an image-capable state that cannot be imaged by the camera when it is determined that the marker is not in the operation waiting state while the image is enabled to be imaged by the camera. The control device executes a process of continuously imaging the predetermined position of the operation panel by the camera as the image pickup process in a state where the automatic guided vehicle is stopped at the work position, and the image pickup process is performed. When the image of the position identification marker is detected in the obtained captured image, the operation process is executed, and when the image of the position identification marker is not detected in the captured image, the operation process is executed. It is possible to adopt an embodiment configured to continue the image pickup by the camera without doing so.

この態様によれば、識別切替部において、産業機械が、被操作部に対する操作を待つ操作待ち状態にあるか否かが判定される。そして、識別部において、産業機械が操作待ち状態にあると判定された場合には、位置識別標識がカメラにより撮像可能な撮像可能状態とされる一方、操作待ち状態にないと判定された場合に、前記位置識別標識が前記カメラにより撮像不能な撮像不能状態に切替えられる。そして、制御装置による制御の下、無人搬送車が産業機械の作業位置に停車すると、前記カメラによって前記操作盤の前記所定箇所が継続的に撮像され、撮像画像中に位置識別標識の画像が検出された場合には、ロボットにより前記被操作部が操作され(操作処理が実行され)、位置識別標識の画像が検出されない場合には、ロボットによる当該操作は実行されず、産業機械は操作待ち状態を継続する。ここで言う、カメラにより継続的に撮像するとは、例えば動画撮影のように略連続的に行う撮像処理に限らず、例えば数秒置きに静止画像を撮像する処理を含む。 According to this aspect, in the identification switching unit, it is determined whether or not the industrial machine is in an operation waiting state waiting for an operation on the operated unit. Then, when the identification unit determines that the industrial machine is in the operation waiting state, the position identification mark is set to the image capable state that can be imaged by the camera, while it is determined that the industrial machine is not in the operation waiting state. , The position identification mark is switched to a non-capable state in which image cannot be captured by the camera. Then, when the automatic guided vehicle stops at the working position of the industrial machine under the control of the control device, the camera continuously captures the predetermined portion of the operation panel, and the image of the position identification marker is detected in the captured image. If this is done, the robot operates the operated portion (operation processing is executed), and if the image of the position identification sign is not detected, the operation by the robot is not executed and the industrial machine is in an operation waiting state. To continue. The continuous image pickup by the camera referred to here is not limited to the image pickup process performed substantially continuously, for example, as in moving image shooting, but includes, for example, a process of capturing a still image every few seconds.

これによれば、カメラによる撮像画像中に位置識別標識が検出されたことをトリガーとして、ロボットが操作盤の被操作部を操作するので、ロボットと産業機械とを、通信に依らずに協働させることができる。したがって、例えば、産業機械がロボットとの通信機器を有していない比較的古い機種である場合に、新たな通信機器を搭載することなくロボットと産業機械との協働システムを構築することができる。よって、通信機器を新たに搭載する必要がない分、ユーザのコスト負担を低減することができる。また、位置識別標識は、産業機械が被操作部に対する操作待ち状態にある場合にだけカメラにより撮像可能になるので、操作待ち状態でないにも拘わらず、被操作部が誤って操作されるのを防止することができる。 According to this, the robot operates the operated part of the operation panel triggered by the detection of the position identification mark in the image captured by the camera, so that the robot and the industrial machine cooperate without relying on communication. Can be made to. Therefore, for example, when the industrial machine is a relatively old model that does not have a communication device with the robot, it is possible to construct a collaborative system between the robot and the industrial machine without installing a new communication device. .. Therefore, it is possible to reduce the cost burden on the user because it is not necessary to newly install a communication device. Further, since the position identification mark can be imaged by the camera only when the industrial machine is in the operation waiting state for the operated part, the operated part is erroneously operated even though it is not in the operation waiting state. Can be prevented.

ここで、前記協働システムにおいて、前記操作盤は、情報を表示するモニタを有し、前記所定箇所は、前記モニタの画面の所定領域であり、前記識別切替部は、前記産業機械が前記操作待ち状態にあると判定した場合には、前記モニタの画面の前記所定領域に前記位置識別標識を表示させることで、該位置識別標識を前記撮像可能状態にする一方、前記産業機械が前記操作待ち状態にないと判定した場合には、該位置識別標識を前記モニタの画面の前記所定領域に表示させないことで、該位置識別標識を前記撮像不能状態にするように構成されている態様を採用することができる。 Here, in the collaborative system, the operation panel has a monitor for displaying information, the predetermined location is a predetermined area on the screen of the monitor, and the identification switching unit is operated by the industrial machine. When it is determined that the position identification sign is in the waiting state, the position identification sign is displayed in the predetermined area on the screen of the monitor so that the position identification sign can be imaged, while the industrial machine waits for the operation. When it is determined that the position is not in the state, the position identification sign is not displayed in the predetermined area on the screen of the monitor, so that the position identification sign is configured to be in the uncapable state. be able to.

この態様によれば、識別切替部は、操作盤に設けられたモニタの画面上において、位置識別標識の表示/非表示を切替える構成とされている。したがって、例えば操作盤に設けられた既存のモニタを利用して識別切替部の機能を容易に実現することができる。 According to this aspect, the identification switching unit is configured to switch the display / non-display of the position identification mark on the screen of the monitor provided on the operation panel. Therefore, for example, the function of the identification switching unit can be easily realized by using an existing monitor provided on the operation panel.

尚、識別切替部は、このようにモニタを用いた電子的手段に限ったものではなく、例えば、スライド式のシャッター等からなる可動部材を、位置識別標識を覆う覆い位置と位置識別標識を外部に露出させる露出位置とに切替える構成であってもよい。 The identification switching unit is not limited to electronic means using a monitor in this way. For example, a movable member made of a sliding shutter or the like is covered with a cover position covering the position identification mark and the position identification mark is externally attached. It may be configured to switch to the exposure position to be exposed to.

また、前記無人搬送車に搭載される前記ロボットは、該ロボットが備えるハンドの一部を前記操作盤の前記被操作部に接触させることで該被操作部を操作するように構成されている態様を採用することができる。 Further, the robot mounted on the automatic guided vehicle is configured to operate the operated portion by bringing a part of the hand included in the robot into contact with the operated portion of the operation panel. Can be adopted.

この態様によれば、ロボットに備わった既存のハンドの一部を利用して被操作部を操作することができるので、被操作部を操作するための操作部材を別途設ける場合に比べて、部品点数を削減してコスト低減することができる。 According to this aspect, since the operated portion can be operated by using a part of the existing hand provided in the robot, the parts can be operated as compared with the case where the operating member for operating the operated portion is separately provided. The points can be reduced and the cost can be reduced.

また、前記無人搬送車に搭載される前記ロボットは、該ロボットが備えるハンドに取付けられた操作部材を前記操作盤の前記被操作部に接触させることで該被操作部を操作するように構成されていて、前記操作部材が前記被操作部と接触した際の衝撃を緩和する緩衝部を有している態様を採用することができる。 Further, the robot mounted on the automatic guided vehicle is configured to operate the operated portion by bringing an operating member attached to a hand included in the robot into contact with the operated portion of the operation panel. Therefore, it is possible to adopt an embodiment having a cushioning portion that cushions the impact when the operating member comes into contact with the operated portion.

この態様によれば、ロボットが操作部材を被操作部に接触させる際の衝撃を緩衝部により緩和することができる。よって、操作部材による被操作部の操作を、機器類を破損することなく安全に行うことができる。 According to this aspect, the impact when the robot brings the operating member into contact with the operated portion can be alleviated by the cushioning portion. Therefore, the operated portion can be safely operated by the operating member without damaging the equipment.

また、前記協働システムにおいて、前記カメラは、前記無人搬送車に搭載された前記ロボットに設けられ、前記制御装置は、前記無人搬送車を前記作業位置に停車させた状態で、前記ロボットの姿勢を、前記カメラにより前記操作盤の前記所定箇所を撮像可能な撮像姿勢と、前記操作盤の前記被操作部を操作可能な操作姿勢と、前記産業機械に対して作業を行うための作業姿勢とに選択的に切替え可能に構成され、前記ロボットの前記撮像姿勢、前記操作姿勢、及び前記作業姿勢は、それぞれ、前記ロボットにティーチング操作することによって前記制御装置に予め記憶され、前記制御装置は、ティーチング操作時に、前記ロボットに前記撮像姿勢を取らせた状態で前記カメラにより撮像した前記位置識別標識の画像を基準画像として予め記憶しておき、自動運転用プログラムに基づく前記無人搬送車の自動運転時において、前記撮像処理を実行する際には、前記ロボットを前記撮像姿勢にした状態で前記カメラにより前記操作盤の前記所定箇所を撮像し、前記操作処理の実行に際しては、該撮像処理により得られた撮像画像中に含まれる前記位置識別標識の画像と前記基準画像とを比較することで、前記ロボットの現在の撮像姿勢とティーチング操作時の撮像姿勢との間の誤差量を算出し、算出した該誤差量に基づいて、前記被操作部と前記ロボットとの前記位置関係を認識し、認識した該位置関係を基に前記予め記憶した前記操作姿勢を補正して、前記ロボットに、補正した該操作姿勢を取らせることで前記操作盤の前記被操作部を操作させるように構成されている態様を採用することができる。 Further, in the collaborative system, the camera is provided on the robot mounted on the automatic guided vehicle, and the control device is a posture of the robot with the automatic guided vehicle stopped at the work position. An imaging posture in which the camera can image the predetermined location of the operation panel, an operation posture in which the operated portion of the operation panel can be operated, and a working posture for performing work on the industrial machine. The imaging posture, the operating posture, and the working posture of the robot are stored in advance in the control device by performing a teaching operation on the robot, respectively. At the time of the teaching operation, the image of the position identification marker captured by the camera with the robot taking the imaging posture is stored in advance as a reference image, and the automatic guided vehicle is automatically operated based on the automatic driving program. At times, when the image pickup process is executed, the predetermined location of the operation panel is imaged by the camera with the robot in the image pickup posture, and when the operation process is executed, the image pickup process is obtained. By comparing the image of the position identification marker included in the captured image with the reference image, the amount of error between the current imaging posture of the robot and the imaging posture during the teaching operation is calculated and calculated. Based on the error amount, the positional relationship between the operated portion and the robot was recognized, and the operation posture stored in advance was corrected based on the recognized positional relationship, and the robot was corrected. It is possible to adopt an embodiment configured to operate the operated portion of the operation panel by taking the operating posture.

この態様によれば、カメラはロボットに取付けられており、前記ロボットの姿勢として、カメラにより前記操作盤の前記所定箇所を撮像可能な撮像姿勢と、前記操作盤の被操作部を操作可能な操作姿勢と、産業機械に対して作業を行うための作業姿勢とが、ロボットへのティーチング操作によって予め制御装置に記憶されている。ロボットに撮像姿勢のティーチング操作を行う際には、このティーチング操作と併せて、前記カメラにより位置識別標識の画像が撮像され、基準画像として制御装置に予め記憶される。 According to this aspect, the camera is attached to the robot, and the posture of the robot is an imaging posture in which the camera can image the predetermined position of the operation panel and an operation in which the operated portion of the operation panel can be operated. The posture and the working posture for performing work on the industrial machine are stored in advance in the control device by the teaching operation to the robot. When the robot performs the teaching operation of the imaging posture, the image of the position identification mark is captured by the camera in addition to the teaching operation, and is stored in advance in the control device as a reference image.

そして、制御装置は、自動運転用プログラムに基づく前記無人搬送車の自動運転時において、前記カメラに撮像処理を実行させる際には、ロボットを撮像姿勢にした状態で前記カメラにより前記操作盤の前記所定箇所を撮像させる。そして、制御装置は、所定箇所に設けられた位置識別標識の画像を、ティーチング操作時に撮像した位置識別標識の画像である前記基準画像と比較することで、ロボットの現在の撮像姿勢とティーチング操作時の撮像姿勢との間の誤差量を算出する。制御装置は、算出した該誤差量に基づいて、前記被操作部と前記ロボットとの前記位置関係を認識し、認識した該位置関係を基に前記予め記憶した前記操作姿勢を補正して、前記ロボットに、補正した該操作姿勢を取らせることで前記操作盤の前記被操作部を操作させる。 Then, when the control device causes the camera to execute the image pickup process during the automatic operation of the automatic guided vehicle based on the automatic driving program, the control device uses the camera to perform the image pickup process on the operation panel while the robot is in the image pickup position. The image is taken at a predetermined location. Then, the control device compares the image of the position identification mark provided at the predetermined position with the reference image which is the image of the position identification mark captured during the teaching operation, thereby performing the current image pickup posture of the robot and the teaching operation. The amount of error between the image and the imaging posture is calculated. The control device recognizes the positional relationship between the operated portion and the robot based on the calculated error amount, corrects the operation posture stored in advance based on the recognized positional relationship, and causes the operation posture to be corrected. By causing the robot to take the corrected operation posture, the operated portion of the operation panel is operated.

斯くして、自動運転時にカメラにより撮像した位置識別標識の画像と、ティーチング操作時にカメラにより撮像した位置識別標識の画像である前記基準画像との比較を基に、ロボットの現在の撮像姿勢とティーチング操作時の撮像姿勢との間の誤差量を算出することで、ロボットと被操作部との位置関係を容易に認識することができる。 Thus, based on the comparison between the image of the position identification marker captured by the camera during automatic operation and the reference image which is the image of the position identification marker captured by the camera during the teaching operation, the robot's current imaging posture and teaching are performed. By calculating the amount of error between the image pickup posture during operation, the positional relationship between the robot and the operated portion can be easily recognized.

また、前記協働システムにおいて、前記産業機械は、ワークに対して所定の加工を行う工作機械である態様を採用することができる。これによれば、工作機械を含む生産システムに対して本発明の協働システムを適用することで、省人化を促進しつつ生産効率の向上を図ることができる。 Further, in the collaborative system, the industrial machine can adopt an aspect of being a machine tool that performs a predetermined processing on a work. According to this, by applying the collaborative system of the present invention to a production system including a machine tool, it is possible to improve production efficiency while promoting labor saving.

以上のように、本発明に係る協働システムよれば、産業機械の操作盤に設けられた位置識別標識の画像をカメラにより撮像して、撮像した位置識別標識の画像を基に、操作盤の被操作部とロボットとの位置関係を認識して、該認識した位置関係を基に、ロボットに被操作部を操作させるようにしたことで、無人搬送車の停車位置にバラツキが生じても、ロボットに被操作部を正確に操作させることができる。 As described above, according to the collaborative system according to the present invention, an image of a position identification marker provided on an operation panel of an industrial machine is captured by a camera, and the operation panel is based on the image of the image of the position identification tag captured. By recognizing the positional relationship between the operated unit and the robot and allowing the robot to operate the operated unit based on the recognized positional relationship, even if the stop position of the automatic guided vehicle varies. The robot can be made to operate the operated part accurately.

本発明の実施形態に係る協働システムの一例を示す平面図である。It is a top view which shows an example of the collaboration system which concerns on embodiment of this invention. 協働システムにおいて使用されるロボット及び無人搬送車を示す斜視図である。It is a perspective view which shows the robot and the automatic guided vehicle used in the collaborative system. 協働システムにおいて使用される工作機械(産業機械の一例)を示す斜視図である。It is a perspective view which shows the machine tool (an example of an industrial machine) used in a collaborative system. 工作機械における制御ブロック図であるIt is a control block diagram in a machine tool. 投入用のワーク受け部材にワークを支持させて、下刃物台を待機位置に位置させた状態を示す、工作機械の正面側から見た斜視図である。It is a perspective view seen from the front side of the machine tool which shows the state which supported the work by the work receiving member for loading, and was positioned the lower tool post in a standby position. 投入用のワーク受け部材にワークを支持させて、下刃物台をワーク着脱位置に位置させた状態を示す、工作機械の正面側から見た斜視図である。It is a perspective view seen from the front side of the machine tool which shows the state which supported the work by the work receiving member for loading, and was positioned the lower blade base at the work attachment / detachment position. 工作機械に付設されたNC操作盤を拡大して示す拡大斜視図である。It is an enlarged perspective view which shows the NC operation panel attached to a machine tool in an enlarged manner. 工作機械のNC操作盤に設けられたメインタッチパネルの表示画面の一例を示す概略図である。It is a schematic diagram which shows an example of the display screen of the main touch panel provided in the NC operation panel of a machine tool. (a)は、位置識別標識の一例を示す説明図であり、(b)は、自動運転時にロボットが撮像姿勢を取ったときに、カメラによる撮像画像中に含まれる位置識別標識の画像の一例を示した説明図である。(A) is an explanatory diagram showing an example of a position identification mark, and (b) is an example of an image of a position identification mark included in an image captured by a camera when the robot takes an imaging posture during automatic driving. It is explanatory drawing which showed. ロボット及び無人搬送車の制御ブロック図である。It is a control block diagram of a robot and an automatic guided vehicle. ロボットが撮像姿勢にある状態を示す斜視図である。It is a perspective view which shows the state which a robot is in an image pickup posture. ロボットが操作姿勢と取ることで、ハンドの一部がメインタッチパネルに表示された操作ボタンに接触する様子を示す概略側面図である。It is a schematic side view which shows a mode that a part of a hand touches an operation button displayed on the main touch panel by taking the operation posture by a robot. ロボット及び無人搬送車を制御する制御装置(AGV制御装置)により実行される制御処理の一例を示すフローチャートである。It is a flowchart which shows an example of the control process executed by the control device (AGV control device) which controls a robot and an automatic guided vehicle. 変形例1において、ロボットが扉開ボタンを操作した後にメインタッチパネルに表示される表示画面の一例を示す概略図である。FIG. 3 is a schematic view showing an example of a display screen displayed on the main touch panel after the robot operates the door open button in the first modification. 変形例2において、全てのワークの加工が完了したときに、メインタッチパネルに表示される表示画面の一例を示す概略図である。FIG. 2 is a schematic view showing an example of a display screen displayed on the main touch panel when the processing of all the workpieces is completed in the second modification. 変形例3を示す図12相当図である。FIG. 12 is a diagram corresponding to FIG. 12 showing a modification 3.

以下、本発明の具体的な実施形態について、図面を参照しながら説明する。 Hereinafter, specific embodiments of the present invention will be described with reference to the drawings.

(実施形態)
図1に示すように、本例の協働システム1は、産業機械としての工作機械10、無人搬送車35、この無人搬送車35に搭載されるロボット25、ロボット25に装着されるカメラ31、工作機械10を制御する制御装置17(以下、工作機械制御装置17という)、並びに、ロボット25及び無人搬送車35を制御する制御装置40(以下、AGV制御装置40という)などから構成される。工作機械制御装置17(後述する図4参照)は、AGV制御装置40(後述する図10参照)との間で通信を行うための通信機器を有していない。このため、AGV制御装置40は、工作機械制御装置17との通信に依らずに、カメラ31による撮像画像を基に、ロボット25に工作機械10のNC操作盤16を操作させて、ロボット25と工作機械10とを協働させる。
(Embodiment)
As shown in FIG. 1, the collaborative system 1 of this example includes a machine machine 10 as an industrial machine, an automatic guided vehicle 35, a robot 25 mounted on the automatic guided vehicle 35, and a camera 31 mounted on the robot 25. It is composed of a control device 17 (hereinafter referred to as a machine tool control device 17) for controlling the machine tool 10, a control device 40 (hereinafter referred to as an AGV control device 40) for controlling the robot 25 and the automatic guided vehicle 35, and the like. The machine tool control device 17 (see FIG. 4 described later) does not have a communication device for communicating with the AGV control device 40 (see FIG. 10 described later). Therefore, the AGV control device 40 causes the robot 25 to operate the NC operation panel 16 of the machine tool 10 based on the image captured by the camera 31 without relying on the communication with the machine tool control device 17, and the robot 25 and the robot 25. Cooperate with machine tool 10.

図2に示すように、前記無人搬送車35には、その上面である載置面36に前記ロボット25が搭載され、また、オペレータが携帯可能なAGV操作盤37(図1参照)が付設されている。尚、このAGV操作盤37は、データの入出力を行う入出力部、当該無人搬送車35及びロボット25を手動操作する操作部、並びに画面表示可能なディスプレイなどを備えている。 As shown in FIG. 2, the automatic guided vehicle 35 is equipped with the robot 25 mounted on a mounting surface 36 which is the upper surface thereof, and an AGV operation panel 37 (see FIG. 1) which can be carried by an operator. ing. The AGV operation panel 37 includes an input / output unit for inputting / outputting data, an operation unit for manually operating the automatic guided vehicle 35 and the robot 25, a display capable of displaying a screen, and the like.

また、無人搬送車35は、工場内における自身の位置を認識可能な位置センサ(例えば、レーザ光を用いた距離計測センサ)を備えており、AGV制御装置40による制御の下で、工場内を無軌道で走行するように構成され、本例では、前記工作機械10に対して設定された作業位置に経由する。AGV制御装置40は、無人搬送車35の筐体内に収容されている。 Further, the automatic guided vehicle 35 is equipped with a position sensor (for example, a distance measurement sensor using a laser beam) capable of recognizing its own position in the factory, and can move inside the factory under the control of the AGV control device 40. It is configured to travel on a non-track, and in this example, it goes through a working position set for the machine tool 10. The AGV control device 40 is housed in the housing of the automatic guided vehicle 35.

前記ロボット25は、第1アーム26、第2アーム27及び第3アーム28の3つのアームを備えた多関節型のロボットであり、第3アーム28の先端部にはエンドエフェクタとしてのハンド29が装着され、また、支持バー30を介して2つのカメラ31が装着されている。ハンド29は、ボディ291と、互い対向する一対の把持部材292とをしている。ハンド29は、一対の把持部材292によりワーク100を挟んで把持するように構成されている。 The robot 25 is an articulated robot having three arms, a first arm 26, a second arm 27, and a third arm 28, and a hand 29 as an end effector is attached to the tip of the third arm 28. It is mounted and two cameras 31 are mounted via the support bar 30. The hand 29 has a body 291 and a pair of gripping members 292 facing each other. The hand 29 is configured to sandwich and grip the work 100 by a pair of gripping members 292.

無人搬送車35の載置面36におけるロボット25よりも車両後側には、ワーク100を収納するバケット38が載置されている。バケット38は、加工前のワーク100を収納する加工前収納部38a(図1参照)と加工後のワーク100を収納する加工後収納部38bとに区画されている。ロボット25は、無人搬送車35が工作機械10の作業位置に停車した状態で、加工前収納部38aに収納された加工前のワーク100を取出して工作機械10に投入する一方、工作機械10から加工後のワーク100を取出して加工後収納部38bに収納する。 A bucket 38 for accommodating the work 100 is mounted on the rear side of the robot 25 on the mounting surface 36 of the automatic guided vehicle 35. The bucket 38 is divided into a pre-processing storage unit 38a (see FIG. 1) for storing the pre-processed work 100 and a post-processing storage unit 38b for accommodating the post-processing work 100. The robot 25 takes out the unmachined work 100 stored in the pre-machining storage unit 38a and puts it into the machine tool 10 while the automatic guided vehicle 35 is stopped at the work position of the machine tool 10. The machine tool 100 after processing is taken out and stored in the storage unit 38b after processing.

前記工作機械10は、固定工具を用いた旋削機能と、回転工具を用いた ミーリング機能とを有する複合型のNC(数値制御)工作機械である。 The machine tool 10 is a composite NC (numerical control) machine tool having a turning function using a fixed tool and a milling function using a rotary tool.

具体的には、工作機械10は、図3~図6に示すように、加工動作機構部20、NC操作盤16、及び工作機械制御装置17を備えている。 Specifically, as shown in FIGS. 3 to 6, the machine tool 10 includes a machining operation mechanism unit 20, an NC operation panel 16, and a machine tool control device 17.

加工動作機構部20は、図3に示すように、ワーク100を把持するチャック11が装着されるワーク主軸12と、回転工具が保持される工具主軸13と、旋削加工のための固定工具(図示省略)が取付けられる下刃物台14とを有している。ワーク主軸12は、チャック11にワーク100を保持した状態でZ軸に平行な軸線回りに回転可能に構成されている。工具主軸13は、回転工具(図示省略)をX軸に平行な軸線回りに回転駆動しつつ送り装置によってX軸方向、Y軸方向及びZ軸方向に移動可能に構成されている。下刃物台14は、Z軸と平行に延びる軸線回りに旋回可能な旋回部141(図5参照)を有していて、送り装置によってZ軸方向及びX軸方向に移動可能に構成されている。旋回部141の外周部には、固定工具を保持するためのホルダーが周方向に間隔を空けてZ軸を中心とする放射状に配置されている。 As shown in FIG. 3, the machining operation mechanism unit 20 includes a work spindle 12 on which a chuck 11 for gripping the work 100 is mounted, a tool spindle 13 on which a rotary tool is held, and a fixing tool for turning (not shown). It has a lower tool post 14 to which (omitted) is attached. The work spindle 12 is configured to be rotatable around an axis parallel to the Z axis while the work 100 is held by the chuck 11. The tool spindle 13 is configured to be movable in the X-axis direction, the Y-axis direction, and the Z-axis direction by a feeding device while rotationally driving a rotary tool (not shown) around an axis parallel to the X-axis. The lower tool post 14 has a swivel portion 141 (see FIG. 5) that can swivel around an axis extending parallel to the Z axis, and is configured to be movable in the Z-axis direction and the X-axis direction by a feeding device. .. Holders for holding the fixing tool are arranged radially around the Z axis at intervals in the circumferential direction on the outer peripheral portion of the swivel portion 141.

加工動作機構部20は、後述する工作機械制御装置17の数値制御部172から位置指令及び速度指令を受けたサーボ機構23(図4参照)によって駆動される。サーボ機構23は、例えば、サーボアンプと、サーボアンプにより駆動されるサーボモータと、サーボモータの回転角度をフィードバックするエンコーダと(いずれも図示せず)から構成される。そして、加工動作機構部20は、送り装置によって、X軸,Y軸及びZ軸の直交3軸方向において、回転工具、固定工具、及びワーク100を相対移動させることでワーク100を所定形状に加工する。 The machining operation mechanism unit 20 is driven by a servo mechanism 23 (see FIG. 4) that receives a position command and a speed command from the numerical control unit 172 of the machine tool control device 17, which will be described later. The servo mechanism 23 includes, for example, a servo amplifier, a servo motor driven by the servo amplifier, and an encoder (none of which is shown) that feeds back the rotation angle of the servo motor. Then, the machining operation mechanism unit 20 processes the work 100 into a predetermined shape by relatively moving the rotary tool, the fixing tool, and the work 100 in the orthogonal three-axis directions of the X-axis, the Y-axis, and the Z-axis by the feeding device. do.

加工動作機構部20の構成要素である前記下刃物台14は、ワーク100をワーク主軸12のチャック11に着脱する着脱機構としても機能する。この機能を実現するために、旋回部141は、回転工具の他に、ワーク受け部材142(図5参照)を装着可能に構成されている。ワーク受け部材142は、Z軸方向にて対向する一対の支持板に形成されたV字状の溝部142aによりワーク100を下方から支持する。本例では、ワーク受け部材142として、ワーク100を投入する際に使用する投入用のワーク受け部材142Aと、ワーク100を払出す際に使用する払出し用のワーク受け部材142Bとの二つが設けられている。下刃物台14は、XZ平面内において待機位置(図5の位置)とワーク着脱位置(図6の位置)との間で移動可能に構成されている。待機位置は、加工中のワーク100や回転工具がワーク受け部材142A,142Bと干渉しない位置に設定され、ワーク着脱位置は、ワーク100をチャック11に着脱可能な位置(つまり、ワーク100の一端部をチャック11に挿入支持させることが可能な位置)に設定されている。 The lower blade base 14, which is a component of the machining operation mechanism unit 20, also functions as a attachment / detachment mechanism for attaching / detaching the work 100 to / from the chuck 11 of the work spindle 12. In order to realize this function, the swivel portion 141 is configured so that the work receiving member 142 (see FIG. 5) can be mounted in addition to the rotary tool. The work receiving member 142 supports the work 100 from below by a V-shaped groove 142a formed in a pair of support plates facing each other in the Z-axis direction. In this example, two work receiving members 142 are provided: a work receiving member 142A for loading used when loading the work 100, and a work receiving member 142B for paying out used when paying out the work 100. ing. The lower blade base 14 is configured to be movable between a standby position (position in FIG. 5) and a work attachment / detachment position (position in FIG. 6) in the XZ plane. The standby position is set to a position where the work 100 or the rotary tool being machined does not interfere with the work receiving members 142A and 142B, and the work attachment / detachment position is a position where the work 100 can be attached / detached to / from the chuck 11 (that is, one end of the work 100). Is set to a position where the chuck 11 can be inserted and supported).

工作機械10は、ワーク100を加工する際に必要となる前記加工動作機構部20の他に、加工動作と直接関係しない補助装置21(図4参照)を有している。補助装置21の一例として、クーラント供給装置(図示省略)や、扉開閉装置22等が挙げられる。クーラント供給装置は、例えば加工時に回転中のワーク主軸12に向けてクーラントを吐出する。扉開閉装置22は、工作機械10の正面に形成されたアクセス開口10a(図3参照)を開閉する開閉扉15を駆動する。アクセス開口10aは、ワーク100の加工エリアの前側に位置している。開閉扉15は、左右方向にスライドすることでアクセス開口10aを開閉可能に構成されている。扉開閉装置22は、例えばエアシリンダとソレノイドバルブとから構成される。 The machine tool 10 has an auxiliary device 21 (see FIG. 4) that is not directly related to the machining operation, in addition to the machining operation mechanism unit 20 required for machining the work 100. Examples of the auxiliary device 21 include a coolant supply device (not shown), a door opening / closing device 22, and the like. The coolant supply device discharges the coolant toward the work spindle 12 that is rotating during processing, for example. The door opening / closing device 22 drives an opening / closing door 15 that opens / closes an access opening 10a (see FIG. 3) formed on the front surface of the machine tool 10. The access opening 10a is located on the front side of the processing area of the work 100. The opening / closing door 15 is configured to be able to open / close the access opening 10a by sliding in the left-right direction. The door opening / closing device 22 is composed of, for example, an air cylinder and a solenoid valve.

工作機械10のアクセス開口10aの右側にはNC操作盤16が配置されている。NC操作盤16は、オペレータの各種操作を受付けるとともに必要な情報を表示可能に構成されている。 The NC operation panel 16 is arranged on the right side of the access opening 10a of the machine tool 10. The NC operation panel 16 is configured to be able to receive various operations of the operator and display necessary information.

具体的には、NC操作盤16は、図7に示すように、操作面が水平面に対して僅かに傾いた主操作盤161と、主操作盤161よりも上側に位置し、操作面が前側を向く副操作盤162とを有している。主操作盤161には、工作機械10の使用時に必要な操作ボタン166~168を表示するメインタッチパネル163(モニタの一例)と、メインタッチパネル163の下側の領域に物理的に固定された複数のハードボタン164とが設けられている。ハードボタン164には、例えば緊急停止用の非常ボタン等が含まれる。副操作盤162には、工作機械10の稼働状況やジョブの進行状況等を表示するサブタッチパネル165が設けられている。 Specifically, as shown in FIG. 7, the NC operation panel 16 is located above the main operation panel 161 and the main operation panel 161 whose operation surface is slightly tilted with respect to the horizontal plane, and the operation surface is on the front side. It has an auxiliary operation panel 162 that faces. The main operation panel 161 includes a main touch panel 163 (an example of a monitor) that displays operation buttons 166 to 168 required when using the machine tool 10, and a plurality of physically fixed areas under the main touch panel 163. A hard button 164 is provided. The hard button 164 includes, for example, an emergency button for an emergency stop. The sub-operation panel 162 is provided with a sub-touch panel 165 that displays an operating status of the machine tool 10, a job progress status, and the like.

図8は、メインタッチパネル163に表示される操作画面の一例である。この操作画面は、情報領域r1と操作領域r2と標識表示領域r3との三つの領域で構成されている。 FIG. 8 is an example of an operation screen displayed on the main touch panel 163. This operation screen is composed of three areas, an information area r1, an operation area r2, and a sign display area r3.

前記情報領域r1は、NCプログラムの入力画面や、加工シミュレーション画像等、加工動作機構部20の動作制御に関連する種々の画面を表示するための領域である。 The information area r1 is an area for displaying various screens related to the operation control of the processing operation mechanism unit 20, such as an input screen of an NC program and a processing simulation image.

前記操作領域r2は、工作機械10の操作に必要な操作ボタン166~168(被操作部の一例)を表示するための領域である。操作ボタン166~168は、開閉扉15を開くための扉開ボタン166と、開閉扉15を閉じるための扉閉ボタン167と、NCプログラムを実行するための起動ボタン168とを含んでいる。以下の説明において、扉開ボタン166、扉閉ボタン167及び起動ボタン168を特に区別する必要がない場合には、操作ボタン166~168と称して説明を行う。メインタッチパネル163は、操作ボタン166~168が押されると、後述するシーケンス制御部171に向けてそれぞれの操作ボタン166~168に対応する操作信号を出力する。 The operation area r2 is an area for displaying operation buttons 166 to 168 (an example of an operated portion) necessary for operating the machine tool 10. The operation buttons 166 to 168 include a door open button 166 for opening the open / close door 15, a door close button 167 for closing the open / close door 15, and an start button 168 for executing an NC program. In the following description, when it is not necessary to particularly distinguish the door open button 166, the door close button 167 and the start button 168, they will be referred to as operation buttons 166 to 168. When the operation buttons 166 to 168 are pressed, the main touch panel 163 outputs operation signals corresponding to the respective operation buttons 166 to 168 toward the sequence control unit 171 described later.

前記標識表示領域r3は、位置識別標識T1を表示するための領域である。位置識別標識T1は、後述するようにロボット25と各操作ボタン166~168との位置関係を認識するために使用される。標識表示領域r3は、メインタッチパネル163の右下の隅部に位置している。標識表示領域r3が、メインタッチパネル163の所定領域に相当するとともにNC操作盤16の所定箇所に相当する。 The sign display area r3 is an area for displaying the position identification mark T1. The position identification mark T1 is used to recognize the positional relationship between the robot 25 and each of the operation buttons 166 to 168, as will be described later. The sign display area r3 is located in the lower right corner of the main touch panel 163. The sign display area r3 corresponds to a predetermined area of the main touch panel 163 and corresponds to a predetermined location of the NC operation panel 16.

工作機械制御装置17は、図4に示すように、シーケンス制御部171、数値制御部172、表示制御部173、シーケンスプログラム記憶部174、及びNCプログラム記憶部175等からなる。 As shown in FIG. 4, the machine tool control device 17 includes a sequence control unit 171, a numerical control unit 172, a display control unit 173, a sequence program storage unit 174, an NC program storage unit 175, and the like.

工作機械制御装置17は、CPU、RAM、ROMなどを含むコンピュータから構成され、シーケンス制御部171、数値制御部172、表示制御部173は、コンピュータプログラムによってその機能が実現され、後述する処理を実行する。また、シーケンスプログラム記憶部174及びNCプログラム記憶部175は、RAMなどの適宜記憶媒体から構成される。 The machine tool control device 17 is composed of a computer including a CPU, RAM, ROM, etc., and the sequence control unit 171, the numerical control unit 172, and the display control unit 173 realize their functions by a computer program and execute the processes described later. do. Further, the sequence program storage unit 174 and the NC program storage unit 175 are appropriately composed of storage media such as RAM.

シーケンス制御部171は、シーケンスプログラム記憶部174に予め記憶されたシーケンスプログラムを実行することで工作機械10の全体動作を制御する機能部である。 The sequence control unit 171 is a functional unit that controls the overall operation of the machine tool 10 by executing a sequence program stored in advance in the sequence program storage unit 174.

シーケンス制御部171は、NC操作盤16のメインタッチパネル163より起動ボタン168(図8参照)が押されたことを示す操作信号を受信した場合には、数値制御部172に対してNCプログラムの実行指令を出力する。 When the sequence control unit 171 receives an operation signal indicating that the start button 168 (see FIG. 8) has been pressed from the main touch panel 163 of the NC operation panel 16, the sequence control unit 171 executes the NC program to the numerical control unit 172. Output a command.

また、シーケンス制御部171は、NCプログラムを実行中に数値制御部172より所定の指令コード(例えばMコード)を受信した場合には、当該コードに対応する補助装置21のスイッチ(例えばソレノイド等)に作動信号を出力する。 Further, when the sequence control unit 171 receives a predetermined command code (for example, M code) from the numerical control unit 172 while executing the NC program, the switch (for example, solenoid or the like) of the auxiliary device 21 corresponding to the code is received. Outputs an operation signal to.

また、シーケンス制御部171は、NC操作盤16のメインタッチパネル163から扉閉ボタン167(図8参照)が押されたことを示す操作信号を受信した場合には、扉開閉装置22に対して開閉扉15を閉じる作動信号を出力し、扉開ボタン166が押されたことを示す操作信号を受信した場合には、扉開閉装置22に対して開閉扉15を開く作動信号を出力する。 Further, when the sequence control unit 171 receives an operation signal indicating that the door closing button 167 (see FIG. 8) has been pressed from the main touch panel 163 of the NC operation panel 16, the sequence control unit 171 opens / closes the door opening / closing device 22. When the operation signal for closing the door 15 is output and the operation signal indicating that the door open button 166 is pressed is received, the operation signal for opening the open / close door 15 is output to the door opening / closing device 22.

数値制御部172は、シーケンス制御部171からの実行指令を受けて、NCプログラム記憶部175に記憶されたNCプログラムを実行する機能部である。具体的には、数値制御部172は、NCプログラムを実行(解析)することで、加工動作機構部20を構成する各要素のX軸、Y軸及びZ軸に関する目標移動位置及び目標移動速度を認識し、認識した目標移動位置及び目標移動速度をサーボ機構23に対して制御信号として出力する。 The numerical control unit 172 is a functional unit that executes an NC program stored in the NC program storage unit 175 in response to an execution command from the sequence control unit 171. Specifically, the numerical control unit 172 executes (analyzes) the NC program to determine the target movement position and the target movement speed of each element constituting the machining operation mechanism unit 20 with respect to the X-axis, Y-axis, and Z-axis. It recognizes and outputs the recognized target movement position and target movement speed to the servo mechanism 23 as a control signal.

表示制御部173は、メインタッチパネル163及びサブタッチパネル165の表示画面を制御する機能部である。尚、サブタッチパネル165は、工作機械10の状態を監視するために補助的に設けられるものであるため、以下ではサブタッチパネル165の表示制御の詳細は省略し、メインタッチパネル163の表示制御についてのみ説明する。 The display control unit 173 is a functional unit that controls the display screens of the main touch panel 163 and the sub touch panel 165. Since the sub-touch panel 165 is provided as an auxiliary for monitoring the state of the machine tool 10, the details of the display control of the sub-touch panel 165 are omitted below, and only the display control of the main touch panel 163 will be described. do.

表示制御部173は、NC操作盤16の電源が投入されると、前記操作画面(図8参照)をメインタッチパネル163に表示する。表示制御部173は、工作機械10が、操作画面に表示された操作ボタン166~168に対する操作待ち状態にあるか否かを判定して、該操作待ち状態にあると判定した場合には、位置識別標識T1をメインタッチパネル163の標識表示領域r3に表示する一方、前記操作待ち状態にないと判定した場合には、位置識別標識T1を標識表示領域r3に表示しないように構成されている。この標識表示領域r3に位置識別標識T1が表示されている状態が撮像可能状態に相当し、位置識別標識T1が表示されていない状態が撮像不能状態に相当し、表示制御部173が識別切替部に相当する。操作待ち状態とは、工作機械10が次の動作(本例では次のワーク100の加工動作)に進むために三つの操作ボタン166~168のうち少なくとも一つの操作を待つ状態である。 When the power of the NC operation panel 16 is turned on, the display control unit 173 displays the operation screen (see FIG. 8) on the main touch panel 163. The display control unit 173 determines whether or not the machine tool 10 is in the operation waiting state for the operation buttons 166 to 168 displayed on the operation screen, and if it is determined that the machine tool 10 is in the operation waiting state, the position. The identification sign T1 is displayed in the sign display area r3 of the main touch panel 163, but when it is determined that the operation waiting state is not present, the position identification sign T1 is not displayed in the sign display area r3. The state in which the position identification mark T1 is displayed in the sign display area r3 corresponds to the image-capable state, the state in which the position identification mark T1 is not displayed corresponds to the image-capable state, and the display control unit 173 is the identification switching unit. Corresponds to. The operation waiting state is a state in which the machine tool 10 waits for at least one operation of the three operation buttons 166 to 168 in order to proceed to the next operation (in this example, the machining operation of the next work 100).

図9(a)は、前記標識表示領域r3に表示される位置識別標識T1の一例を示している。この位置識別標識T1は、複数の正方形をした画素が二次元に配列されたマトリクス構造を有するものであり、各画素が白または黒で表示されている。図9(a)では、黒色の画素に斜線を付している。 FIG. 9A shows an example of the position identification mark T1 displayed in the sign display area r3. The position identification mark T1 has a matrix structure in which a plurality of square pixels are arranged two-dimensionally, and each pixel is displayed in white or black. In FIG. 9A, the black pixels are shaded.

以上のように構成された工作機械10において、数値制御部172がNCプログラムを実行することで実現される加工動作機構部20の動作を説明する。 In the machine tool 10 configured as described above, the operation of the machining operation mechanism unit 20 realized by the numerical control unit 172 executing the NC program will be described.

開閉扉15が閉じた状態で、メインタッチパネル163の起動ボタン168が押されると、下刃物台14が、その旋回部141によって投入用のワーク受け部材142Aを上面に割り出した状態で、図5に示す待機位置から図6に示す着脱位置に移動する。図5及び図6では、見易さを考慮して開閉扉15が開いた状態を示しているが、実際のワーク投入時には開閉扉15は閉じている。 When the start button 168 of the main touch panel 163 is pressed with the opening / closing door 15 closed, the lower tool post 14 has the work receiving member 142A for loading indexed to the upper surface by the swivel portion 141, and is shown in FIG. It moves from the standby position shown to the attachment / detachment position shown in FIG. 5 and 6 show a state in which the opening / closing door 15 is opened in consideration of visibility, but the opening / closing door 15 is closed when the work is actually loaded.

下刃物台14の待機位置から着脱位置への移動に際しては、下刃物台14をX軸方向に沿って上側(図5の矢印D1方向)に移動させた後、Z軸方向に沿ってチャック11に接近する側(図5の矢印D2方向)に移動させる。これにより、ワーク受け部材142Aに支持されたワーク100がチャック11に挿入される。 When moving the lower tool post 14 from the standby position to the attachment / detachment position, the lower tool post 14 is moved upward (in the direction of arrow D1 in FIG. 5) along the X-axis direction, and then the chuck 11 is moved along the Z-axis direction. Move to the side approaching (in the direction of arrow D2 in FIG. 5). As a result, the work 100 supported by the work receiving member 142A is inserted into the chuck 11.

下刃物台14のZ軸方向(矢印D2方向)の移動が停止した後、チャック11が三つ爪を閉じてワーク100をチャックし、その後、加工動作機構部20の各構成要素によって、ワーク主軸12と回転工具と固定刃具との相対位置を変化させながらワーク100を所定の形状に加工する。 After the movement of the lower tool post 14 in the Z-axis direction (arrow D2 direction) is stopped, the chuck 11 closes the three claws to chuck the work 100, and then the work spindle is formed by each component of the machining operation mechanism unit 20. The work 100 is machined into a predetermined shape while changing the relative positions of the 12 and the rotary tool and the fixed cutting tool.

ワーク100の加工が完了した後は、下刃物台14が、旋回部141によって払出し用のワーク受け部材142B(図5のワーク100が位置する側とは反対側のワーク受け部材142B)を上面に割り出した状態で、前記待機位置から前記着脱位置に移動する。そして、この下刃物台14の着脱位置への移動が完了した後、チャック11の三つ爪を開いてワーク100のチャックを解除する。 After the machining of the work 100 is completed, the lower tool post 14 places the work receiving member 142B for payout (the work receiving member 142B on the side opposite to the side on which the work 100 is located in FIG. 5) on the upper surface by the swivel portion 141. In the indexed state, it moves from the standby position to the attachment / detachment position. Then, after the movement of the lower blade base 14 to the attachment / detachment position is completed, the three claws of the chuck 11 are opened to release the chuck of the work 100.

そうすると、ワーク100が払出し用のワーク受け部材142B(図6のワーク100が位置する側とは反対側のワーク受け部材142B)に支持された状態になるので、この状態で、下刃物台14をZ軸方向に沿ってチャック11から離間する側(矢印D3方向)に移動させる。これにより、ワーク100がチャック11から引き抜かれる。そして、下刃物台14は、ワーク100をチャック11から完全に引き抜く位置まで移動した後、X軸方向に沿って下側(矢印D4方向)に移動して前記待機位置に戻る。下刃物台14が待機位置に戻った後は、旋回部141を回転させて投入用のワーク受け部材142Aを上面に割り出す。以上の動作を持ってNCプログラムに基づく加工動作機構部20の加工動作(NCプログラムの1サイクル)が完了する。 Then, the work 100 is in a state of being supported by the work receiving member 142B for payout (the work receiving member 142B on the side opposite to the side on which the work 100 is located in FIG. 6). It is moved along the Z-axis direction to the side away from the chuck 11 (in the direction of arrow D3). As a result, the work 100 is pulled out from the chuck 11. Then, the lower blade base 14 moves to a position where the work 100 is completely pulled out from the chuck 11, and then moves downward (in the direction of arrow D4) along the X-axis direction to return to the standby position. After the lower blade base 14 returns to the standby position, the swivel portion 141 is rotated to index the work receiving member 142A for loading to the upper surface. With the above operation, the machining operation of the machining operation mechanism unit 20 based on the NC program (one cycle of the NC program) is completed.

そうして、加工動作機構部20によるワーク100の加工動作が完了すると(数値制御部172によるNCプログラムの実行が完了すると)、表示制御部173において工作機械10が操作待ち状態に切り替わったと判定され、メインタッチパネル163の標識表示領域r3に位置識別標識T1が表示される。その後、メインタッチパネル163の起動ボタン168が押されて、加工動作機構部20により次のワーク100の加工が開始すると、表示制御部173において前記操作待ち状態が解除されたと判定され、前記位置識別標識T1が非表示に切替わる。 Then, when the machining operation of the work 100 by the machining operation mechanism unit 20 is completed (when the execution of the NC program by the numerical control unit 172 is completed), the display control unit 173 determines that the machine tool 10 has been switched to the operation waiting state. , The position identification marker T1 is displayed in the sign display area r3 of the main touch panel 163. After that, when the start button 168 of the main touch panel 163 is pressed and the machining operation mechanism unit 20 starts machining the next work 100, the display control unit 173 determines that the operation waiting state has been released, and the position identification mark. T1 switches to non-display.

次に、図10を参照して、無人搬送車35及びロボット25を制御するAGV制御装置40について説明する。 Next, the AGV control device 40 that controls the automatic guided vehicle 35 and the robot 25 will be described with reference to FIG.

AGV制御装置40は、動作プログラム記憶部41、移動位置記憶部42、動作姿勢記憶部43、マップ情報記憶部44、基準画像記憶部45、手動運転制御部46、自動運転制御部47、マップ情報生成部48、位置認識部49、補正量算出部50及び入出力インターフェース51から構成される。そして、AGV制御装置40は、この入出力インターフェース51を介して、ロボット25、カメラ31、無人搬送車35及びAGV操作盤37に接続している。 The AGV control device 40 includes an operation program storage unit 41, a moving position storage unit 42, an operation posture storage unit 43, a map information storage unit 44, a reference image storage unit 45, a manual operation control unit 46, an automatic operation control unit 47, and map information. It is composed of a generation unit 48, a position recognition unit 49, a correction amount calculation unit 50, and an input / output interface 51. The AGV control device 40 is connected to the robot 25, the camera 31, the automatic guided vehicle 35, and the AGV operation panel 37 via the input / output interface 51.

尚、AGV制御装置40は、CPU、RAM、ROMなどを含むコンピュータから構成され、前記手動運転制御部46、自動運転制御部47、マップ情報生成部48、位置認識部49、補正量算出部50及び入出力インターフェース51は、コンピュータプログラムによってその機能が実現され、後述する処理を実行する。また、動作プログラム記憶部41、移動位置記憶部42、動作姿勢記憶部43、マップ情報記憶部44及び基準画像記憶部45はRAMなどの適宜記憶媒体から構成される。 The AGV control device 40 is composed of a computer including a CPU, RAM, ROM, etc., and includes the manual operation control unit 46, the automatic operation control unit 47, the map information generation unit 48, the position recognition unit 49, and the correction amount calculation unit 50. The function of the input / output interface 51 is realized by a computer program, and the processing described later is executed. Further, the operation program storage unit 41, the moving position storage unit 42, the operation posture storage unit 43, the map information storage unit 44, and the reference image storage unit 45 are composed of an appropriate storage medium such as a RAM.

前記手動運転制御部46は、オペレータにより前記AGV操作盤37から入力される操作信号に従って、前記無人搬送車35、ロボット25及びカメラ31を動作させる機能部である。即ち、オペレータは、この手動運転制御部46による制御の下で、AGV操作盤37を用いた、前記無人搬送車35、ロボット25及びカメラ31の手動操作を実行することができる。 The manual operation control unit 46 is a functional unit that operates the unmanned carrier 35, the robot 25, and the camera 31 according to an operation signal input from the AGV operation panel 37 by the operator. That is, the operator can manually operate the automatic guided vehicle 35, the robot 25, and the camera 31 using the AGV operation panel 37 under the control of the manual operation control unit 46.

前記動作プログラム記憶部41は、生産時に前記無人搬送車35及び前記ロボット25を自動運転するための自動運転用プログラム、並びに後述する工場内のマップ情報を生成する際に前記無人搬送車35を動作させるためのマップ生成用プログラムを記憶する機能部である。自動運転用プログラム及びマップ生成用プログラムは、例えば、前記AGV操作盤37に設けられた入出力部から入力され、当該動作プログラム記憶部41に格納される。 The operation program storage unit 41 operates the automatic guided vehicle 35 when generating an automatic driving program for automatically driving the automatic guided vehicle 35 and the robot 25 at the time of production, and map information in a factory to be described later. It is a functional part that stores a program for generating a map for making it. The automatic operation program and the map generation program are, for example, input from the input / output unit provided on the AGV operation panel 37 and stored in the operation program storage unit 41.

尚、この自動運転用プログラムには、無人搬送車35が移動する目標位置としての移動位置、移動速度及び無人搬送車35の向きに関する指令コードが含まれ、また、ロボット25が順次動作する当該動作に関する指令コード、及び前記カメラ31の操作に関する指令コードが含まれる。また、マップ生成用プログラムは、前記マップ情報生成部48においてマップ情報を生成できるように、無人搬送車35を無軌道で工場内を隈なく走行させるための指令コードが含まれる。 In addition, this automatic driving program includes a command code regarding a moving position, a moving speed, and a direction of the automatic guided vehicle 35 as a target position for the automatic guided vehicle 35 to move, and the operation of the robot 25 in which the robot 25 operates sequentially. A command code relating to the operation of the camera 31 and a command code relating to the operation of the camera 31 are included. Further, the map generation program includes a command code for running the automatic guided vehicle 35 without a track in the factory so that the map information generation unit 48 can generate map information.

前記マップ情報記憶部44は、無人搬送車35が走行する工場内に配置される機械、装置、機器など(装置等)の配置情報を含むマップ情報を記憶する機能部であり、このマップ情報は前記マップ情報生成部48によって生成される。 The map information storage unit 44 is a functional unit that stores map information including arrangement information of machines, devices, devices, etc. (devices, etc.) arranged in the factory where the automatic guided vehicle 35 travels. It is generated by the map information generation unit 48.

前記マップ情報生成部48は、詳しくは後述する前記AGV制御装置40の自動運転制御部47による制御の下で、前記動作プログラム記憶部41に格納されたマップ生成用プログラムに従って無人搬送車35を走行させた際に、前記位置センサによって検出される距離データから工場内の空間情報を取得するとともに、工場内に配設される装置等の平面形状を認識し、例えば、予め登録された装置等の平面形状を基に、工場内に配設された具体的な装置、本例では、工作機械10の位置、平面形状等(配置情報)を認識する。そして、マップ情報生成部48は、得られた空間情報及び装置等の配置情報を工場内のマップ情報として前記マップ情報記憶部44に格納する。 The map information generation unit 48 travels on the automatic guided vehicle 35 according to the map generation program stored in the operation program storage unit 41 under the control of the automatic operation control unit 47 of the AGV control device 40, which will be described in detail later. At the same time, spatial information in the factory is acquired from the distance data detected by the position sensor, and the planar shape of the equipment or the like arranged in the factory is recognized, for example, a device or the like registered in advance. Based on the planar shape, it recognizes a specific device arranged in the factory, in this example, the position of the machine tool 10, the planar shape, and the like (arrangement information). Then, the map information generation unit 48 stores the obtained spatial information and the arrangement information of the device and the like in the map information storage unit 44 as map information in the factory.

前記位置認識部49は、前記位置センサによって検出される距離データ、及び前記マップ情報記憶部44に格納された工場内のマップ情報を基に、工場内における無人搬送車35の位置を認識する機能部であり、この位置認識部49によって認識される無人搬送車35の位置に基づいて、当該無人搬送車35の動作が前記自動運転制御部47によって制御される。 The position recognition unit 49 has a function of recognizing the position of the automatic guided vehicle 35 in the factory based on the distance data detected by the position sensor and the map information in the factory stored in the map information storage unit 44. The operation of the automatic guided vehicle 35 is controlled by the automated guided vehicle 47 based on the position of the automatic guided vehicle 35 recognized by the position recognition unit 49.

前記移動位置記憶部42は、前記無人搬送車35が移動する具体的な目標位置としての移動位置であって、前記動作プログラム中の指令コードに対応した具体的な移動位置を記憶する機能部であり、この移動位置には、上述した工作機械10に対して設定される作業位置が含まれる。尚、この移動位置は、例えば、前記手動運転制御部46による制御の下、前記AGV操作盤37により前記無人搬送車35を手動運転して、目標とする各位置に移動させた後、前記位置認識部49によって認識される位置データを前記移動位置記憶部42に格納する操作によって設定される。この操作は所謂ティーチング操作と呼ばれる。 The moving position storage unit 42 is a moving position as a specific target position for the automatic guided vehicle 35 to move, and is a functional unit that stores a specific moving position corresponding to a command code in the operation program. Yes, this moving position includes a working position set for the machine tool 10 described above. The movement position is determined, for example, by manually driving the automatic guided vehicle 35 by the AGV operation panel 37 under the control of the manual operation control unit 46 to move the automatic guided vehicle 35 to each target position, and then moving the automatic guided vehicle 35 to the target position. It is set by an operation of storing the position data recognized by the recognition unit 49 in the moving position storage unit 42. This operation is a so-called teaching operation.

前記動作姿勢記憶部43は、前記ロボット25が所定の順序で動作することによって順次変化するロボット25の姿勢(動作姿勢)であって、前記動作プログラム中の指令コードに対応した動作姿勢に係るデータを記憶する機能部である。この動作姿勢に係るデータは、前記手動運転制御部46による制御の下で、前記AGV操作盤37を用いたティーチング操作により、当該ロボット25を手動運転して、目標とする各姿勢を取らせたときの、当該各姿勢におけるロボット25の各関節(モータ)の回転角度データであり、この回転角度データが動作姿勢に係るデータとして前記動作姿勢記憶部43に格納される。 The motion posture storage unit 43 is a posture (motion posture) of the robot 25 that changes sequentially when the robot 25 operates in a predetermined order, and is data related to the motion posture corresponding to the command code in the motion program. It is a functional part that memorizes. The data related to this operating posture was obtained by manually driving the robot 25 to take each target posture by a teaching operation using the AGV operation panel 37 under the control of the manual operation control unit 46. It is the rotation angle data of each joint (motor) of the robot 25 in each posture at that time, and this rotation angle data is stored in the movement posture storage unit 43 as data related to the movement posture.

ロボット25の具体的な動作姿勢としては、カメラ31がメインタッチパネル163の標識表示領域r3を撮像可能な撮像姿勢(図11参照)と、無人搬送車35が工作機械10の作業位置に停車した状態で、ハンド29によってメインタッチパネル163の操作ボタン166~168を操作可能な操作姿勢(図示省略)と、工作機械10に対して作業行うための作業姿勢(図示省略)とが設定される。 Specific operating postures of the robot 25 include an imaging posture in which the camera 31 can image the sign display area r3 of the main touch panel 163 (see FIG. 11) and a state in which the automatic guided vehicle 35 is stopped at the working position of the machine tool 10. Then, an operating posture (not shown) in which the operation buttons 166 to 168 of the main touch panel 163 can be operated by the hand 29 and a working posture (not shown) for performing work on the machine tool 10 are set.

前記撮像姿勢は、図11に示すように、例えば一対のカメラ31による光軸の先にメインタッチパネル163の標識表示領域r3が位置するように設定される。 As shown in FIG. 11, the imaging posture is set so that, for example, the sign display area r3 of the main touch panel 163 is located at the tip of the optical axis of the pair of cameras 31.

前記ロボット25の作業姿勢としては、ハンド29によって、載置面36に載置されたバケット38内の加工前のワーク100を把持して取出す取出し姿勢と、ハンド29によって、該取出した加工前のワーク100を工作機械10内の待機位置にある下刃物台14の投入用のワーク受け部材142Aにセットする投入姿勢と、工作機械10内の待機位置にある下刃物台14の払出し用のワーク受け部材142Bから、加工後のワーク100を把持して取出す払出し姿勢と、把持した加工後のワーク100をバケット38内に収納する収納姿勢とが設定される。 The working postures of the robot 25 include a taking-out posture in which the work 100 before processing in the bucket 38 mounted on the mounting surface 36 is gripped and taken out by the hand 29, and a taking-out posture before the processing taken out by the hand 29. The loading posture for setting the work 100 on the work receiving member 142A for loading the lower tool post 14 in the standby position in the machine tool 10 and the work receiving for paying out the lower tool post 14 in the standby position in the machine tool 10. A payout posture in which the machined work 100 is gripped and taken out from the member 142B and a storage posture in which the gripped work 100 is stored in the bucket 38 are set.

また、前記ロボット25の操作姿勢としては、ハンド29によってメインタッチパネル163の扉開ボタン166を押す扉開操作姿勢と、ハンド29によってメインタッチパネル163の扉閉ボタン167を押す扉閉操作姿勢と、ハンド29によってメインタッチパネル163の起動ボタン168を押す起動操作姿勢とが設定される。各操作姿勢では、例えば図12に示すように、ハンド29における一対の把持部材292の一方を、メインタッチパネル163の各操作ボタン166~168に押し当てる。このとき、把持部材292の先端のエッジ292aのみをメインタッチパネル163に接触させることで、各操作ボタン166~168をピンポイントで(正確に)操作することができる。エッジ292aは曲面状に形成されていることが好ましい。こうすることで、メインタッチパネル163にエッジ292aとの接触痕が生じるのを防止することができる。 The operation posture of the robot 25 includes a door open operation posture in which the door open button 166 of the main touch panel 163 is pushed by the hand 29, a door close operation posture in which the door close button 167 of the main touch panel 163 is pushed by the hand 29, and a hand. 29 sets the activation operation posture in which the activation button 168 of the main touch panel 163 is pressed. In each operating posture, for example, as shown in FIG. 12, one of the pair of gripping members 292 in the hand 29 is pressed against the operating buttons 166 to 168 of the main touch panel 163. At this time, by bringing only the edge 292a at the tip of the grip member 292 into contact with the main touch panel 163, each operation button 166 to 168 can be operated pinpointly (accurately). The edge 292a is preferably formed in a curved surface. By doing so, it is possible to prevent the main touch panel 163 from having contact marks with the edge 292a.

前記自動運転制御部47は、前記動作プログラム記憶部41に格納された自動運転用プログラム及びマップ生成用プログラムのいずれかを用い、当該プログラムに従って無人搬送車35、ロボット25及びカメラ31を動作させる機能部である。その際、前記移動位置記憶部42及び動作姿勢記憶部43に格納されたデータが必要に応じて使用される。自動運転制御部47による無人搬送車35及びロボット25の具体的な制御処理については後述する。 The automatic driving control unit 47 uses one of the automatic driving program and the map generation program stored in the operation program storage unit 41, and operates the automatic guided vehicle 35, the robot 25, and the camera 31 according to the program. It is a department. At that time, the data stored in the moving position storage unit 42 and the operating posture storage unit 43 are used as needed. The specific control processing of the automatic guided vehicle 35 and the robot 25 by the automatic operation control unit 47 will be described later.

前記基準画像記憶部45は、ティーチング操作時に、無人搬送車35が工作機械10に対して設定された作業位置に在り且つロボット25が撮像姿勢にあるときに、メインタッチパネル163の標識表示領域r3に表示された位置識別標識T1を、2つのカメラ31により撮像して得られた画像を、基準画像として記憶する機能部である。 The reference image storage unit 45 is displayed in the sign display area r3 of the main touch panel 163 when the automatic guided vehicle 35 is in the working position set for the machine tool 10 and the robot 25 is in the imaging posture during the teaching operation. It is a functional unit that stores an image obtained by capturing the displayed position identification marker T1 by two cameras 31 as a reference image.

前記補正量算出部50は、前記自動運転制御部47による制御の下で、前記動作プログラム記憶部41に格納された自動運転用プログラムに従って前記ロボット25が自動運転される際に、当該ロボット25が撮像姿勢に在り、2つのカメラ31によって前記位置識別標識T1が撮像されると、当該自動運転時に得られた位置識別標識T1の画像と、前記基準画像記憶部45に格納された基準画像とを基に、ティーチング操作時におけるロボット25の撮像姿勢と、自動運転時におけるロボット25の撮像姿勢との誤差量を算出する。 When the robot 25 is automatically operated according to the automatic operation program stored in the operation program storage unit 41 under the control of the automatic operation control unit 47, the correction amount calculation unit 50 causes the robot 25 to operate. When the position identification marker T1 is imaged by the two cameras 31 in the imaging posture, the image of the position identification tag T1 obtained during the automatic operation and the reference image stored in the reference image storage unit 45 are displayed. Based on this, the amount of error between the imaging posture of the robot 25 during the teaching operation and the imaging posture of the robot 25 during the automatic operation is calculated.

図9(b)に自動運転時に撮像された位置識別標識T1の一例を示している。前記カメラ31は所謂ステレオカメラであり、これらによって得られる画像から、カメラ31と位置識別標識T1との間の相対的な位置関係、及び位置識別標識T1に対するカメラ31の回転角、例えば、直交3軸周りの回転角を算出することができる。斯くして、前記基準画像を基に算出される位置関係及び回転角、並びに自動運転時に得られる画像を基に算出される位置関係及び回転角から、ティーチング時の撮像姿勢と、自動運転時の撮像姿勢との間の誤差量を算出することができる。 FIG. 9B shows an example of the position identification mark T1 imaged during automatic operation. The camera 31 is a so-called stereo camera, and from the images obtained by these, the relative positional relationship between the camera 31 and the position identification marker T1 and the rotation angle of the camera 31 with respect to the position identification marker T1, for example, orthogonal 3 The angle of rotation around the axis can be calculated. Thus, from the positional relationship and angle of rotation calculated based on the reference image, and the positional relationship and angle of rotation calculated based on the image obtained during automatic operation, the imaging posture during teaching and the imaging posture during automatic operation are used. The amount of error between the imaging posture and the image can be calculated.

そして、補正量算出部50は、ロボット25に操作姿勢を取らせたときにロボット25と各操作ボタン166~168との位置関係が、ティーチング操作時と比べて前記誤差量分だけずれると認識(推定)して、認識したずれ量を補正するべく、ロボット25を各操作姿勢に移行させる際のティーチングデータの補正量を算出する。換言すると、補正量算出部50は、位置識別標識T1の画像を基に、ロボット25と各操作ボタン166~168との位置関係を認識し、認識した位置関係を基に、ロボット25の各操作姿勢の補正量を算出する。 Then, the correction amount calculation unit 50 recognizes that the positional relationship between the robot 25 and each of the operation buttons 166 to 168 is deviated by the error amount as compared with the teaching operation when the robot 25 is made to take the operation posture ( Estimate), and in order to correct the recognized deviation amount, the correction amount of the teaching data when the robot 25 is shifted to each operation posture is calculated. In other words, the correction amount calculation unit 50 recognizes the positional relationship between the robot 25 and each of the operation buttons 166 to 168 based on the image of the position identification mark T1, and based on the recognized positional relationship, each operation of the robot 25. Calculate the posture correction amount.

尚、本例では、バケット38内の加工前のワーク100を取出す取出し姿勢、及び、バケット38内に加工後のワーク100を収納する収納姿勢については、無人搬送車35の停車位置にバラツキが生じたとしても、ロボット25とバケット38内のワーク100との位置関係は変化しないので、補正を行わない。また、投入用のワーク受け部材142Aにワーク100を投入する投入姿勢、及び、払出し用のワーク受け部材142Bからワーク100を払出す払出し姿勢についても、各ワーク受け部材142A,142Bの溝部142aによるワーク100の位置ずれ許容度が比較的大きいので、補正を行わない。これにより、ロボット25の姿勢補正が不必要に実行されてロボット25の動作が遅延するのを防止している。 In this example, the stop position of the automatic guided vehicle 35 varies with respect to the taking-out posture in which the work 100 before processing in the bucket 38 is taken out and the storage posture in which the work 100 after processing is stored in the bucket 38. Even if this is the case, the positional relationship between the robot 25 and the work 100 in the bucket 38 does not change, so no correction is performed. Further, regarding the loading posture in which the work 100 is loaded into the work receiving member 142A for loading and the dispensing posture in which the work 100 is discharged from the work receiving member 142B for dispensing, the work by the groove portions 142a of the work receiving members 142A and 142B is also provided. Since the misalignment tolerance of 100 is relatively large, no correction is performed. This prevents the robot 25 from being unnecessarily executed for posture correction and delaying the operation of the robot 25.

図13は、AGV制御装置40により実行される無人搬送車35及びロボット25の自動運転制御の一例を示すフローチャートである。 FIG. 13 is a flowchart showing an example of automatic operation control of the automatic guided vehicle 35 and the robot 25 executed by the AGV control device 40.

この自動運転制御では、先ず、自動運転制御部47が、動作プログラム記憶部41に記憶された動作プログラムに従って、無人搬送車35を工作機械10に対して設定された作業位置に停車させる(ステップS1)。 In this automatic operation control, first, the automatic operation control unit 47 stops the automatic guided vehicle 35 at the work position set for the machine tool 10 according to the operation program stored in the operation program storage unit 41 (step S1). ).

自動運転制御部47は、無人搬送車35を前記作業位置に停車させた後、ロボット25に撮像姿勢(図11参照)を取らせるとともにカメラ31に撮像処理を開始させる(ステップS2)。 After stopping the automatic guided vehicle 35 at the work position, the automatic driving control unit 47 causes the robot 25 to take an imaging posture (see FIG. 11) and causes the camera 31 to start the imaging process (step S2).

次いで、自動運転制御部47は、カメラ31による撮像画像を取得し、取得した撮像画像中に、位置識別標識T1を検出したか否かを判定する(ステップS3)。 Next, the automatic driving control unit 47 acquires an image captured by the camera 31 and determines whether or not the position identification mark T1 is detected in the acquired image (step S3).

ここで、工作機械10が、メインタッチパネル163の操作ボタン166~168に対する操作待ち状態にある場合には、上述したように、工作機械10の表示制御部173によって標識表示領域r3(図8参照)に位置識別標識T1が表示される。 Here, when the machine tool 10 is in the operation waiting state for the operation buttons 166 to 168 of the main touch panel 163, as described above, the display control unit 173 of the machine tool 10 indicates the mark display area r3 (see FIG. 8). The position identification mark T1 is displayed on the.

自動運転制御部47では、撮像画像中に位置識別標識T1を検出できない場合(ステップS3でNOの場合)には、工作機械10が操作待ち状態でないものとして、ロボット25を撮像姿勢に維持してカメラ31による撮像処理を継続する。 When the position identification marker T1 cannot be detected in the captured image (NO in step S3), the automatic operation control unit 47 maintains the robot 25 in the imaging posture assuming that the machine tool 10 is not in the operation waiting state. The image pickup process by the camera 31 is continued.

一方、自動運転制御部47では、撮像画像中に位置識別標識T1を検出した場合(ステップS3でYESの場合)には、工作機械10が操作待ち状態にあるものとして、ロボット25に操作ボタン166~168を操作させる前準備として、補正量算出部50にロボット25の操作姿勢の補正量を算出させる。具体的には、補正量算出部50は、上述したように、位置識別標識T1の画像を基に、ロボット25と、メインタッチパネル163の各操作ボタン166~168との位置関係を認識し(ステップS4)、認識した位置関係を基に、ロボット25の操作姿勢の補正量を算出する(ステップS5)。 On the other hand, when the automatic operation control unit 47 detects the position identification marker T1 in the captured image (YES in step S3), it is assumed that the machine tool 10 is in the operation waiting state, and the operation button 166 is applied to the robot 25. As a preparation for operating ~ 168, the correction amount calculation unit 50 is made to calculate the correction amount of the operation posture of the robot 25. Specifically, as described above, the correction amount calculation unit 50 recognizes the positional relationship between the robot 25 and the operation buttons 166 to 168 of the main touch panel 163 based on the image of the position identification mark T1 (step). S4), the correction amount of the operating posture of the robot 25 is calculated based on the recognized positional relationship (step S5).

そして、自動運転制御部47は、前記補正量算出部50が算出した補正量を基に、動作姿勢記憶部43に記憶されたロボット25の扉開操作姿勢を補正して、ロボット25に該補正した扉開操作姿勢を取らせる(ステップS6)。これにより、メインタッチパネル163の扉開ボタン166がロボット25のハンド29により押されて、開閉扉15が全閉位置から全開位置に移動する。 Then, the automatic operation control unit 47 corrects the door opening operation posture of the robot 25 stored in the operation posture storage unit 43 based on the correction amount calculated by the correction amount calculation unit 50, and makes the correction to the robot 25. The door is opened in the opened operation posture (step S6). As a result, the door open button 166 of the main touch panel 163 is pushed by the hand 29 of the robot 25, and the open / close door 15 moves from the fully closed position to the fully open position.

この状態で、自動運転制御部47は、ロボット25にワーク100の投入及び払出しを実行させる(ステップS7)。具体的には、先ず、ロボット25に、前記取出し姿勢を取らせて、無人搬送車35のバケット38内(加工前収納部38a内)の加工前のワーク100をハンド29により把持させる。次いで、ロボット25に前記投入姿勢を取らせて、ハンド29に把持したワーク100を投入用のワーク受け部材142Aにセットし、次いで、ロボット25に前記払出し姿勢を取らせて、ハンド29に、払出し用のワーク受け部材142Bにセットされた加工後のワーク100を把持させる。そして、ロボット25に前記収納姿勢を取らせて、ハンド29が把持した加工後のワーク100を無人搬送車35のバケット38内(加工後収納部38b内)に収納させる。こうして、ロボット25によるワーク100の投入払出し作業が完了する。 In this state, the automatic operation control unit 47 causes the robot 25 to execute loading and unloading of the work 100 (step S7). Specifically, first, the robot 25 is made to take the taking-out posture, and the work 100 before processing in the bucket 38 (inside the storage portion 38a before processing) of the automatic guided vehicle 35 is gripped by the hand 29. Next, the robot 25 is made to take the throwing posture, the work 100 gripped by the hand 29 is set on the work receiving member 142A for throwing, and then the robot 25 is made to take the payout posture, and the hand 29 is made to pay out. The work 100 after processing set in the work receiving member 142B is gripped. Then, the robot 25 is made to take the storage posture, and the processed work 100 gripped by the hand 29 is stored in the bucket 38 (inside the processed storage portion 38b) of the automatic guided vehicle 35. In this way, the loading / unloading work of the work 100 by the robot 25 is completed.

そして、自動運転制御部47は、ロボット25によるワーク100の投入払出しが完了した後、ステップS5で算出した補正量を基に、動作姿勢記憶部43に記憶されたロボット25の扉閉姿勢を補正して、ロボット25に該補正した扉閉姿勢を取らせる(ステップS8)。これにより、メインタッチパネル163の扉閉ボタン167がロボット25のハンド29により押されて、開閉扉15が全開位置から全閉位置に移動する。 Then, after the loading and unloading of the work 100 by the robot 25 is completed, the automatic operation control unit 47 corrects the door closing posture of the robot 25 stored in the operation posture storage unit 43 based on the correction amount calculated in step S5. Then, the robot 25 is made to take the corrected door closing posture (step S8). As a result, the door closing button 167 of the main touch panel 163 is pushed by the hand 29 of the robot 25, and the opening / closing door 15 moves from the fully open position to the fully closed position.

続いて、自動運転制御部47は、ステップS5で算出した補正量を基に、動作姿勢記憶部43に記憶されたロボット25の起動操作姿勢を補正して、ロボット25に該補正した起動操作姿勢を取らせる(ステップS9)。これにより、メインタッチパネル163の起動ボタン168がロボット25のハンド29により押されて、加工動作機構部20によるワーク100の加工が実行される。 Subsequently, the automatic operation control unit 47 corrects the activation operation posture of the robot 25 stored in the operation posture storage unit 43 based on the correction amount calculated in step S5, and the robot 25 corrects the activation operation posture. (Step S9). As a result, the start button 168 of the main touch panel 163 is pressed by the hand 29 of the robot 25, and the machining of the work 100 is executed by the machining operation mechanism unit 20.

自動運転制御部47は、ロボット25に起動姿勢を取らせた後は、現在加工中のワーク100が最後のワークであるか否かを判定する(ステップS10)。この判定では、工作機械10に投入したワーク100の数が、所定個数に達したか否かを判定する。この所定個数は、例えばAGV操作盤37を介してオペレータにより設定される。自動運転制御部47は、現在加工中のワーク100が最後のワークであると判定した場合(ステップS10でYESの場合)には、ロボット25により最後のワーク100を払出した後、無人搬送車35を次工程(例えば、測定工程や洗浄工程)の作業位置に移動させる一方、最後のワークでないと判定した場合(ステップS10でNОの場合)にはステップ2に戻り、ロボット25に撮像姿勢を取らせてカメラ31による撮像処理を実行する。そうして、全てのワーク100の加工が終了するまで、ステップS1~ステップS10の処理を繰り返すことで、ロボット25と工作機械10とを協働させてワーク100の無人加工が実現される。 After making the robot 25 take the starting posture, the automatic operation control unit 47 determines whether or not the work 100 currently being machined is the last work (step S10). In this determination, it is determined whether or not the number of works 100 put into the machine tool 10 has reached a predetermined number. This predetermined number is set by the operator, for example, via the AGV operation panel 37. When the automatic operation control unit 47 determines that the work 100 currently being machined is the last work (YES in step S10), the robot 25 pays out the last work 100 and then the automatic guided vehicle 35. Is moved to the work position of the next step (for example, measurement step or cleaning step), while if it is determined that the work is not the last work (NO in step S10), the process returns to step 2 and the robot 25 takes an imaging posture. Then, the image pickup process by the camera 31 is executed. Then, by repeating the processes of steps S1 to S10 until the machining of all the workpieces 100 is completed, the robot 25 and the machine tool 10 are made to cooperate with each other to realize unmanned machining of the workpiece 100.

以上説明したように本実施形態の協働システム1によれば、AGV制御装置40は、カメラ31が撮像した位置識別標識T1の画像を基に、無人搬送車35に搭載されたロボット25と、メインタッチパネル163に表示された各操作ボタン166~168との位置関係を認識して、認識した位置関係を基に、ロボット25にこれらの操作ボタン166~168を操作させるように構成されている。これにより、無人搬送車35の停車位置のバラツキが生じたとしても、ロボット25と各操作ボタン166~167との位置関係を精度良く把握することができるので、ロボット25による各操作ボタン166~168の操作を正確に行うことができる。 As described above, according to the collaborative system 1 of the present embodiment, the AGV control device 40 includes the robot 25 mounted on the automatic guided vehicle 35 and the robot 25 mounted on the automatic guided vehicle 35 based on the image of the position identification marker T1 captured by the camera 31. The robot 25 is configured to recognize the positional relationship with each of the operation buttons 166 to 168 displayed on the main touch panel 163 and to operate these operation buttons 166 to 168 based on the recognized positional relationship. As a result, even if the stop position of the automatic guided vehicle 35 varies, the positional relationship between the robot 25 and the operation buttons 166 to 167 can be accurately grasped, so that the operation buttons 166 to 168 by the robot 25 can be accurately grasped. Can be operated accurately.

また、位置識別標識T1は、NC操作盤16のメインタッチパネル163に表示されるので、例えば位置識別標識T1をNC操作盤16から離れた工作機械10のカバー表面に設けるようにした場合に比べて、ロボット25による各操作ボタン166~168の操作精度を向上させることができる。 Further, since the position identification mark T1 is displayed on the main touch panel 163 of the NC operation panel 16, for example, as compared with the case where the position identification mark T1 is provided on the cover surface of the machine tool 10 away from the NC operation panel 16. , The operation accuracy of each operation button 166 to 168 by the robot 25 can be improved.

また、本実施形態では、工作機械10が、メインタッチパネル163の操作ボタン166~168に対する操作待ち状態になると、表示制御部173によってメインタッチパネル163の標識表示領域r3に位置識別標識T1が表示される。そして、AGV制御装置40の自動運転制御部47は、カメラ31による撮像画像中に位置識別標識T1を検出した場合(ステップS3でYESの場合)に、ロボット25にメインタッチパネル163の操作ボタン166~168の操作を実行させるように構成されている(ステップS6,ステップS8及びステップS9)。 Further, in the present embodiment, when the machine tool 10 is in the operation waiting state for the operation buttons 166 to 168 of the main touch panel 163, the position identification mark T1 is displayed in the sign display area r3 of the main touch panel 163 by the display control unit 173. .. Then, when the automatic operation control unit 47 of the AGV control device 40 detects the position identification marker T1 in the image captured by the camera 31 (YES in step S3), the robot 25 has the operation buttons 166 to the main touch panel 163. It is configured to execute the operation of 168 (step S6, step S8 and step S9).

これによれば、AGV制御装置40と工作機械制御装置17との間で通信手段を有していない場合であっても、AGV制御装置40が位置識別標識T1を検出したことをトリガーとして、適切なタイミングでロボット25に操作ボタン166~168の操作を実行させることができる。 According to this, even when the AGV control device 40 and the machine tool control device 17 do not have a communication means, the AGV control device 40 detects the position identification mark T1 as a trigger, which is appropriate. The robot 25 can be made to operate the operation buttons 166 to 168 at various timings.

また、本実施形態では、ロボット25は、該ロボット25に備わったハンド29の一部(一方の把持部材292のエッジ292a)を各操作ボタン166~168に接触させることで、各操作ボタン166~168の操作を行うように構成されている。 Further, in the present embodiment, the robot 25 causes each operation button 166 to 168 by contacting a part of the hand 29 provided on the robot 25 (edge 292a of one grip member 292) with the operation buttons 166 to 168. It is configured to perform 168 operations.

これによれば、ロボット25に備わった既存のハンド29の一部を利用して各操作ボタン166~168を操作することができる。よって、各操作ボタン166~168を操作するための操作部材を別途設ける場合に比べて、部品点数を削減してコスト低減することができる。 According to this, each operation button 166 to 168 can be operated by using a part of the existing hand 29 provided in the robot 25. Therefore, the number of parts can be reduced and the cost can be reduced as compared with the case where the operation member for operating each operation button 166 to 168 is separately provided.

(変形例1)
次に、実施形態の変形例1を説明する。この変形例では、メインタッチパネル163の標識表示領域r3に、位置識別標識T1の他に、図14に示す扉開完了標識T2を表示可能になっている点、及び、扉開完了標識T2に基づくロボット25の動作制御を行う点で前記実施形態とは異なる。
(Modification 1)
Next, a modification 1 of the embodiment will be described. In this modification, in addition to the position identification sign T1, the door opening completion sign T2 shown in FIG. 14 can be displayed in the sign display area r3 of the main touch panel 163, and based on the door opening completion sign T2. It differs from the above embodiment in that the operation of the robot 25 is controlled.

すなわち、本変形例では、ロボット25が扉開ボタン166を押した後(前記実施形態におけるステップS6の後)、開閉扉15が実際に全開位置に移動したときに、工作機械制御装置17の表示制御部173による制御の下、図14に示すように、メインタッチパネル163の標識表示領域r3に扉開完了標識T2を表示する。扉開完了標識T2は円形状の図形標識とされているが、これに限ったものではなく、撮像画像を画像処理したときに位置識別標識T1と区別可能であれば如何なるデザイン構成(形状、模様、及び色彩等)であってもよい。また、前記開閉扉15が実際に全開位置に移動したことは、工作機械10内に設けられたセンサ(例えば、開閉扉15を検知する近接センサ等)からの信号を基に検出すればよい。 That is, in this modification, after the robot 25 presses the door open button 166 (after step S6 in the above embodiment), when the open / close door 15 actually moves to the fully open position, the machine tool control device 17 is displayed. Under the control of the control unit 173, the door opening completion sign T2 is displayed in the sign display area r3 of the main touch panel 163 as shown in FIG. The door opening completion sign T2 is a circular graphic sign, but it is not limited to this, and any design configuration (shape, pattern) can be distinguished from the position identification sign T1 when the captured image is processed. , And colors, etc.). Further, the fact that the opening / closing door 15 has actually moved to the fully opened position may be detected based on a signal from a sensor provided in the machine tool 10 (for example, a proximity sensor that detects the opening / closing door 15).

一方、ロボット25は、扉開ボタン166を押した後(前記実施形態におけるステップS6の後)、AGV制御装置40の自動運転制御部47による制御の下、撮像姿勢を取ってカメラ31による撮像処理を開始する。そして、自動運転制御部47は、カメラ31による撮像画像中に扉開完了標識T2を検出した場合には、ロボット25にワーク100の投入払出し動作(前記実施形態におけるステップS7の動作)を実行させる一方、扉開完了標識T2を検出しない場合には、ロボット25による投入払出し動作を禁止してカメラ31に撮像処理を継続させる。 On the other hand, after pressing the door open button 166 (after step S6 in the above embodiment), the robot 25 takes an imaging posture under the control of the automatic operation control unit 47 of the AGV control device 40 and performs imaging processing by the camera 31. To start. Then, when the door opening completion sign T2 is detected in the image captured by the camera 31, the automatic operation control unit 47 causes the robot 25 to execute the loading / unloading operation of the work 100 (the operation of step S7 in the above embodiment). On the other hand, when the door open completion sign T2 is not detected, the loading / unloading operation by the robot 25 is prohibited and the camera 31 continues the image pickup process.

本変形例によれば、ロボット25が扉開ボタン166を押した後、開閉扉15が実際に全開位置に移動しない限り、ロボット25によるワーク100の投入払出し動作は実行されない。したがって、例えば、開閉扉15が故障により開放動作の途中で停止してしまった場合には、ロボット25によるワーク100の投入払出し動作は実行されないので、ロボット25が開閉扉15と干渉するのを防止することができる。 According to this modification, the robot 25 does not execute the loading / unloading operation of the work 100 unless the opening / closing door 15 actually moves to the fully opened position after the robot 25 presses the door open button 166. Therefore, for example, if the opening / closing door 15 is stopped in the middle of the opening operation due to a failure, the loading / unloading operation of the work 100 by the robot 25 is not executed, so that the robot 25 is prevented from interfering with the opening / closing door 15. can do.

(変形例2)
次に、実施形態の変形例2を説明する。この変形例では、メインタッチパネル163の標識表示領域r3に、位置識別標識T1の他に、図15に示す工程完了標識T3を表示可能になっている点、及び、工程完了標識T3に基づくロボット25の動作制御を行う点で前記実施形態とは異なる。
(Modification 2)
Next, a modification 2 of the embodiment will be described. In this modification, in addition to the position identification sign T1, the process completion sign T3 shown in FIG. 15 can be displayed in the sign display area r3 of the main touch panel 163, and the robot 25 based on the process completion sign T3. It is different from the above-described embodiment in that the operation is controlled.

すなわち、本変形例では、工作機械制御装置17の表示制御部173は、例えばNC操作盤16を介してオペレータが入力したジョブ情報を基に、全てのワーク100の加工が完了したか否かを判定する。そして、表示制御部173は、全てのワーク100の加工が完了したと判定した場合には、図15に示すように、メインタッチパネル163の標識表示領域r3に工程完了標識T3を表示する。本変形例では、工程完了標識T3は三角形状の図形標識とされているが、これに限ったものではなく、撮像画像を画像処理したときに他の標識(位置識別標識T1及び扉開完了標識T2等)と区別可能であれば如何なるデザイン構成(形状、模様、及び色彩等)であってもよい。 That is, in this modification, the display control unit 173 of the machine tool control device 17 determines whether or not the machining of all the workpieces 100 is completed based on the job information input by the operator via, for example, the NC operation panel 16. judge. Then, when it is determined that the processing of all the works 100 is completed, the display control unit 173 displays the process completion sign T3 in the sign display area r3 of the main touch panel 163, as shown in FIG. In this modification, the process completion sign T3 is a triangular graphic sign, but the present invention is not limited to this, and other signs (position identification sign T1 and door open completion sign) are used when the captured image is image-processed. Any design configuration (shape, pattern, color, etc.) may be used as long as it can be distinguished from T2, etc.).

一方、AGV制御装置40の自動運転制御部47は、ロボット25に起動ボタン168を押させた後(前記実施形態のステップS9の処理を実行した後)、ロボット25に撮像姿勢を取らせてカメラ31による撮像処理を実行する。そして、自動運転制御部47は、カメラ31による撮像画像中に工程完了標識T3を検出した場合には、ロボット25に最後のワーク100を払出させた後、無人搬送車35を次工程(例えば、測定工程や洗浄工程)の作業位置に移動させる一方、撮像画像中に工程完了標識T3が検出されない場合には、ロボット25を撮像姿勢に維持してカメラ31による撮像処理を継続する。 On the other hand, the automatic operation control unit 47 of the AGV control device 40 causes the robot 25 to take an image pickup posture after the robot 25 presses the start button 168 (after executing the process of step S9 of the above embodiment). The image pickup process according to 31 is executed. Then, when the automatic operation control unit 47 detects the process completion sign T3 in the image captured by the camera 31, the robot 25 causes the robot 25 to pay out the final work 100, and then the automatic guided vehicle 35 is used in the next process (for example,). While moving to the work position of the measurement step and the cleaning step), if the step completion sign T3 is not detected in the captured image, the robot 25 is maintained in the imaging posture and the imaging process by the camera 31 is continued.

本変形例によれば、前記実施形態のようにオペレータがAGV操作盤37を介して予めワーク100の加工総数を入力しておく必要がないので、オペレータの準備負担を低減することができる。 According to this modification, it is not necessary for the operator to input the total number of machining of the work 100 in advance via the AGV operation panel 37 as in the above embodiment, so that the preparation burden on the operator can be reduced.

(変形例3)
次に、実施形態の変形例3を説明する。この変形例では、図16に示すように、ロボット25が、ボールプランジャ293を介してメインタッチパネル163の操作ボタン166~168を操作する点で前記実施形態とは異なる
(Modification 3)
Next, a modification 3 of the embodiment will be described. In this modification, as shown in FIG. 16, the robot 25 operates the operation buttons 166 to 168 of the main touch panel 163 via the ball plunger 293, which is different from the embodiment.

ボールプランジャ293は、ハンド29におけるボディ291の側面にブラケット部材294を介して支持されている。 The ball plunger 293 is supported on the side surface of the body 291 in the hand 29 via a bracket member 294.

ブラケット部材294は、ロボット25が操作姿勢を取った状態で、ボディ291の側面から一対の把持部材292と平行に斜め下方に延びた後、メインタッチパネル163側に直角に折れ曲がるように形成されている。 The bracket member 294 is formed so as to extend diagonally downward from the side surface of the body 291 in parallel with the pair of gripping members 292 and then bend at a right angle to the main touch panel 163 side in a state where the robot 25 is in an operating posture. ..

ボールプランジャ293は、ブラケット部材294の先端部に形成された取付穴294aに圧入又は螺合して固定されている。ボールプランジャ293は、ボール293aと、ボール293aをメインタッチパネル163側に付勢する付勢バネ293bとを有している。そして、ロボット25が各操作姿勢を取った際に、ボールプランジャ293のボール293aが、各操作姿勢に対応する操作ボタン166~168に接触するようになっている。このボール293aが操作部材として機能し、付勢バネ293bが、ボール293aと各操作ボタン166~168との接触時の衝撃を緩和する緩衝部として機能する。 The ball plunger 293 is fixed by press-fitting or screwing into a mounting hole 294a formed at the tip of the bracket member 294. The ball plunger 293 has a ball 293a and an urging spring 293b that urges the ball 293a to the main touch panel 163 side. Then, when the robot 25 takes each operation posture, the ball 293a of the ball plunger 293 comes into contact with the operation buttons 166 to 168 corresponding to each operation posture. The ball 293a functions as an operating member, and the urging spring 293b functions as a shock absorber that cushions the impact when the ball 293a comes into contact with each of the operation buttons 166 to 168.

本変形例3によれば、ロボット25が各操作姿勢を取った際に、操作部材であるボール293aがメインタッチパネル163に作用させる衝撃を緩和することができる。よって、ロボット25による各操作ボタン166~168の操作を安全に行うことができる。 According to the third modification, when the robot 25 takes each operating posture, the impact of the ball 293a, which is an operating member, acting on the main touch panel 163 can be alleviated. Therefore, the robot 25 can safely operate each of the operation buttons 166 to 168.

(他の実施形態)
前記実施形態では、AGV制御装置40の自動運転制御部47は、カメラ31による撮像画像中に位置識別標識T1を検出したときに、ロボット25による操作ボタン166~168の操作処理を実行するように構成されているが、操作処理のタイミングはこれに限ったものではない。例えば、カメラ31により工作機械10のパトライト(登録商標)を監視しておき、パトライトの色が加工動作の完了(NCプログラムの実行完了)を示す色に切り替わったことを検出したときに、ロボット25による操作処理を実行するようにしてもよい。
(Other embodiments)
In the above embodiment, the automatic operation control unit 47 of the AGV control device 40 executes the operation processing of the operation buttons 166 to 168 by the robot 25 when the position identification mark T1 is detected in the image captured by the camera 31. Although it is configured, the timing of operation processing is not limited to this. For example, when the patrol light (registered trademark) of the machine tool 10 is monitored by the camera 31 and it is detected that the color of the patrol light is switched to the color indicating the completion of the machining operation (the execution of the NC program is completed), the robot 25 The operation process may be executed by.

前記実施形態において、ワーク100の加工動作が完了すると、表示制御部173によりメインタッチパネル163の標識表示領域r3に位置識別標識T1を表示するようにしているが、これに限ったものではない。例えば、工作機械10が各種の異常(加工トラブルや機器の故障)に起因して停止している場合には、ワーク100の加工が完了していたとしても、位置識別標識T1をメインタッチパネル163の標識表示領域r3に表示しないようにしてもよい。これにより、工作機械10に異常が生じているにも拘わらずロボット25が操作ボタン166~168を操作して二次異常が発生するのを回避することができる。 In the above embodiment, when the machining operation of the work 100 is completed, the display control unit 173 displays the position identification mark T1 in the sign display area r3 of the main touch panel 163, but the present invention is not limited to this. For example, when the machine tool 10 is stopped due to various abnormalities (machining trouble or equipment failure), the position identification mark T1 is used on the main touch panel 163 even if the machining of the work 100 is completed. It may not be displayed in the sign display area r3. As a result, it is possible to prevent the robot 25 from operating the operation buttons 166 to 168 to cause a secondary abnormality even though the machine tool 10 has an abnormality.

前記実施形態では、工作機械10の操作待ち状態は、三つの操作ボタン166~168が全て操作されたことをもって操作待ち状態が解除される例を示したが、これに限ったものではなく、例えば、ワーク100の加工完了後、三つの操作ボタン166~168のうち最初に操作する必要がある扉開ボタン166が操作されたことをもって、操作待ち状態が解除されたと判定してもよい。 In the above embodiment, the operation waiting state of the machine tool 10 shows an example in which the operation waiting state is released when all three operation buttons 166 to 168 are operated, but the operation waiting state is not limited to this, for example. After the machining of the work 100 is completed, it may be determined that the operation waiting state is released when the door open button 166, which needs to be operated first among the three operation buttons 166 to 168, is operated.

前記実施形態では、補正量算出部50が算出した補正量を基にロボット25の操作姿勢のみを補正するようにしているが、これに限ったものではなく、ロボット25の操作姿勢に加えて作業姿勢(投入払出し作業時の各作業姿勢)も補正するようにしてもよい。 In the above embodiment, only the operating posture of the robot 25 is corrected based on the correction amount calculated by the correction amount calculation unit 50, but the present invention is not limited to this, and the work is performed in addition to the operating posture of the robot 25. The posture (each work posture at the time of loading / unloading work) may also be corrected.

前記実施形態では、位置識別標識T1をメインタッチパネル163に表示するようにしているが、これに限ったものではなく、位置識別標識T1はNC操作盤16の表面に物理的に固定されていてもよい。一例として、位置識別標識T1が印字されたシールをNC操作盤16の表面に貼付けてもよい。 In the above embodiment, the position identification mark T1 is displayed on the main touch panel 163, but the present invention is not limited to this, and the position identification mark T1 may be physically fixed to the surface of the NC operation panel 16. good. As an example, a sticker on which the position identification mark T1 is printed may be attached to the surface of the NC operation panel 16.

前記実施形態では、表示制御部173による制御の下、メインタッチパネル163の表示画面上で位置識別標識T1の表示/非表示を切替えることで、位置識別標識T1を撮像可能状態と撮像不能状態とに切替えるようにしているが、これに限ったものではない。例えば、NC操作盤16の表面に位置識別標識T1を物理的に固定し、スライド式のシャッターや回動式の扉等からなる可動部材によって、位置識別標識T1を撮像可能状態と撮像不能状態とに切替えるようにしてもよい。この場合、可動部材は、工作機械制御装置17からの指令を受けたアクチュエータによって、位置識別標識T1を覆う覆い位置と、位置識別標識T1を露出させる露出位置とに選択的に切替えられる。 In the above embodiment, under the control of the display control unit 173, the position identification mark T1 is switched between display and non-display on the display screen of the main touch panel 163, so that the position identification mark T1 can be imaged and cannot be imaged. I try to switch, but it is not limited to this. For example, the position identification mark T1 is physically fixed on the surface of the NC operation panel 16, and the position identification mark T1 can be imaged and cannot be imaged by a movable member including a sliding shutter and a rotary door. You may switch to. In this case, the movable member is selectively switched between a covering position that covers the position identification mark T1 and an exposed position that exposes the position identification mark T1 by an actuator that receives a command from the machine tool control device 17.

前記実施形態では、カメラ31がロボット25に取付けられている例を説明したが、これに限ったものではなく、カメラ31は、例えば無人搬送車35に取付けられていてもよい。 In the above embodiment, the example in which the camera 31 is attached to the robot 25 has been described, but the present invention is not limited to this, and the camera 31 may be attached to, for example, an automatic guided vehicle 35.

前記実施形態では、メインタッチパネル163に表示される操作ボタン166~168を被操作部の一例として説明したが、これに限ったものではなく、被操作部は、例えばNC操作盤16に物理的に固定されたハードボタン164であってもよい。また、被操作部である操作ボタンの数は三つに限らず、二つ以下であってもよいし、四つ以上であってもよい。また、被操作部は、押しボタン式の操作ボタンに限らず、例えばレバー式の操作スイッチ等で構成されていてもよい。 In the above embodiment, the operation buttons 166 to 168 displayed on the main touch panel 163 have been described as an example of the operated unit, but the operation button is not limited to this, and the operated unit is physically attached to, for example, the NC operation panel 16. It may be a fixed hard button 164. Further, the number of operation buttons to be operated is not limited to three, and may be two or less, or four or more. Further, the operated portion is not limited to the push button type operation button, and may be composed of, for example, a lever type operation switch or the like.

前記実施形態では、無人搬送車35が、工作機械10による全てのワーク100の加工が完了するまで作業位置に停車している例を説明したが、これに限ったものではない。例えば、工作機械10の隣に測定装置及び洗浄装置を並べて、工作機械10によるワーク100の加工中は、無人搬送車35を、測定装置及び洗浄装置に対して予め設定された作業装置に移動させて、ロボット25に、加工後のワーク100の寸法測定及び洗浄処理を実行させるようにしてもよい。 In the above embodiment, the example in which the automatic guided vehicle 35 is stopped at the working position until the machining of all the workpieces 100 by the machine tool 10 is completed has been described, but the present invention is not limited to this. For example, a measuring device and a cleaning device are arranged next to the machine tool 10, and the unmanned carrier 35 is moved to a working device preset for the measuring device and the cleaning device while the work 100 is being machined by the machine tool 10. The robot 25 may be made to perform the dimension measurement and the cleaning process of the machine tool 100 after processing.

また、前記実施形態では、AGV制御装置40は無人搬送車35に搭載されているが、これに限ったものではない。AGV制御装置40は、例えば工場の建屋内に設置されて無人搬送車35及びロボット25を無線通信により遠隔操作するものであってもよい。 Further, in the above embodiment, the AGV control device 40 is mounted on the automatic guided vehicle 35, but the present invention is not limited to this. The AGV control device 40 may be installed, for example, in a factory building and remotely control an automatic guided vehicle 35 and a robot 25 by wireless communication.

また、前記実施形態では、工作機械10が、ロボット25及び無人搬送車35との通信機器を有していない例を説明したが、これに限ったものではなく、通信機器を有していてもよい。このように通信機器を有する場合においても、必要に応じて、ロボット25にNC操作盤16を操作させることで、通信機器の故障や通信規格の不一致があっても、工作機械10とロボット25とを協働させることができる。 Further, in the above-described embodiment, the example in which the machine tool 10 does not have the communication device with the robot 25 and the automatic guided vehicle 35 has been described, but the present invention is not limited to this, and the machine tool 10 may have the communication device. good. Even in the case of having a communication device in this way, by having the robot 25 operate the NC operation panel 16 as necessary, even if the communication device fails or the communication standard does not match, the machine tool 10 and the robot 25 can be used. Can be made to work together.

前記実施形態では、産業機械の一例として工作機械10を挙げて説明したが、これに限ったものではない。産業機械とは工作機械10に限らず、産業上利用可能な全ての機械を含むものである。 In the above-described embodiment, the machine tool 10 has been described as an example of the industrial machine, but the present invention is not limited to this. The industrial machine is not limited to the machine tool 10, but includes all machines that can be used industrially.

また、本発明には、前記実施形態及び前記変形例1~3の任意の組合わせが含まれる。 In addition, the present invention includes any combination of the embodiment and the modifications 1 to 3.

尚、上述の実施形態の説明は、すべての点で例示であって、制限的なものではない。当業者にとって変形及び変更が適宜可能である。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲には、特許請求の範囲内と均等の範囲内での実施形態からの変更が含まれる。 It should be noted that the above description of the embodiment is exemplary in all respects and is not restrictive. Modifications and changes can be made as appropriate for those skilled in the art. The scope of the invention is indicated by the claims, not by the embodiments described above. Further, the scope of the present invention includes modifications from the embodiments within the scope of the claims and within the scope of the claims.

T1 位置識別標識
r3 標識表示領域(操作盤の所定箇所、モニタの画面の所定領域)
1 協働システム
10 工作機械(産業機械)
16 NC操作盤(操作盤)
25 ロボット
29 ハンド
31 カメラ
35 無人搬送車
40 制御装置
100 ワーク
163 メインタッチパネル(モニタ、識別切替部)
168 扉閉ボタン(被操作部)
173 表示制御部(識別切替部)
292a エッジ(ハンドの一部)
293a ボール(操作部材)
293b 付勢バネ(緩衝部)






T1 position identification mark r3 sign display area (predetermined location on the operation panel, predetermined area on the monitor screen)
1 Collaborative system 10 Machine tools (industrial machines)
16 NC operation panel (operation panel)
25 Robot 29 Hand 31 Camera 35 Automated guided vehicle 40 Control device 100 Work 163 Main touch panel (monitor, identification switching unit)
168 Door close button (operated part)
173 Display control unit (identification switching unit)
292a Edge (part of hand)
293a ball (operation member)
293b Bounce spring (buffer)






Claims (7)

被操作部が設けられた操作盤を有する産業機械と、前記産業機械に対して作業を行うロボットと、該ロボットを搭載し、前記産業機械に対して予め設定された作業位置に経由する無人搬送車と、前記ロボット及び前記無人搬送車を制御する制御装置とを備えた協働システムであって、
前記産業機械の前記操作盤の所定箇所には位置識別標識が設けられ、
前記無人搬送車又は前記ロボットは、前記無人搬送車が前記作業位置に停車した状態で前記操作盤の前記所定箇所を撮像可能なカメラを有し、
前記制御装置は、前記無人搬送車を前記作業位置に停車させた状態で、前記カメラに、前記操作盤の前記所定箇所を撮像させる撮像処理と、該撮像処理により得られた撮像画像中に含まれる前記位置識別標識の画像を基に、前記被操作部と前記ロボットとの位置関係を認識して、認識した該位置関係を基に、前記ロボットに前記操作盤の前記被操作部を操作させる操作処理とを実行可能に構成されていることを特徴とする協働システム。
An industrial machine having an operation panel provided with an operated unit, a robot that performs work on the industrial machine, and an automatic guided vehicle that is equipped with the robot and travels to a work position preset for the industrial machine. A collaborative system including a vehicle and a control device for controlling the robot and the automatic guided vehicle.
A position identification mark is provided at a predetermined position on the operation panel of the industrial machine.
The automatic guided vehicle or the robot has a camera capable of taking an image of the predetermined position on the operation panel while the automatic guided vehicle is stopped at the work position.
The control device is included in an image pickup process for causing the camera to take an image of the predetermined portion of the operation panel while the automatic guided vehicle is stopped at the work position, and an image captured image obtained by the image pickup process. The positional relationship between the operated unit and the robot is recognized based on the image of the position identification sign, and the robot is made to operate the operated unit of the operation panel based on the recognized positional relationship. A collaborative system characterized by being configured to be able to execute operation processes.
前記産業機械は、前記被操作部に対する操作を待つ操作待ち状態にあるか否かを判定して、該操作待ち状態にあると判定した場合には、前記位置識別標識を前記カメラにより撮像可能な撮像可能状態にする一方、前記操作待ち状態にないと判定した場合に、前記位置識別標識を前記カメラにより撮像不能な撮像不能状態に切替える識別切替部を有し、
前記制御装置は、前記無人搬送車を前記作業位置に停車させた状態で、前記撮像処理として、前記カメラに、前記操作盤の前記所定箇所を継続的に撮像させる処理を実行し、該撮像処理により得られた撮像画像中に前記位置識別標識の画像が検出された場合に、前記操作処理を実行し、前記撮像画像中に前記位置識別標識の画像が検出されない場合には、前記操作処理を実行せずに前記カメラによる撮像を継続するように構成されていることを特徴とする請求項1記載の協働システム。
The industrial machine determines whether or not it is in an operation waiting state waiting for an operation on the operated portion, and if it is determined that it is in the operation waiting state, the position identification mark can be imaged by the camera. It has an identification switching unit that switches the position identification mark to a state in which imaging is not possible by the camera when it is determined that the state is not in the operation waiting state.
The control device executes a process of causing the camera to continuously take an image of the predetermined portion of the operation panel as the image pickup process in a state where the unmanned carrier is stopped at the work position, and the image pickup process is performed. When the image of the position identification marker is detected in the captured image obtained by, the operation process is executed, and when the image of the position identification marker is not detected in the captured image, the operation process is performed. The collaborative system according to claim 1, wherein the image pickup by the camera is continued without being executed.
前記操作盤は、情報を表示するモニタを有し、
前記所定箇所は、前記モニタの画面の所定領域であり、
前記識別切替部は、前記産業機械が前記操作待ち状態にあると判定した場合には、前記モニタの画面の前記所定領域に前記位置識別標識を表示させることで、該位置識別標識を前記撮像可能状態にする一方、前記産業機械が前記操作待ち状態にないと判定した場合には、該位置識別標識を前記モニタの画面の前記所定領域に表示させないことで、該位置識別標識を前記撮像不能状態にするように構成されていることを特徴とする請求項2記載の協働システム。
The operation panel has a monitor for displaying information.
The predetermined location is a predetermined area on the screen of the monitor.
When the identification switching unit determines that the industrial machine is in the operation waiting state, the identification switching unit can capture the position identification sign by displaying the position identification sign in the predetermined area on the screen of the monitor. On the other hand, when it is determined that the industrial machine is not in the operation waiting state, the position identification sign is not displayed in the predetermined area on the screen of the monitor, so that the position identification sign cannot be imaged. 2. The collaborative system according to claim 2, wherein the collaborative system is configured to be.
前記無人搬送車に搭載される前記ロボットは、該ロボットが備えるハンドの一部を前記操作盤の前記被操作部に接触させることで該被操作部を操作するように構成されていることを特徴とする請求項1から3のいずれか一項に記載の協働システム。 The robot mounted on the automatic guided vehicle is characterized in that the operated portion is operated by bringing a part of the hand included in the robot into contact with the operated portion of the operation panel. The collaborative system according to any one of claims 1 to 3. 前記無人搬送車に搭載される前記ロボットは、該ロボットが備えるハンドに取付けられた操作部材を前記操作盤の前記被操作部に接触させることで該被操作部を操作するように構成されていて、前記操作部材が前記被操作部と接触した際の衝撃を緩和する緩衝部を有していることを特徴とする請求項1から3のいずれか一項に記載の協働システム。 The robot mounted on the automatic guided vehicle is configured to operate the operated portion by bringing an operating member attached to a hand included in the robot into contact with the operated portion of the operation panel. The collaborative system according to any one of claims 1 to 3, wherein the operating member has a cushioning portion that cushions an impact when the operating member comes into contact with the operated portion. 前記カメラは、前記無人搬送車に搭載された前記ロボットに設けられ、
前記制御装置は、前記無人搬送車を前記作業位置に停車させた状態で、前記ロボットの姿勢を、前記カメラにより前記操作盤の前記所定箇所を撮像可能な撮像姿勢と、前記操作盤の前記被操作部を操作可能な操作姿勢と、前記産業機械に対して作業を行うための作業姿勢とに選択的に切替え可能に構成され、
前記ロボットの前記撮像姿勢、前記操作姿勢、及び前記作業姿勢は、それぞれ、前記ロボットにティーチング操作することによって前記制御装置に予め記憶され、
前記制御装置は、ティーチング操作時に、前記ロボットに前記撮像姿勢を取らせた状態で前記カメラにより撮像した前記位置識別標識の画像を基準画像として予め記憶しておき、自動運転用プログラムに基づく前記無人搬送車の自動運転時において、前記撮像処理を実行する際には、前記ロボットを前記撮像姿勢にした状態で前記カメラにより前記操作盤の前記所定箇所を撮像し、前記操作処理の実行に際しては、該撮像処理により得られた撮像画像中に含まれる前記位置識別標識の画像と前記基準画像とを比較することで、前記ロボットの現在の撮像姿勢とティーチング操作時の撮像姿勢との間の誤差量を算出し、算出した該誤差量に基づいて、前記被操作部と前記ロボットとの前記位置関係を認識し、認識した該位置関係を基に前記予め記憶した前記操作姿勢を補正して、前記ロボットに、補正した該操作姿勢を取らせることで前記操作盤の前記被操作部を操作させるように構成されていることを特徴とする請求項1から5のいずれか一項に記載の協働システム。
The camera is provided on the robot mounted on the automatic guided vehicle.
The control device has an image pickup posture in which the posture of the robot can be imaged by the camera at the predetermined position of the operation panel while the automatic guided vehicle is stopped at the work position, and the cover of the operation panel. It is configured to be selectively switchable between an operating posture in which the operation unit can be operated and a working posture for performing work on the industrial machine.
The imaging posture, the operating posture, and the working posture of the robot are stored in advance in the control device by teaching the robot, respectively.
The control device stores in advance an image of the position identification marker captured by the camera with the robot taking the imaging posture during the teaching operation as a reference image, and the unmanned vehicle based on the automatic driving program. When the image pickup process is executed during the automatic operation of the automatic guided vehicle, the camera captures the predetermined portion of the operation panel with the robot in the image pickup posture, and the operation process is executed. By comparing the image of the position identification marker included in the captured image obtained by the imaging process with the reference image, the amount of error between the current imaging posture of the robot and the imaging posture during the teaching operation. Is calculated, the positional relationship between the operated portion and the robot is recognized based on the calculated error amount, and the operation posture stored in advance is corrected based on the recognized positional relationship, and the operation posture is corrected. The cooperation according to any one of claims 1 to 5, wherein the robot is configured to operate the operated portion of the operation panel by causing the robot to take the corrected operation posture. system.
前記産業機械は、ワークに対して所定の加工を行う工作機械であることを特徴とする請求項1から6のいずれか一項に記載の協働システム。



The collaborative system according to any one of claims 1 to 6, wherein the industrial machine is a machine tool that performs predetermined processing on a work.



JP2020119116A 2020-07-10 2020-07-10 Collaboration system Active JP6848110B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020119116A JP6848110B1 (en) 2020-07-10 2020-07-10 Collaboration system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020119116A JP6848110B1 (en) 2020-07-10 2020-07-10 Collaboration system

Publications (2)

Publication Number Publication Date
JP6848110B1 JP6848110B1 (en) 2021-03-24
JP2022015933A true JP2022015933A (en) 2022-01-21

Family

ID=74879280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020119116A Active JP6848110B1 (en) 2020-07-10 2020-07-10 Collaboration system

Country Status (1)

Country Link
JP (1) JP6848110B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022163744A1 (en) * 2021-01-29 2022-08-04 ファナック株式会社 Robot control device and numerical control system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6906724B1 (en) * 2021-03-25 2021-07-21 Dmg森精機株式会社 Machine Tools
JP7012181B1 (en) 2021-06-15 2022-02-14 Dmg森精機株式会社 Robot system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62166952A (en) * 1986-01-14 1987-07-23 Toyota Motor Corp Automatic line operating device
JP2003256042A (en) * 2002-03-03 2003-09-10 Tmsuk Co Ltd Security robot
JP2010052060A (en) * 2008-08-26 2010-03-11 Denso Corp Automatic operation device
WO2018092222A1 (en) * 2016-11-16 2018-05-24 株式会社牧野フライス製作所 Machine tool system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62166952A (en) * 1986-01-14 1987-07-23 Toyota Motor Corp Automatic line operating device
JP2003256042A (en) * 2002-03-03 2003-09-10 Tmsuk Co Ltd Security robot
JP2010052060A (en) * 2008-08-26 2010-03-11 Denso Corp Automatic operation device
WO2018092222A1 (en) * 2016-11-16 2018-05-24 株式会社牧野フライス製作所 Machine tool system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022163744A1 (en) * 2021-01-29 2022-08-04 ファナック株式会社 Robot control device and numerical control system

Also Published As

Publication number Publication date
JP6848110B1 (en) 2021-03-24

Similar Documents

Publication Publication Date Title
JP6848110B1 (en) Collaboration system
WO2021039829A1 (en) Production system
TWI611883B (en) Industrial remote operating robot system
US20050102060A1 (en) Device for correcting positional data of robot
US7765031B2 (en) Robot and multi-robot interference avoidance method
CN110267770B (en) Robot system and control method thereof
EP2868441A1 (en) Robot control device, robot system, and robot
US9227327B2 (en) Robot system and method for operating robot system
CN111645237B (en) Mold closing robot system
JP2011104759A (en) Teaching auxiliary tool for robot control system, teaching method using the teaching auxiliary tool, and robot control system performing teaching by the teaching method
CN115338855A (en) Double-arm robot assembling system
JP2017144542A (en) Robot device
JP7376916B2 (en) Work supply/removal system, portable robot device, and portable work stocker
WO2022264597A1 (en) Robot system
JP6832408B1 (en) Production system
US11366492B2 (en) Programmable device provided in a production environment for assisting an operator
WO2022091767A1 (en) Image processing method, image processing device, robot mounted-type conveyance device, and system
WO2022195938A1 (en) Robot system positioning accuracy measurement method
JP6756941B1 (en) Automated guided vehicle and an industrial machine system equipped with the automatic guided vehicle
JP7482364B2 (en) Robot-mounted mobile device and system
JP2023037769A (en) System and automatic conveyance vehicle
JPH11188545A (en) Movable robot and its control method
JP2020138315A (en) Production system
JPH07205014A (en) Grinding robot
US20230390924A1 (en) Setting method using teaching operation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200715

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200720

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210303

R150 Certificate of patent or registration of utility model

Ref document number: 6848110

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250