JP2011158981A - Working situation monitoring device - Google Patents

Working situation monitoring device Download PDF

Info

Publication number
JP2011158981A
JP2011158981A JP2010018240A JP2010018240A JP2011158981A JP 2011158981 A JP2011158981 A JP 2011158981A JP 2010018240 A JP2010018240 A JP 2010018240A JP 2010018240 A JP2010018240 A JP 2010018240A JP 2011158981 A JP2011158981 A JP 2011158981A
Authority
JP
Japan
Prior art keywords
camera
tool
unit
elapsed time
positional relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010018240A
Other languages
Japanese (ja)
Other versions
JP5530204B2 (en
Inventor
Kazuo Yamazaki
和雄 山崎
Hidenori Taketomi
英紀 武富
Yoshizumi Akai
良純 赤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DMG Mori Co Ltd
Intelligent Manufacturing Systems International Inc
Original Assignee
Mori Seiki Co Ltd
Intelligent Manufacturing Systems International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mori Seiki Co Ltd, Intelligent Manufacturing Systems International Inc filed Critical Mori Seiki Co Ltd
Priority to JP2010018240A priority Critical patent/JP5530204B2/en
Publication of JP2011158981A publication Critical patent/JP2011158981A/en
Application granted granted Critical
Publication of JP5530204B2 publication Critical patent/JP5530204B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a working situation monitoring device for enabling an operator to monitor the working situation of a work through an image generated by a camera selected from among a plurality of cameras. <P>SOLUTION: A working situation monitoring device 1 is provided with: a working simulation execution part 16 for updating three-dimensional model data on the basis of a working program; a camera selection part 24 for selecting the cameras 11, 12, 13 and 14 capable of generating two-dimensional image data in which the top end of a tool is not concealed by a work by the block of a working program on the basis of the camera parameters and three-dimensional model data of the plurality of cameras 11, 12, 13 and 14, ; a selected camera storage part 25 for storing the block of the working program and the selected camera in association; and a camera switching part 27 for making a picture display device 66 display two-dimensional image data generated by the cameras 11, 12, 13 and 14 corresponding to an execution block obtained from a controller 60 on the basis of the data stored in the selected camera storage part 25. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、工作機械におけるワーク加工状況の監視映像を画面表示装置に表示する加工状況監視装置に関する。   The present invention relates to a machining status monitoring device that displays a monitoring image of a workpiece machining status in a machine tool on a screen display device.

工作機械には、通常、安全性を確保すべく、ワークが加工される加工領域を囲むカバーが設けられている。このカバーには窓が設けられているものの、この窓を通してオペレータの視認することができる範囲は限られており、オペレータがこの窓からワークの加工状況を監視するには限界がある。   In general, a machine tool is provided with a cover surrounding a processing region in which a workpiece is processed in order to ensure safety. Although this cover is provided with a window, the range that the operator can visually recognize through this window is limited, and there is a limit for the operator to monitor the machining status of the workpiece from this window.

そこで、従来、例えば、特開平4−310106号公報に開示された工作機械が提案されている。この工作機械は、複数のビデオカメラと、これらのビデオカメラから得られる画像を表示する表示装置と、表示装置の表示画面をビデオカメラと同数の表示領域に分割し、各ビデオカメラから得られる画像を各表示領域にそれぞれ表示させる制御装置などを備えている。   Therefore, conventionally, for example, a machine tool disclosed in JP-A-4-310106 has been proposed. This machine tool divides a plurality of video cameras, a display device that displays images obtained from these video cameras, and a display screen of the display device into the same number of display areas as the video cameras, and images obtained from each video camera. Is provided in each display area.

そして、この工作機械によれば、オペレータは、カバーの窓からでは十分にワークの加工状況を監視することができない場合であっても、表示装置に表示される複数の画像によって複数の角度からワークの加工状況を監視することができる。   According to this machine tool, even when the operator cannot sufficiently monitor the workpiece machining status from the cover window, the operator can view the workpiece from a plurality of angles using a plurality of images displayed on the display device. The processing status of can be monitored.

特開平4−310106号公報JP-A-4-310106

しかしながら、上述のように、各ビデオカメラから得られる画像をすべて一律に表示させると、これらの画像の中には、工具の先端がワークによって隠れているものもあることから、ワークの加工状況を監視するのにあまり役立たない画像まで表示させることになる。また、表示画面を複数の表示領域に分割して、各ビデオカメラから得られる画像を表示させているので、各表示領域に表示される画像は小さくならざるを得ず、場合によっては、オペレータが細部を確認し難いこともある。更に、各ビデオカメラから得られる画像を工作機械の制御状態とともに表示する場合に、各ビデオカメラから得られる画像の表示領域を広くとると、本来表示させるべき制御状態の表示領域が狭くなり、オペレータは工作機械の制御状態を確認し難くなる。   However, as described above, when all the images obtained from each video camera are displayed uniformly, some of these images have the tip of the tool hidden by the workpiece. Even images that are not very useful for monitoring will be displayed. In addition, since the display screen is divided into a plurality of display areas and images obtained from the respective video cameras are displayed, the images displayed in the respective display areas must be reduced. It may be difficult to confirm details. Further, when an image obtained from each video camera is displayed together with the control state of the machine tool, if the display area of the image obtained from each video camera is widened, the display area of the control state to be originally displayed becomes narrow, and the operator Makes it difficult to check the control status of the machine tool.

したがって、複数のビデオカメラを工作機械に設置した場合には、複数のビデオカメラから得られる画像の内、工具の先端がワークによって隠れていない画像、即ち、工具の先端を確認可能な画像を少なくとも1つ表示すれば、表示画像を通して加工状況を監視するのが困難になることもないし、工作機械の制御状態を確認し難くなることもない。   Therefore, when a plurality of video cameras are installed in a machine tool, at least an image in which the tip of the tool is not hidden by the workpiece among images obtained from the plurality of video cameras, that is, an image that can confirm the tip of the tool is at least. If one is displayed, it is not difficult to monitor the machining status through the display image, and it is not difficult to confirm the control state of the machine tool.

本発明は、以上の実情に鑑みなされたものであって、複数のカメラの中から選択された少なくとも1つのカメラによって生成される、工具の先端がワークにより隠れていない画像を通してオペレータがワークの加工状況を監視することができる加工状況監視装置の提供をその目的とする。   The present invention has been made in view of the above circumstances, and an operator processes a workpiece through an image generated by at least one camera selected from a plurality of cameras, in which the tip of a tool is not hidden by the workpiece. The purpose is to provide a machining status monitoring device capable of monitoring the status.

上記目的を達成するための本発明は、
工具及びワークを相対移動させる加工動作機構部と、加工プログラムをそのブロック毎に解析して前記加工動作機構部の動作指令を抽出し、抽出した動作指令を基に前記加工動作機構部の作動を制御する制御手段とを備えた工作機械における加工状況を監視する装置であって、
少なくとも前記工具及びワークを互いに異なる視点から一定時間間隔で撮像してその2次元画像データを順次生成する複数のカメラと、
前記カメラによって生成された2次元画像データを表示する画面表示手段と、
前記複数のカメラについて、その配置位置及び姿勢を示すカメラパラメータをそれぞれ記憶するカメラパラメータ記憶手段と、
前記加工プログラムをそのブロック毎に解析して動作指令を抽出する動作指令抽出部と、前記動作指令抽出部によって抽出された動作指令、並びに前記工具,ワーク及び加工動作機構部の3次元モデルに関するデータを基に、前記加工動作機構部が前記動作指令に従って動作したときの前記工具,ワーク及び加工動作機構部のモデルデータを生成して更新するモデルデータ更新部とを有する加工シミュレーション実行手段と、
前記カメラパラメータ記憶手段に格納されたカメラパラメータと、前記モデルデータ更新部によって更新されたモデルデータとを基に、前記複数のカメラの内、少なくとも前記ワークによって前記工具の先端が隠れない2次元画像データを生成可能なカメラを前記加工プログラムのブロック毎に選択するカメラ選択手段と、
前記加工プログラムのブロックと、前記カメラ選択手段によって選択されたカメラとを関連付けて記憶する選択カメラ記憶手段と、
前記制御手段により前記加工プログラムが実行されると、この制御手段から得られる実行ブロックに関するデータと、前記選択カメラ記憶手段に格納されたデータとを基に、前記実行ブロックに対応したカメラを認識し、認識したカメラによって生成される2次元画像データを前記画面表示手段に表示させるカメラ切換手段とを備えてなることを特徴とする加工状況監視装置に係る。
To achieve the above object, the present invention provides:
A machining operation mechanism unit that relatively moves the tool and the workpiece, and a machining program is analyzed for each block to extract an operation command of the machining operation mechanism unit, and the machining operation mechanism unit is operated based on the extracted operation command. An apparatus for monitoring a machining state in a machine tool provided with a control means for controlling,
A plurality of cameras that capture at least the tool and the workpiece from different viewpoints at regular time intervals and sequentially generate two-dimensional image data thereof;
Screen display means for displaying two-dimensional image data generated by the camera;
Camera parameter storage means for storing camera parameters indicating the position and orientation of the plurality of cameras;
An operation command extraction unit that analyzes the machining program for each block and extracts an operation command, an operation command extracted by the operation command extraction unit, and data relating to a three-dimensional model of the tool, workpiece, and machining operation mechanism unit Based on the above, a machining simulation execution means having a model data update unit that generates and updates model data of the tool, workpiece, and machining operation mechanism unit when the machining operation mechanism unit operates according to the operation command;
Based on the camera parameters stored in the camera parameter storage means and the model data updated by the model data updating unit, a two-dimensional image in which the tip of the tool is not hidden by at least the workpiece among the plurality of cameras. Camera selection means for selecting a camera capable of generating data for each block of the machining program;
Selected camera storage means for storing the processing program block in association with the camera selected by the camera selection means;
When the processing program is executed by the control means, the camera corresponding to the execution block is recognized based on the data related to the execution block obtained from the control means and the data stored in the selected camera storage means. According to another aspect of the present invention, there is provided a processing status monitoring apparatus comprising: a camera switching unit that causes the screen display unit to display two-dimensional image data generated by the recognized camera.

この発明によれば、制御手段によって加工プログラムが実行される前に、即ち、工作機械において実際にワークが加工される前に、以下のようにして、複数のカメラの内、画面表示手段に表示させるべき2次元画像データを生成するカメラが選択,決定される。   According to the present invention, before the machining program is executed by the control means, that is, before the workpiece is actually machined on the machine tool, the display is made on the screen display means among the plurality of cameras as follows. A camera that generates two-dimensional image data to be processed is selected and determined.

まず、動作指令抽出部により、加工プログラムがそのブロック毎に解析されて加工動作機構部の動作指令が抽出されるとともに、抽出された動作指令と、工具,ワーク及び加工動作機構部のモデルデータ(3次元モデルデータ)とを基に、モデルデータ更新部により、加工動作機構部が動作指令に従って動作したときの工具,ワーク及び加工動作機構部のモデルデータが生成されて更新される。   First, the operation command extraction unit analyzes the machining program for each block to extract the operation command of the machining operation mechanism unit, and also extracts the extracted operation command and model data of the tool, workpiece, and machining operation mechanism unit ( Based on the three-dimensional model data), the model data update unit generates and updates model data of the tool, workpiece, and machining operation mechanism unit when the machining operation mechanism unit operates according to the operation command.

次に、モデルデータ更新部によって更新されたモデルデータと、カメラパラメータ記憶手段に格納されたカメラパラメータとを基に、カメラ選択手段により、複数のカメラの内、少なくともワークによって工具の先端が隠れない2次元画像データ(工具の先端が表示される2次元画像データ)を生成可能なカメラが加工プログラムのブロック毎に選択される。尚、このとき選択されるカメラは2つ以上であっても良い。   Next, based on the model data updated by the model data updating unit and the camera parameters stored in the camera parameter storage unit, the tip of the tool is not hidden by at least the workpiece among the plurality of cameras by the camera selection unit. A camera capable of generating two-dimensional image data (two-dimensional image data on which the tip of the tool is displayed) is selected for each block of the machining program. Note that two or more cameras may be selected at this time.

そして、加工プログラムのブロック毎にカメラが選択されると、カメラ選択手段により、選択されたカメラと、加工プログラムのブロックとが相互に関連付けられて選択カメラ記憶手段に格納される。このようにして、画面表示手段に表示させるべき2次元画像データを生成するカメラが選択,決定される。   When a camera is selected for each block of the machining program, the selected camera and the block of the machining program are associated with each other and stored in the selected camera storage unit by the camera selection unit. In this way, a camera that generates two-dimensional image data to be displayed on the screen display means is selected and determined.

この後、制御手段によって加工プログラムが実行されると、即ち、制御手段により、加工プログラムがそのブロック毎に解析されて加工動作機構部の動作指令が抽出され、抽出された動作指令を基に加工動作機構部が制御されて工具及びワークが相対移動せしめられると、この制御手段から得られる実行ブロックに関するデータと、選択カメラ記憶手段に格納されたデータとを基に、カメラ切換手段により、実行ブロックに対応したカメラが認識され、認識されたカメラによって生成される2次元画像データが画面表示手段に表示される。   After that, when the machining program is executed by the control means, that is, the machining program is analyzed for each block by the control means, and the operation command of the machining operation mechanism unit is extracted, and machining is performed based on the extracted operation command. When the operation mechanism is controlled and the tool and the workpiece are relatively moved, the execution block is executed by the camera switching means based on the data relating to the execution block obtained from the control means and the data stored in the selected camera storage means. Is recognized, and two-dimensional image data generated by the recognized camera is displayed on the screen display means.

斯くして、本発明に係る加工状況監視装置によれば、加工プログラムのブロック毎に選択された少なくとも1つのカメラによって生成される、工具の先端が隠れない2次元画像データを画面表示手段に順次表示させているので、オペレータは、表示画像を通してワークの加工状況を十分に監視することができる。   Thus, according to the machining status monitoring apparatus of the present invention, two-dimensional image data that is generated by at least one camera selected for each block of the machining program and that does not hide the tip of the tool is sequentially displayed on the screen display means. Since it is displayed, the operator can sufficiently monitor the processing status of the workpiece through the display image.

また、工具の先端が隠れない2次元画像データを表示させているので、加工状況の監視にさほど役立たない画像の表示を省略することができ、更に、一律にすべての画像を表示させていた従来に比べ、表示画像が小さくなることもなく、オペレータは、表示画像を通して加工状況を細部まで確認することができる。また、画面表示手段に工作機械の制御状態をカメラから得られる画像とともに表示させるようにしても、この制御状態の表示領域が必要以上に狭くなることはなく、オペレータは、工作機械の制御状態も十分に確認することができる。また、画面表示手段に表示される画像が自動的に切り換えられるので、オペレータが少なくとも1つの画像を選択して所望の画像に切り換えるといった手間を省くこともできる。   Moreover, since the two-dimensional image data in which the tip of the tool is not hidden is displayed, it is possible to omit the display of an image that is not very useful for monitoring the machining status, and furthermore, all images are displayed uniformly. Compared to the above, the display image is not reduced, and the operator can confirm the processing status through the display image in detail. Further, even if the control state of the machine tool is displayed on the screen display means together with the image obtained from the camera, the display region of the control state is not unnecessarily narrow, and the operator can also control the control state of the machine tool. It can be fully confirmed. In addition, since the image displayed on the screen display means is automatically switched, it is possible to save the operator from selecting at least one image and switching to a desired image.

尚、前記加工状況監視装置は、前記複数のカメラ,工具及び少なくともワークの位置関係を認識する位置関係認識手段を備え、前記加工シミュレーション実行手段は、前記動作指令抽出部によって抽出された動作指令を基に前記工具の位置情報を生成する位置情報生成部を更に有し、前記位置関係認識手段は、前記カメラパラメータ記憶手段に格納されたカメラパラメータと、前記位置情報生成部によって生成された前記工具の位置情報と、前記モデルデータ更新部によって更新されたモデルデータとを基に、前記位置関係を前記加工プログラムのブロック毎に認識するように構成され、前記カメラ選択手段は、前記位置関係認識手段によって認識された位置関係を基に前記カメラを選択するように構成されていても良い。   The machining status monitoring device includes positional relationship recognition means for recognizing the positional relationship between the plurality of cameras, tools, and at least the workpiece, and the machining simulation execution means receives the motion command extracted by the motion command extraction unit. A positional information generating unit that generates positional information of the tool based on the positional relationship recognition unit, wherein the positional relationship recognition unit includes the camera parameter stored in the camera parameter storage unit and the tool generated by the positional information generation unit; On the basis of the position information of the processing program and the model data updated by the model data update unit, the positional relationship is recognized for each block of the machining program, and the camera selection unit is configured to recognize the positional relationship. The camera may be selected on the basis of the positional relationship recognized by.

このようにすれば、まず、カメラパラメータ記憶手段に格納されたカメラパラメータと、位置情報生成部によって生成された工具位置情報と、モデルデータ更新部によって更新されたモデルデータとを基に、位置関係認識手段により、複数のカメラ,工具及び少なくともワークの位置関係が加工プログラムのブロック毎に認識される。   In this way, first, based on the camera parameters stored in the camera parameter storage means, the tool position information generated by the position information generation unit, and the model data updated by the model data update unit, the positional relationship The positional relationship between the plurality of cameras, tools and at least the workpiece is recognized for each block of the machining program by the recognition means.

例えば、複数のカメラについて、前記カメラパラメータから、カメラの撮像面と光軸との交点やカメラのレンズの中心点が認識され、前記工具位置情報から、工具移動前後における工具先端位置が認識され、前記モデルデータから、ワークの配置位置及び形状が認識される。或いは、カメラの撮像面と光軸との交点やカメラのレンズの中心点と、工具移動後における工具先端位置と、ワークの配置位置及び形状とが認識される。   For example, for a plurality of cameras, from the camera parameters, the intersection of the imaging surface of the camera and the optical axis and the center point of the camera lens are recognized, and the tool tip position before and after the tool movement is recognized from the tool position information, From the model data, the position and shape of the workpiece are recognized. Alternatively, the intersection between the imaging surface of the camera and the optical axis, the center point of the camera lens, the tool tip position after the tool is moved, and the arrangement position and shape of the workpiece are recognized.

次に、位置関係認識手段によって認識された位置関係を基に、カメラ選択手段により、工具の先端が隠れない2次元画像データを生成可能なカメラが判別されてこのカメラが選択される。例えば、まず、複数のカメラについて、カメラの撮像面と光軸との交点やカメラのレンズの中心点と、工具移動前後における工具先端位置との3点を結んで形成される3角形状の平面と、ワークの形状との間に交差部があるか否かがそれぞれ確認される。或いは、カメラの撮像面と光軸との交点やカメラのレンズの中心点と、工具移動後における工具先端位置との2点を結んだ直線と、ワークの形状との間に交差部があるか否かがそれぞれ確認される。   Next, based on the positional relationship recognized by the positional relationship recognition unit, the camera selection unit determines a camera capable of generating two-dimensional image data in which the tip of the tool is not hidden, and selects this camera. For example, for a plurality of cameras, a triangular plane formed by connecting three points of the intersection of the imaging surface of the camera and the optical axis, the center point of the camera lens, and the tool tip position before and after the tool movement. And whether or not there is an intersection between the workpiece shape and the workpiece shape. Or is there an intersection between the shape of the workpiece and the line connecting the two points of the intersection of the imaging surface of the camera and the optical axis, the center point of the camera lens, and the tool tip position after moving the tool? Each is confirmed.

そして、交差部があると確認されたカメラについては、工具の先端が隠れない2次元画像データを生成可能なカメラではないと判断され、一方、交差部がないと確認されたカメラについては、工具の先端が隠れない2次元画像データを生成可能なカメラであると判断されて、交差部がないと確認されたものの中からカメラが選択される。   For a camera that has been confirmed to have an intersection, it is determined that the camera is not capable of generating two-dimensional image data in which the tip of the tool is not hidden. It is determined that the camera is capable of generating two-dimensional image data in which the tip of the camera is not hidden, and the camera is selected from those confirmed to have no intersection.

このように、3点を結んで形成される3角形状の平面、或いは2点を結んだ直線と、ワークとの間に交差部があるか否かを確認して、どのカメラが、工具の先端が隠れない2次元画像データを生成可能なカメラであるかを判断するようにすれば、比較的簡単な処理で、工具の先端が隠れない2次元画像データを生成可能なカメラを判別することができる。   In this way, confirm whether there is an intersection between the workpiece and the triangular plane formed by connecting the three points, or the straight line connecting the two points, and which camera If it is determined whether the camera is capable of generating two-dimensional image data whose tip is not hidden, a camera capable of generating two-dimensional image data whose tool tip is not hidden is determined by a relatively simple process. Can do.

また、前記加工状況監視装置は、前記位置関係認識手段によって認識された位置関係を基に、前記複数のカメラの内、少なくとも前記ワークによって前記工具の先端が隠れない2次元画像データを生成可能なカメラをカメラ選択候補として前記加工プログラムのブロック毎に抽出する選択候補抽出手段と、前記加工プログラムのブロックと、前記選択候補抽出手段によって抽出されたカメラ選択候補とを関連付けて記憶する選択候補記憶手段とを備え、前記カメラ選択手段は、前記選択候補記憶手段に格納されたデータを基に、前記加工プログラムの各ブロックについて、前記カメラ選択候補の中から1つのカメラを選択,決定し、決定したカメラと、前記加工プログラムのブロックとを関連付けて前記選択カメラ記憶手段に格納するとともに、前記カメラ選択候補の中から1つのカメラを決定する際には、ブロック毎に前記カメラ選択候補の中から1つのカメラを選択してカメラの組み合わせを複数通り設定し、設定した各組み合わせについてカメラ切換回数を算出した後、最もカメラ切換回数が少ない組み合わせを基に1つのカメラを決定するように構成されていても良い。   Further, the machining status monitoring apparatus can generate two-dimensional image data in which at least the tip of the tool is not hidden by at least the workpiece among the plurality of cameras, based on the positional relationship recognized by the positional relationship recognition unit. Selection candidate extraction means for extracting a camera as a camera selection candidate for each block of the processing program, selection candidate storage means for storing the processing program block and the camera selection candidate extracted by the selection candidate extraction means in association with each other The camera selection means selects and determines one camera from among the camera selection candidates for each block of the processing program based on the data stored in the selection candidate storage means The camera and the processing program block are associated with each other and stored in the selected camera storage means. When determining one camera from among the camera selection candidates, one camera is selected from the camera selection candidates for each block, and a plurality of camera combinations are set, and a camera is set for each set combination. After calculating the number of switching times, one camera may be determined based on the combination with the smallest number of camera switching times.

このようにすれば、まず、位置関係認識手段によって認識された位置関係を基に、選択候補抽出手段により、工具の先端が隠れない2次元画像データを生成可能なカメラがカメラ選択候補として加工プログラムのブロック毎に抽出される。この抽出処理は、例えば、上述した、位置関係認識手段によって認識された位置関係を基に、カメラ選択手段によってカメラが選択される処理と同様にして行われる。   In this way, first, based on the positional relationship recognized by the positional relationship recognition means, a camera that can generate two-dimensional image data in which the tip of the tool is not hidden by the selection candidate extraction means is processed as a camera selection candidate. It is extracted for each block. This extraction process is performed, for example, in the same manner as the above-described process in which the camera is selected by the camera selection unit based on the positional relationship recognized by the positional relationship recognition unit.

そして、選択候補抽出手段により、抽出されたカメラ選択候補と、加工プログラムのブロックとが相互に関連付けられて選択候補記憶手段に格納される。この後、選択候補記憶手段に格納されたデータを基に、カメラ選択手段により、加工プログラムの各ブロックについて、カメラ選択候補の中から1つのカメラが選択,決定される。その際には、ブロック毎にカメラ選択候補の中から1つのカメラが選択されてカメラの組み合わせが複数通り設定され、設定された各組み合わせについてカメラ切換回数が算出された後、最もカメラ切換回数が少ない組み合わせを基に1つのカメラが決定される。そして、決定したカメラと、加工プログラムのブロックとが相互に関連付けられて選択カメラ記憶手段に格納される。   Then, the extracted camera selection candidate and the processing program block are correlated with each other and stored in the selection candidate storage unit by the selection candidate extraction unit. Thereafter, based on the data stored in the selection candidate storage means, one camera is selected and determined from the camera selection candidates for each block of the processing program by the camera selection means. At that time, one camera is selected from the camera selection candidates for each block, a plurality of combinations of cameras are set, and the number of times of camera switching is calculated for each set combination. One camera is determined based on a small number of combinations. Then, the determined camera and the processing program block are associated with each other and stored in the selected camera storage means.

このように、最もカメラ切換回数が少ない組み合わせを基に1つのカメラを決定すれば、ワーク加工時におけるカメラ切換回数を少なくすることができる。これにより、工具及びワークを見る方向が頻繁に変わってどの方向から見ているのかが分かり難くなり、却って、加工状況を監視し難くなるのを防止することができる。尚、カメラ切換は、連続するブロック間で、選択されたカメラが異なっているときに行われると判断することができ、また、カメラ切換回数は、前記カメラ切換の回数を積算することで求めることができる。   In this way, if one camera is determined based on the combination with the smallest number of camera switching times, the number of camera switching times during workpiece machining can be reduced. As a result, the direction in which the tool and workpiece are viewed changes frequently, making it difficult to understand from which direction, and it is possible to prevent the machining status from becoming difficult to monitor. In addition, it can be determined that the camera switching is performed when the selected camera is different between consecutive blocks, and the number of times of camera switching is obtained by integrating the number of times of camera switching. Can do.

また、前記カメラ選択手段は、前記加工プログラムの各ブロックについて、前記選択候補抽出手段によって抽出されたカメラ選択候補の中から1つのカメラを選択,決定し、決定したカメラと、前記加工プログラムのブロックとを関連付けて前記選択カメラ記憶手段に格納するとともに、前記カメラ選択候補の中から1つのカメラを決定する際には、決定すべきブロックのカメラ選択候補の中に、このブロックよりも1つ前のブロックについて決定したカメラが含まれているか否かを確認して、含まれていると判断したときには、前記1つ前のブロックと同じカメラに決定するように構成されていても良い。   The camera selection means selects and determines one camera from the camera selection candidates extracted by the selection candidate extraction means for each block of the processing program, and the determined camera and the block of the processing program Are stored in the selected camera storage means, and when one camera is determined from among the camera selection candidates, the camera selection candidates of the block to be determined are immediately before this block. When it is determined whether or not the camera determined for the previous block is included, and it is determined that it is included, the same camera as the previous block may be determined.

このようにしても、連続する2つのブロック間で同じカメラを選択してカメラ切換回数を少なくすることができるので、上記と同様の効果を得ることができる。   Even in this case, since the same camera can be selected between two consecutive blocks and the number of camera switching can be reduced, the same effect as described above can be obtained.

また、前記加工状況監視装置は、前記選択カメラ記憶手段に格納されたデータを修正する選択カメラ修正手段を備え、前記カメラ選択手段は、前記加工プログラムのブロック毎に前記カメラを1つ選択するように構成され、前記選択カメラ修正手段は、前記選択カメラ記憶手段に格納されたデータを基に、一定数連続したブロックにおけるカメラ切換回数を算出して、算出したカメラ切換回数が予め設定された許容切換回数よりも多いか否かを確認し、多いと判断したときには、前記選択カメラ記憶手段に格納されたデータを修正して、前記一定数連続したブロックの選択カメラを同じカメラに設定するように構成されていても良い。   Further, the processing status monitoring device includes a selection camera correction unit that corrects data stored in the selected camera storage unit, and the camera selection unit selects one of the cameras for each block of the processing program. The selected camera correction means calculates the number of camera switching times in a fixed number of consecutive blocks based on the data stored in the selected camera storage means, and the calculated camera switching times are set in advance. It is confirmed whether or not the number of switching is greater than the number of switching, and when it is determined that the number is larger, the data stored in the selected camera storage means is corrected, and the selected cameras of the predetermined number of consecutive blocks are set to the same camera. It may be configured.

このようにしても、一定数連続したブロックにおけるカメラ切換回数が予め設定された許容切換回数よりも多いときには、一定数連続したブロックの選択カメラを同じカメラに設定して、カメラ切換回数を少なくすることができるので、上記と同様の効果を得ることができ、また、特に、工具が微小移動を繰り返すような場合に効果的である。尚、前記一定数連続したブロックの選択カメラを同じカメラに設定するに当たっては、例えば、前記一定数連続したブロックの中で1回でも選択されているカメラ、或いは最も選択されているカメラに設定すると良い。   Even in this case, when the number of times of camera switching in a fixed number of consecutive blocks is greater than the preset allowable switching number, the selected cameras of a fixed number of consecutive blocks are set to the same camera, and the number of times of camera switching is reduced. Therefore, the same effect as described above can be obtained, and it is particularly effective when the tool repeats minute movements. In setting the selected camera of the fixed number of consecutive blocks to the same camera, for example, if it is set to the camera selected at least once in the fixed number of consecutive blocks or the most selected camera. good.

また、前記位置関係認識手段は、少なくとも、前記カメラパラメータ記憶手段に格納されたカメラパラメータと、前記位置情報生成部によって生成された前記工具の位置情報と、前記モデルデータ更新部によって更新されたモデルデータとを基に、前記位置関係及び前記工具の移動方向を前記加工プログラムのブロック毎に認識するように構成され、前記カメラ選択手段は、前記位置関係認識手段によって認識された位置関係及び工具の移動方向を基に、前記複数のカメラの内、少なくとも前記ワークによって前記工具の先端が隠れない2次元画像データを生成可能なカメラであり且つ前記工具の移動方向に応じたカメラを選択するように構成されていても良い。   The positional relationship recognizing means includes at least the camera parameters stored in the camera parameter storage means, the tool position information generated by the position information generating section, and the model updated by the model data updating section. Based on the data, the positional relationship and the movement direction of the tool are configured to be recognized for each block of the machining program, and the camera selection unit is configured to recognize the positional relationship and the tool detected by the positional relationship recognition unit. Based on the moving direction, a camera capable of generating two-dimensional image data in which at least the tip of the tool is not hidden by the workpiece is selected from the plurality of cameras, and a camera corresponding to the moving direction of the tool is selected. It may be configured.

このようにすれば、カメラ選択手段により、工具の移動方向も考慮してカメラが選択されるので、より適切なカメラを選択することができる。尚、工具の移動方向も考慮した場合の選択カメラとしては、例えば、工具が接近してくる画像を生成可能なカメラや、工具が離れていく画像を生成可能なカメラなどを挙げることができる。   In this way, the camera selection means selects the camera in consideration of the moving direction of the tool, so that a more appropriate camera can be selected. Examples of the selection camera in consideration of the moving direction of the tool include a camera capable of generating an image approaching the tool and a camera capable of generating an image separating the tool.

また、本発明は、加工プログラムのブロック毎に、工具の先端が隠れない2次元画像データを生成可能なカメラを選択するのではなく、加工プログラムの実行開始からの、予め設定された経過時間毎に、工具の先端が隠れない2次元画像データを生成可能なカメラを選択するようにしても良い。   Further, the present invention does not select a camera that can generate two-dimensional image data in which the tip of the tool is not hidden for each block of the machining program, but every preset elapsed time from the start of the machining program execution. In addition, a camera capable of generating two-dimensional image data in which the tip of the tool is not hidden may be selected.

この場合、前記加工シミュレーション実行手段は、前記動作指令抽出部によって抽出された動作指令を基に、前記加工プログラムの実行開始からの経過時間を算出する経過時間算出部を備え、前記カメラ選択手段は、前記カメラパラメータ記憶手段に格納されたカメラパラメータと、前記経過時間算出部によって算出される経過時間と、前記モデルデータ更新部によって更新されたモデルデータとを基に、前記複数のカメラの内、少なくとも前記ワークによって前記工具の先端が隠れない2次元画像データを生成可能なカメラを予め設定された経過時間毎に選択するように構成され、前記選択カメラ記憶手段は、前記予め設定された経過時間と、前記カメラ選択手段によって選択されたカメラとを関連付けて記憶するように構成され、前記カメラ切換手段は、前記制御手段により前記加工プログラムが実行されると、この制御手段から得られる、前記加工プログラムの実行開始からの経過時間に関するデータと、前記選択カメラ記憶手段に格納されたデータとを基に、前記経過時間に対応したカメラを認識し、認識したカメラによって生成される2次元画像データを前記画面表示手段に表示させるように構成される。   In this case, the machining simulation execution unit includes an elapsed time calculation unit that calculates an elapsed time from the start of execution of the machining program based on the operation command extracted by the operation command extraction unit, and the camera selection unit includes Based on the camera parameters stored in the camera parameter storage means, the elapsed time calculated by the elapsed time calculation unit, and the model data updated by the model data update unit, among the plurality of cameras, At least a camera capable of generating two-dimensional image data in which the tip of the tool is not hidden by the workpiece is selected for each preset elapsed time, and the selected camera storage means includes the preset elapsed time And the camera selected by the camera selection means are stored in association with each other. When the machining program is executed by the control means, the la switching means is obtained from the control means, the data relating to the elapsed time from the start of execution of the machining program, the data stored in the selected camera storage means, Based on the above, a camera corresponding to the elapsed time is recognized, and two-dimensional image data generated by the recognized camera is displayed on the screen display means.

この発明によれば、上記と同様、制御手段によって加工プログラムが実行される前に、以下のようにして、画面表示手段に表示させるべき2次元画像データを生成するカメラが選択,決定される。   According to the present invention, as described above, before the processing program is executed by the control means, a camera that generates two-dimensional image data to be displayed on the screen display means is selected and determined as follows.

まず、動作指令抽出部により、加工プログラムが解析されて加工動作機構部の動作指令が抽出され、抽出された動作指令を基に、経過時間算出部により、加工プログラムの実行開始からの経過時間が算出されるとともに、抽出された動作指令と、工具,ワーク及び加工動作機構部のモデルデータとを基に、モデルデータ更新部により、加工動作機構部が動作指令に従って動作したときの工具,ワーク及び加工動作機構部のモデルデータが生成されて更新される。   First, the operation command extraction unit analyzes the machining program and extracts the operation command of the machining operation mechanism unit. Based on the extracted operation command, the elapsed time calculation unit calculates the elapsed time from the start of execution of the machining program. Based on the calculated operation command and the model data of the tool, workpiece, and machining operation mechanism unit, the model data updating unit causes the tool, workpiece, and work when the machining operation mechanism unit operates according to the operation command. Model data of the machining operation mechanism unit is generated and updated.

次に、経過時間算出部によって算出される経過時間と、モデルデータ更新部によって更新されたモデルデータと、カメラパラメータ記憶手段に格納されたカメラパラメータとを基に、カメラ選択手段により、複数のカメラの内、少なくともワークによって工具の先端が隠れない2次元画像データを生成可能なカメラが予め設定された経過時間毎に選択される。尚、このとき選択されるカメラは2つ以上であっても良い。   Next, based on the elapsed time calculated by the elapsed time calculation unit, the model data updated by the model data update unit, and the camera parameters stored in the camera parameter storage unit, a plurality of cameras are selected by the camera selection unit. Among them, a camera capable of generating at least two-dimensional image data in which the tip of the tool is not hidden by the work is selected at every preset elapsed time. Note that two or more cameras may be selected at this time.

そして、予め設定された経過時間毎にカメラが選択されると、カメラ選択手段により、選択されたカメラと、予め設定された経過時間とが相互に関連付けられて選択カメラ記憶手段に格納される。このようにして、画面表示手段に表示させるべき2次元画像データを生成するカメラが選択,決定される。   When a camera is selected for each preset elapsed time, the selected camera and the preset elapsed time are associated with each other and stored in the selected camera storage unit by the camera selection unit. In this way, a camera that generates two-dimensional image data to be displayed on the screen display means is selected and determined.

この後、制御手段によって加工プログラムが実行され、加工動作機構部により工具及びワークが相対移動せしめられると、前記制御手段から得られる、加工プログラムの実行開始からの経過時間に関するデータと、選択カメラ記憶手段に格納されたデータとを基に、カメラ切換手段により、経過時間に対応したカメラが認識され、認識されたカメラによって生成される2次元画像データが画面表示手段に表示される。   After that, when the machining program is executed by the control means, and the tool and the workpiece are relatively moved by the machining operation mechanism unit, the data relating to the elapsed time from the start of execution of the machining program obtained from the control means, and the selected camera storage Based on the data stored in the means, the camera corresponding to the elapsed time is recognized by the camera switching means, and the two-dimensional image data generated by the recognized camera is displayed on the screen display means.

斯くして、本発明に係る加工状況監視装置によっても、経過時間毎に選択された少なくとも1つのカメラによって生成される、工具の先端が隠れない2次元画像データを画面表示手段に順次表示させることができるので、上記と同様、オペレータは、表示画像を通してワークの加工状況を十分に監視することができる。   Thus, even with the machining status monitoring apparatus according to the present invention, two-dimensional image data that is generated by at least one camera selected every elapsed time and that does not hide the tip of the tool is sequentially displayed on the screen display means. Therefore, similarly to the above, the operator can sufficiently monitor the processing state of the workpiece through the display image.

また、工具の先端が隠れない2次元画像データを表示させているので、加工状況の監視にさほど役立たない画像の表示を省略することができ、更に、一律にすべての画像を表示させていた従来に比べ、表示画像が小さくなることもなく、オペレータは、表示画像を通して加工状況を細部まで確認することができる。また、画面表示手段に工作機械の制御状態をカメラから得られる画像とともに表示させるようにしても、この制御状態の表示領域が必要以上に狭くなることはなく、オペレータは、工作機械の制御状態も十分に確認することができる。また、画面表示手段に表示される画像が自動的に切り換えられるので、オペレータが少なくとも1つの画像を選択して所望の画像に切り換えるといった手間を省くこともできる。   Moreover, since the two-dimensional image data in which the tip of the tool is not hidden is displayed, it is possible to omit the display of an image that is not very useful for monitoring the machining status, and furthermore, all images are displayed uniformly. Compared to the above, the display image is not reduced, and the operator can confirm the processing status through the display image in detail. Further, even if the control state of the machine tool is displayed on the screen display means together with the image obtained from the camera, the display region of the control state is not unnecessarily narrow, and the operator can also control the control state of the machine tool. It can be fully confirmed. In addition, since the image displayed on the screen display means is automatically switched, it is possible to save the operator from selecting at least one image and switching to a desired image.

尚、前記加工状況監視装置は、前記複数のカメラ,工具及び少なくともワークの位置関係を認識する位置関係認識手段を備え、前記加工シミュレーション実行手段は、前記動作指令抽出部によって抽出された動作指令を基に前記工具の位置情報を生成する位置情報生成部を更に有し、前記位置関係認識手段は、前記カメラパラメータ記憶手段に格納されたカメラパラメータと、前記経過時間算出部によって算出される経過時間と、前記位置情報生成部によって生成された前記工具の位置情報と、前記モデルデータ更新部によって更新されたモデルデータとを基に、前記位置関係を前記予め設定された経過時間毎に認識するように構成され、前記カメラ選択手段は、前記位置関係認識手段によって認識された位置関係を基に前記カメラを選択するように構成されていても良い。   The machining status monitoring device includes positional relationship recognition means for recognizing the positional relationship between the plurality of cameras, tools, and at least the workpiece, and the machining simulation execution means receives the motion command extracted by the motion command extraction unit. A positional information generation unit that generates positional information of the tool based on the positional relationship recognition unit, wherein the positional relationship recognition unit includes a camera parameter stored in the camera parameter storage unit and an elapsed time calculated by the elapsed time calculation unit; And recognizing the positional relationship for each preset elapsed time based on the position information of the tool generated by the position information generation unit and the model data updated by the model data update unit. The camera selection unit selects the camera based on the positional relationship recognized by the positional relationship recognition unit. It may be configured to.

このようにすれば、まず、カメラパラメータ記憶手段に格納されたカメラパラメータと、経過時間算出部によって算出される経過時間と、位置情報生成部によって生成された工具位置情報と、モデルデータ更新部によって更新されたモデルデータとを基に、位置関係認識手段により、複数のカメラ,工具及び少なくともワークの位置関係が予め設定された経過時間毎に認識される。   According to this configuration, first, the camera parameters stored in the camera parameter storage unit, the elapsed time calculated by the elapsed time calculation unit, the tool position information generated by the position information generation unit, and the model data update unit Based on the updated model data, the positional relationship recognition means recognizes the positional relationship among the plurality of cameras, tools, and at least the workpiece at each preset elapsed time.

例えば、複数のカメラについて、前記カメラパラメータから、カメラの撮像面と光軸との交点やカメラのレンズの中心点が認識され、前記工具位置情報から、工具移動前後における工具先端位置が認識され、前記モデルデータから、ワークの配置位置及び形状が認識される。或いは、カメラの撮像面と光軸との交点やカメラのレンズの中心点と、工具移動後における工具先端位置と、ワークの配置位置及び形状とが認識される。   For example, for a plurality of cameras, from the camera parameters, the intersection of the imaging surface of the camera and the optical axis and the center point of the camera lens are recognized, and the tool tip position before and after the tool movement is recognized from the tool position information, From the model data, the position and shape of the workpiece are recognized. Alternatively, the intersection between the imaging surface of the camera and the optical axis, the center point of the camera lens, the tool tip position after the tool is moved, and the arrangement position and shape of the workpiece are recognized.

次に、位置関係認識手段によって認識された位置関係を基に、カメラ選択手段により、工具の先端が隠れない2次元画像データを生成可能なカメラが判別されてこのカメラが選択される。例えば、まず、複数のカメラについて、カメラの撮像面と光軸との交点やカメラのレンズの中心点と、工具移動前後における工具先端位置との3点を結んで形成される3角形状の平面と、ワークの形状との間に交差部があるか否かがそれぞれ確認される。或いは、カメラの撮像面と光軸との交点やカメラのレンズの中心点と、工具移動後における工具先端位置との2点を結んだ直線と、ワークの形状との間に交差部があるか否かがそれぞれ確認される。   Next, based on the positional relationship recognized by the positional relationship recognition unit, the camera selection unit determines a camera capable of generating two-dimensional image data in which the tip of the tool is not hidden, and selects this camera. For example, for a plurality of cameras, a triangular plane formed by connecting three points of the intersection of the imaging surface of the camera and the optical axis, the center point of the camera lens, and the tool tip position before and after the tool movement. And whether or not there is an intersection between the workpiece shape and the workpiece shape. Or is there an intersection between the shape of the workpiece and the line connecting the two points of the intersection of the imaging surface of the camera and the optical axis, the center point of the camera lens, and the tool tip position after moving the tool? Each is confirmed.

そして、交差部があると確認されたカメラについては、工具の先端が隠れない2次元画像データを生成可能なカメラではないと判断され、一方、交差部がないと確認されたカメラについては、工具の先端が隠れない2次元画像データを生成可能なカメラであると判断されて、交差部がないと確認されたものの中からカメラが選択される。   For a camera that has been confirmed to have an intersection, it is determined that the camera is not capable of generating two-dimensional image data in which the tip of the tool is not hidden. It is determined that the camera is capable of generating two-dimensional image data in which the tip of the camera is not hidden, and the camera is selected from those confirmed to have no intersection.

このように、上記と同様、3点を結んで形成される3角形状の平面、或いは2点を結んだ直線と、ワークとの間に交差部があるか否かを確認して、どのカメラが、工具の先端が隠れない2次元画像データを生成可能なカメラであるかを判断するようにすれば、比較的簡単な処理で、工具の先端が隠れない2次元画像データを生成可能なカメラを判別することができる。   In this manner, as described above, it is confirmed whether there is an intersection between a triangular plane formed by connecting three points, or a straight line connecting two points, and the work, and which camera is selected. However, if it is determined whether the camera can generate 2D image data in which the tool tip is not hidden, the camera can generate 2D image data in which the tool tip is not hidden by a relatively simple process. Can be determined.

また、前記加工状況監視装置は、前記位置関係認識手段によって認識された位置関係を基に、前記複数のカメラの内、少なくとも前記ワークによって前記工具の先端が隠れない2次元画像データを生成可能なカメラをカメラ選択候補として前記予め設定された経過時間毎に抽出する選択候補抽出手段と、前記予め設定された経過時間と、前記選択候補抽出手段によって抽出されたカメラ選択候補とを関連付けて記憶する選択候補記憶手段とを備え、前記カメラ選択手段は、前記選択候補記憶手段に格納されたデータを基に、前記予め設定された各経過時間について、前記カメラ選択候補の中から1つのカメラを選択,決定し、決定したカメラと、前記予め設定された経過時間とを関連付けて前記選択カメラ記憶手段に格納するとともに、前記カメラ選択候補の中から1つのカメラを決定する際には、予め設定された経過時間毎に前記カメラ選択候補の中から1つのカメラを選択してカメラの組み合わせを複数通り設定し、設定した各組み合わせについてカメラ切換回数を算出した後、最もカメラ切換回数が少ない組み合わせを基に1つのカメラを決定するように構成されていても良い。   Further, the machining status monitoring apparatus can generate two-dimensional image data in which at least the tip of the tool is not hidden by at least the workpiece among the plurality of cameras, based on the positional relationship recognized by the positional relationship recognition unit. Selection candidate extraction means for extracting a camera as a camera selection candidate at each preset elapsed time, the preset elapsed time, and the camera selection candidate extracted by the selection candidate extraction means are stored in association with each other. Selection candidate storage means, wherein the camera selection means selects one camera from the camera selection candidates for each preset elapsed time based on data stored in the selection candidate storage means , Determine and store the determined camera and the preset elapsed time in association with the selected camera storage means, When determining one camera from among the camera selection candidates, select one camera from the camera selection candidates for each preset elapsed time, and set a plurality of combinations of cameras. After calculating the number of times of camera switching for the combination, one camera may be determined based on the combination having the smallest number of times of camera switching.

このようにすれば、まず、位置関係認識手段によって認識された位置関係を基に、選択候補抽出手段により、工具の先端が隠れない2次元画像データを生成可能なカメラがカメラ選択候補として予め設定された経過時間毎に抽出される。この抽出処理は、例えば、上述した、位置関係認識手段によって認識された位置関係を基に、カメラ選択手段によってカメラが選択される処理と同様にして行われる。   In this way, first, a camera capable of generating two-dimensional image data in which the tip of the tool is not hidden by the selection candidate extraction unit is preset as a camera selection candidate based on the positional relationship recognized by the positional relationship recognition unit. It is extracted at every elapsed time. This extraction process is performed, for example, in the same manner as the above-described process in which the camera is selected by the camera selection unit based on the positional relationship recognized by the positional relationship recognition unit.

そして、選択候補抽出手段により、抽出されたカメラ選択候補と、予め設定された経過時間とが相互に関連付けられて選択候補記憶手段に格納される。この後、選択候補記憶手段に格納されたデータを基に、カメラ選択手段により、予め設定された各経過時間について、カメラ選択候補の中から1つのカメラが選択,決定される。その際には、予め設定された経過時間毎にカメラ選択候補の中から1つのカメラが選択されてカメラの組み合わせが複数通り設定され、設定された各組み合わせについてカメラ切換回数が算出された後、最もカメラ切換回数が少ない組み合わせを基に1つのカメラが決定される。そして、決定したカメラと、予め設定された経過時間とが相互に関連付けられて選択カメラ記憶手段に格納される。   Then, the extracted camera selection candidate and the preset elapsed time are associated with each other and stored in the selection candidate storage unit by the selection candidate extraction unit. Thereafter, based on the data stored in the selection candidate storage means, one camera is selected and determined from the camera selection candidates for each preset elapsed time by the camera selection means. In that case, after one camera is selected from camera selection candidates for each preset elapsed time and a plurality of combinations of cameras are set, and the number of times of camera switching is calculated for each set combination, One camera is determined based on the combination with the smallest number of camera switching times. Then, the determined camera and a preset elapsed time are associated with each other and stored in the selected camera storage means.

このように、最もカメラ切換回数が少ない組み合わせを基に1つのカメラを決定すれば、ワーク加工時におけるカメラ切換回数を少なくすることができる。これにより、工具及びワークを見る方向が頻繁に変わってどの方向から見ているのかが分かり難くなり、却って、加工状況を監視し難くなるのを防止することができる。尚、カメラ切換は、連続する2つの経過時間で、選択されたカメラが異なっているときに行われると判断することができ、また、カメラ切換回数は、前記カメラ切換の回数を積算することで求めることができる。   In this way, if one camera is determined based on the combination with the smallest number of camera switching times, the number of camera switching times during workpiece machining can be reduced. As a result, the direction in which the tool and workpiece are viewed changes frequently, making it difficult to understand from which direction, and it is possible to prevent the machining status from becoming difficult to monitor. Note that it can be determined that the camera switching is performed when two selected elapsed time is different between the selected cameras, and the camera switching frequency is obtained by adding up the number of times of camera switching. Can be sought.

また、前記カメラ選択手段は、前記予め設定された各経過時間について、前記選択候補抽出手段によって抽出されたカメラ選択候補の中から1つのカメラを選択,決定し、決定したカメラと、前記予め設定された経過時間とを関連付けて前記選択カメラ記憶手段に格納するとともに、前記カメラ選択候補の中から1つのカメラを決定する際には、決定すべき経過時間のカメラ選択候補の中に、この経過時間よりも1つ前の経過時間について決定したカメラが含まれているか否かを確認して、含まれていると判断したときには、前記1つ前の経過時間と同じカメラに決定するように構成されていても良い。   Further, the camera selection means selects and determines one camera from the camera selection candidates extracted by the selection candidate extraction means for each preset elapsed time, the determined camera, and the preset And the stored elapsed time in association with each other and stored in the selected camera storage means, and when determining one camera from among the camera selection candidates, It is configured to check whether or not the camera determined for the elapsed time one time before is included, and to determine that the camera is the same as the previous elapsed time when it is determined that it is included May be.

このようにしても、連続する2つの経過時間で同じカメラを選択してカメラ切換回数を少なくすることができるので、上記と同様の効果を得ることができる。   Even in this case, the same camera can be selected in two consecutive elapsed times to reduce the number of times of camera switching, so that the same effect as described above can be obtained.

また、前記加工状況監視装置は、前記選択カメラ記憶手段に格納されたデータを修正する選択カメラ修正手段を備え、前記カメラ選択手段は、前記予め設定された経過時間毎に前記カメラを1つ選択するように構成され、前記選択カメラ修正手段は、前記選択カメラ記憶手段に格納されたデータを基に、一定時間におけるカメラ切換回数を算出して、算出したカメラ切換回数が予め設定された許容切換回数よりも多いか否かを確認し、多いと判断したときには、前記選択カメラ記憶手段に格納されたデータを修正して、前記一定時間における選択カメラを同じカメラに設定するように構成されていても良い。   In addition, the processing status monitoring device includes a selection camera correction unit that corrects data stored in the selected camera storage unit, and the camera selection unit selects one of the cameras for each preset elapsed time. The selected camera correction means calculates the number of times of camera switching in a fixed time based on the data stored in the selected camera storage means, and the calculated allowable number of camera switching is preset. It is configured to check whether or not the number is greater than the number of times, and when it is determined that the number is larger, the data stored in the selected camera storage means is corrected and the selected camera at the predetermined time is set to the same camera. Also good.

このようにしても、一定時間におけるカメラ切換回数が予め設定された許容切換回数よりも多いときには、一定時間における選択カメラを同じカメラに設定して、カメラ切換回数を少なくすることができるので、上記と同様の効果を得ることができ、また、特に、工具が微小移動を繰り返すような場合に効果的である。尚、前記一定時間における選択カメラを同じカメラに設定するに当たっては、例えば、前記一定時間の中で1回でも選択されているカメラ、或いは最も選択されているカメラに設定すると良い。   Even in this case, when the number of camera switching times in a certain time is larger than the preset allowable switching number, the selected camera in the certain time can be set to the same camera, and the number of camera switching times can be reduced. The same effect can be obtained, and is particularly effective when the tool repeats minute movements. In setting the selected camera at the predetermined time as the same camera, for example, it may be set to the camera selected at least once in the predetermined time or the most selected camera.

また、前記位置関係認識手段は、少なくとも、前記カメラパラメータ記憶手段に格納されたカメラパラメータと、前記経過時間算出部によって算出される経過時間と、前記位置情報生成部によって生成された前記工具の位置情報と、前記モデルデータ更新部によって更新されたモデルデータとを基に、前記位置関係及び前記工具の移動方向を前記予め設定された経過時間毎に認識するように構成され、前記カメラ選択手段は、前記位置関係認識手段によって認識された位置関係及び工具の移動方向を基に、前記複数のカメラの内、少なくとも前記ワークによって前記工具の先端が隠れない2次元画像データを生成可能なカメラであり且つ前記工具の移動方向に応じたカメラを選択するように構成されていても良い。   The positional relationship recognition means includes at least the camera parameters stored in the camera parameter storage means, the elapsed time calculated by the elapsed time calculation section, and the position of the tool generated by the position information generation section. On the basis of the information and the model data updated by the model data update unit, the positional relationship and the moving direction of the tool are configured to be recognized for each preset elapsed time, and the camera selection means The camera is capable of generating two-dimensional image data in which the tip of the tool is not hidden by at least the workpiece among the plurality of cameras based on the positional relationship recognized by the positional relationship recognition means and the moving direction of the tool. The camera may be selected according to the moving direction of the tool.

このようにすれば、上記と同様、カメラ選択手段により、工具の移動方向も考慮してカメラが選択されるので、より適切なカメラを選択することができる。尚、工具の移動方向も考慮した場合の選択カメラとしては、例えば、工具が接近してくる画像を生成可能なカメラや、工具が離れていく画像を生成可能なカメラなどを挙げることができる。   In this way, as described above, since the camera is selected by the camera selection means in consideration of the moving direction of the tool, a more appropriate camera can be selected. Examples of the selection camera in consideration of the moving direction of the tool include a camera capable of generating an image approaching the tool and a camera capable of generating an image separating the tool.

尚、前記加工動作機構部としては、工作機械がマシニングセンタであるときには、例えば、工具を保持する主軸、ワークが載置されるテーブル、これら主軸及びテーブルを相対移動させる送り機構部などを挙げることができ、工作機械が旋盤であるときには、例えば、工具を保持する刃物台、ワークを保持する主軸、これら刃物台及び主軸を相対移動させる送り機構部などを挙げることができる。   As the machining operation mechanism unit, when the machine tool is a machining center, for example, a spindle for holding a tool, a table on which a workpiece is placed, a feed mechanism unit for relatively moving the spindle and the table, and the like can be given. When the machine tool is a lathe, for example, a turret for holding a tool, a main shaft for holding a workpiece, a feed mechanism section for relatively moving the turret and the main shaft, and the like can be given.

以上のように、本発明に係る加工状況監視装置によれば、オペレータは、複数のカメラの中から選択されたカメラによって生成される、工具の先端がワークにより隠れていない画像を通してワークの加工状況を監視することができるので、ワークの加工状況を正確に把握することができる。また、不要な監視画像の表示を省略して、監視画像や工作機械の制御状態に係る画像が必要以上に小さくなるのを防止することができるので、オペレータの視認性を高めることができる。   As described above, according to the machining status monitoring apparatus according to the present invention, the operator can process the workpiece through the image generated by the camera selected from the plurality of cameras and the tip of the tool is not hidden by the workpiece. Therefore, it is possible to accurately grasp the machining status of the workpiece. In addition, unnecessary monitoring images can be omitted from being displayed, and the monitoring image and the image relating to the control state of the machine tool can be prevented from becoming unnecessarily small, so that the visibility of the operator can be improved.

本発明の一実施形態に係る加工状況監視装置などの概略構成を示したブロック図である。It is the block diagram which showed schematic structure, such as the processing condition monitoring apparatus which concerns on one Embodiment of this invention. 本実施形態の加工状況監視装置が設けられる工作機械の概略構成を示した斜視図である。It is the perspective view which showed schematic structure of the machine tool provided with the processing condition monitoring apparatus of this embodiment. 工作機械に配設された複数のCCDカメラの配置関係を示した平面図である。It is the top view which showed the arrangement | positioning relationship of the some CCD camera arrange | positioned at the machine tool. 複数のCCDカメラから得られる画像例を示した説明図である。It is explanatory drawing which showed the example of an image obtained from a some CCD camera. 工具の先端が隠れない2次元画像データを生成可能なCCDカメラを判別するための処理を説明するための説明図である。It is explanatory drawing for demonstrating the process for discriminating the CCD camera which can produce | generate the two-dimensional image data which does not hide the front-end | tip of a tool. 本実施形態の選択候補記憶部に格納されるデータのデータ構成を示した説明図である。It is explanatory drawing which showed the data structure of the data stored in the selection candidate memory | storage part of this embodiment. 本実施形態のカメラ選択部における一連の処理を示したフローチャートである。It is the flowchart which showed a series of processes in the camera selection part of this embodiment. 本実施形態におけるCCDカメラの組み合わせ例を説明するための説明図である。It is explanatory drawing for demonstrating the example of a combination of the CCD camera in this embodiment. 本実施形態の選択カメラ記憶部に格納されるデータのデータ構成を示した説明図である。It is explanatory drawing which showed the data structure of the data stored in the selection camera memory | storage part of this embodiment. 本実施形態の選択カメラ修正部における一連の処理を示したフローチャートである。It is the flowchart which showed a series of processes in the selection camera correction part of this embodiment. 本実施形態における、選択されたCCDカメラの修正例を説明するための説明図である。It is explanatory drawing for demonstrating the correction example of the selected CCD camera in this embodiment. 本実施形態のCCDカメラ選択,決定過程を示したフローチャートである。It is the flowchart which showed the CCD camera selection and determination process of this embodiment. 本発明の他の実施形態に係る加工状況監視装置などの概略構成を示したブロック図である。It is the block diagram which showed schematic structure, such as the processing condition monitoring apparatus which concerns on other embodiment of this invention. 本発明の他の実施形態のカメラ選択部における一連の処理を示したフローチャートである。It is the flowchart which showed a series of processes in the camera selection part of other embodiment of this invention. 本発明の他の実施形態のCCDカメラ選択,決定過程を示したフローチャートである。6 is a flowchart illustrating a process of selecting and determining a CCD camera according to another embodiment of the present invention. 本発明の他の実施形態に係る加工状況監視装置などの概略構成を示したブロック図である。It is the block diagram which showed schematic structure, such as the processing condition monitoring apparatus which concerns on other embodiment of this invention. 本発明の他の実施形態の選択候補記憶部に格納されるデータのデータ構成を示した説明図である。It is explanatory drawing which showed the data structure of the data stored in the selection candidate memory | storage part of other embodiment of this invention. 本発明の他の実施形態におけるCCDカメラの組み合わせ例を説明するための説明図である。It is explanatory drawing for demonstrating the example of a combination of the CCD camera in other embodiment of this invention. 本発明の他の実施形態の選択カメラ記憶部に格納されるデータのデータ構成を示した説明図である。It is explanatory drawing which showed the data structure of the data stored in the selection camera memory | storage part of other embodiment of this invention. 本発明の他の実施形態における、選択されたCCDカメラの修正例を説明するための説明図である。It is explanatory drawing for demonstrating the correction example of the selected CCD camera in other embodiment of this invention. 本発明の他の実施形態のCCDカメラ選択,決定過程を示したフローチャートである。6 is a flowchart illustrating a process of selecting and determining a CCD camera according to another embodiment of the present invention. 本発明の他の実施形態のCCDカメラ選択,決定過程を示したフローチャートである。6 is a flowchart illustrating a process of selecting and determining a CCD camera according to another embodiment of the present invention. 本発明の他の実施形態に係る加工状況監視装置などの概略構成を示したブロック図である。It is the block diagram which showed schematic structure, such as the processing condition monitoring apparatus which concerns on other embodiment of this invention. 本発明の他の実施形態のCCDカメラ選択,決定過程を示したフローチャートである。6 is a flowchart illustrating a process of selecting and determining a CCD camera according to another embodiment of the present invention. 本発明の他の実施形態のCCDカメラ選択,決定過程を示したフローチャートである。6 is a flowchart illustrating a process of selecting and determining a CCD camera according to another embodiment of the present invention.

以下、本発明の具体的な実施形態について、添付図面に基づき説明する。尚、図1は、本発明の一実施形態に係る加工状況監視装置などの概略構成を示したブロック図であり、図2は、本実施形態の加工状況監視装置が設けられる工作機械の概略構成を示した斜視図である。また、図3は、工作機械に配設された複数のCCDカメラの配置関係を示した平面図である。   Hereinafter, specific embodiments of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a block diagram showing a schematic configuration of a machining status monitoring device and the like according to one embodiment of the present invention, and FIG. 2 is a schematic configuration of a machine tool provided with the machining status monitoring device of this embodiment. It is the perspective view which showed. FIG. 3 is a plan view showing an arrangement relationship of a plurality of CCD cameras arranged on the machine tool.

図1に示すように、本例の加工状況監視装置1は、複数(本例では4つ)のCCDカメラ11,12,13,14、カメラパラメータ記憶部15、加工シミュレーション実行部16、位置関係認識部21、選択候補抽出部22、選択候補記憶部23、カメラ選択部24、選択カメラ記憶部25、選択カメラ修正部26、カメラ切換部27及び画面表示装置66を備え、例えば、図2に示すような、マシニングセンタと呼ばれる工作機械50に設けられる。   As shown in FIG. 1, the processing status monitoring apparatus 1 of this example includes a plurality (four in this example) of CCD cameras 11, 12, 13, and 14, a camera parameter storage unit 15, a processing simulation execution unit 16, and positional relationships. 2 includes a recognition unit 21, a selection candidate extraction unit 22, a selection candidate storage unit 23, a camera selection unit 24, a selected camera storage unit 25, a selected camera correction unit 26, a camera switching unit 27, and a screen display device 66. As shown, it is provided in a machine tool 50 called a machining center.

ここで、まず、前記工作機械50について説明する。この工作機械50は、図1及び図2に示すように、ベッド51と、ベッド51に配設され、水平方向且つ前後方向(Y軸方向)に移動自在となった第1サドル52と、第1サドル52に配設され、水平方向且つ左右方向(X軸方向)に移動自在となった第2サドル53と、第2サドル53に支持され、鉛直方向(Z軸方向)に移動自在となった主軸頭54と、軸線がZ軸と平行且つ軸線中心に回転自在に主軸頭54によって支持され、下端部に工具Tが装着される主軸55と、ベッド51に配設され、上面にワークWが載置されるテーブル56と、第1サドル52,第2サドル53及び主軸頭54を各移動方向にそれぞれ移動させるY軸送り機構部57,X軸送り機構部58及びZ軸送り機構部59と、各送り機構部57,58,59の作動を制御する制御装置60と、制御装置60に接続された操作盤65とを備えている。   First, the machine tool 50 will be described. As shown in FIGS. 1 and 2, the machine tool 50 includes a bed 51, a first saddle 52 disposed on the bed 51, which is movable in the horizontal direction and the front-rear direction (Y-axis direction), A second saddle 53 disposed on one saddle 52 and movable in the horizontal direction and in the left-right direction (X-axis direction) and supported by the second saddle 53 and movable in the vertical direction (Z-axis direction). The spindle head 54, the spindle 55 is supported by the spindle head 54 so that the axis is parallel to the Z axis and rotatable about the axis, the tool T is mounted on the lower end, the bed 51, and the workpiece W on the upper surface. , A Y-axis feed mechanism 57, an X-axis feed mechanism 58, and a Z-axis feed mechanism 59 that move the first saddle 52, the second saddle 53, and the spindle head 54 in the respective movement directions. And the operation of each feed mechanism 57, 58, 59 And a control unit 60 for controlling, and an operation panel 65 connected to the controller 60.

前記ベッド51は、その左右両側及び奥側に側壁51a,51b,51cが設けられた構造を備えており、左右両側の側壁51a,51bの上部に前記第1サドル52が配設され、奥側の側壁51cに前記テーブル56が配設されている。前記操作盤65には、前記画面表示装置66が設けられており、この画面表示装置66には、制御装置60による制御状態や、前記各CCDカメラ11,12,13,14から得られる画像が表示される。また、操作盤65には、特に図示はしないが、各種信号を入力するための入力装置が設けられている。   The bed 51 has a structure in which side walls 51a, 51b, 51c are provided on the left and right sides and the back side, and the first saddle 52 is disposed on the left and right side walls 51a, 51b. The table 56 is disposed on the side wall 51c. The operation panel 65 is provided with the screen display device 66. The screen display device 66 is controlled by the control device 60 and images obtained from the CCD cameras 11, 12, 13, and 14. Is displayed. The operation panel 65 is provided with an input device for inputting various signals (not shown).

前記制御装置60は、予め作成された加工プログラムが格納されるプログラム記憶部61と、プログラム記憶部61に格納された加工プログラムをブロック毎に順次解析して、工具T(各送り機構部57,58,59)の移動位置や送り速度に関する動作指令を抽出するプログラム解析部62と、プログラム解析部62によって抽出された動作指令を記憶する解析結果記憶部63と、解析結果記憶部63に格納された動作指令と、各送り機構部57,58,59から得られるフィードバック信号とを基に各送り機構部57,58,59を制御する駆動制御部64とを備える。   The control device 60 sequentially analyzes a machining program stored in the program storage unit 61 and a program storage unit 61 in which a machining program created in advance is stored for each block, and the tool T (each feed mechanism unit 57, 58, 59), a program analysis unit 62 that extracts an operation command relating to the movement position and feed speed, an analysis result storage unit 63 that stores the operation command extracted by the program analysis unit 62, and an analysis result storage unit 63. And a drive control unit 64 that controls the feed mechanism units 57, 58, and 59 based on feedback signals obtained from the feed mechanism units 57, 58, and 59.

尚、前記第1サドル52,第2サドル53,主軸頭54,主軸55,テーブル56,Y軸送り機構部57,X軸送り機構部58及びZ軸送り機構部59は、特許請求の範囲に言う加工動作機構部として機能する。   The first saddle 52, the second saddle 53, the spindle head 54, the spindle 55, the table 56, the Y-axis feeding mechanism 57, the X-axis feeding mechanism 58, and the Z-axis feeding mechanism 59 are within the scope of the claims. It functions as a machining operation mechanism.

次に、前記加工状況監視装置1について説明する。この加工状況監視装置1は、上述のように、CCDカメラ11,12,13,14(第1CCDカメラ11,第2CCDカメラ12,第3CCDカメラ13及び第4CCDカメラ14)、カメラパラメータ記憶部15、加工シミュレーション実行部16、位置関係認識部21、選択候補抽出部22、選択候補記憶部23、カメラ選択部24、選択カメラ記憶部25、選択カメラ修正部26、カメラ切換部27及び画面表示装置66を備えている。   Next, the processing status monitoring apparatus 1 will be described. As described above, the processing status monitoring apparatus 1 includes the CCD cameras 11, 12, 13, and 14 (the first CCD camera 11, the second CCD camera 12, the third CCD camera 13, and the fourth CCD camera 14), the camera parameter storage unit 15, Processing simulation execution unit 16, positional relationship recognition unit 21, selection candidate extraction unit 22, selection candidate storage unit 23, camera selection unit 24, selected camera storage unit 25, selected camera correction unit 26, camera switching unit 27, and screen display device 66 It has.

図2及び図3に示すように、各CCDカメラ11,12,13,14は、テーブル56上のワークWを囲むように配置されており、このワークWを四方から撮像可能に構成される。具体的には、前記第1CCDカメラ11及び第2CCDカメラ12は、前記ベッド51の左側壁51aの前側上部及び後側上部にブラケット11a,12aを介してそれぞれ取り付けられ、前記第3CCDカメラ13及び第4CCDカメラ14は、前記ベッド51の右側壁51bの前側上部及び後側上部にブラケット13a,14aを介してそれぞれ取り付けられる。そして、これらのCCDカメラ11,12,13,14は、主軸55に装着された工具T及びテーブル56上のワークWを一定時間間隔で撮像して2次元画像データを順次生成し、生成した2次元画像データを前記カメラ切換部27に出力する。   As shown in FIGS. 2 and 3, the CCD cameras 11, 12, 13, and 14 are arranged so as to surround the work W on the table 56, and are configured to be able to image the work W from four directions. Specifically, the first CCD camera 11 and the second CCD camera 12 are attached to the front upper part and the rear upper part of the left side wall 51a of the bed 51 via brackets 11a and 12a, respectively. The 4CCD camera 14 is attached to the front upper part and the rear upper part of the right side wall 51b of the bed 51 via brackets 13a and 14a, respectively. The CCD cameras 11, 12, 13, and 14 sequentially generate 2D image data by capturing the tool T mounted on the spindle 55 and the workpiece W on the table 56 at regular time intervals, and generating 2D data. The dimensional image data is output to the camera switching unit 27.

尚、このとき生成される画像例を図4に示す。図4(a)は、第1CCDカメラ11によって、図4(b)は、第2CCDカメラ12によって、図4(c)は、第3CCDカメラ13によって、図4(d)は、第4CCDカメラ14によって生成された画像データをそれぞれ示している。また、これらの画像には、工具T及びワークWの他、前記ベッド51の一部、主軸頭54の一部、主軸55の一部、テーブル56の一部も含まれている。   An example of the image generated at this time is shown in FIG. 4A is the first CCD camera 11, FIG. 4B is the second CCD camera 12, FIG. 4C is the third CCD camera 13, and FIG. 4D is the fourth CCD camera 14. Each of the image data generated by is shown. In addition to the tool T and the workpiece W, these images include a part of the bed 51, a part of the spindle head 54, a part of the spindle 55, and a part of the table 56.

前記カメラパラメータ記憶部15には、前記各CCDカメラ11,12,13,14に関する内部パラメータ及び外部パラメータがカメラパラメータとしてそれぞれ格納される。内部パラメータは、各CCDカメラ11,12,13,14に固有のものであり、例えば、主点座標、スケール因子、画像の2軸間の歪みなどが挙げられる。一方、外部パラメータは、工作機械50の座標系における各CCDカメラ11,12,13,14の配置位置及び姿勢を表す。尚、これらのパラメータは、キャリブレーション処理により予め算出される。   The camera parameter storage unit 15 stores internal parameters and external parameters related to the CCD cameras 11, 12, 13, and 14 as camera parameters. The internal parameters are specific to each CCD camera 11, 12, 13, and 14, and include, for example, principal point coordinates, a scale factor, and distortion between two axes of an image. On the other hand, the external parameter represents the arrangement position and orientation of each CCD camera 11, 12, 13, 14 in the coordinate system of the machine tool 50. Note that these parameters are calculated in advance by a calibration process.

前記加工シミュレーション実行部16は、動作指令抽出部17,位置情報生成部18,モデルデータ記憶部19及びモデルデータ更新部20を備える。前記動作指令抽出部17は、前記プログラム記憶部61に格納された加工プログラムを読み出し、読み出した加工プログラムをブロック毎に順次解析して、工具T(各送り機構部57,58,59)の移動位置や送り速度に関する動作指令を抽出する。   The machining simulation execution unit 16 includes an operation command extraction unit 17, a position information generation unit 18, a model data storage unit 19, and a model data update unit 20. The operation command extraction unit 17 reads the machining program stored in the program storage unit 61, sequentially analyzes the read machining program for each block, and moves the tool T (each feed mechanism unit 57, 58, 59). Extract operation commands related to position and feed speed.

前記位置情報生成部18は、前記動作指令抽出部17によって抽出された動作指令と、前記主軸55に装着された工具Tに関する情報(例えば、工具径や工具長さなど)とを基に工具Tの位置情報(工具Tの先端位置に関する情報)をブロック毎に生成する。   The position information generation unit 18 is based on the operation command extracted by the operation command extraction unit 17 and information on the tool T mounted on the spindle 55 (for example, tool diameter, tool length, etc.). Position information (information relating to the tip position of the tool T) is generated for each block.

前記モデルデータ記憶部19には、予め作成された、工作機械50全体の3次元モデルに関するデータ(モデルデータ)が格納される。この工作機械50全体のモデルデータは、前記ベッド51,第1サドル52,第2サドル53,主軸頭54,主軸55及びテーブル56といった工作機械50の主要な構成要素のモデルデータと、前記主軸55に装着される工具Tのモデルデータと、前記テーブル56上に載置されるワークWのモデルデータとを含み、前記各構成要素,工具T及びワークWの各モデルデータがそれぞれ相互に関連付けられて構成される。   The model data storage unit 19 stores data relating to a three-dimensional model of the entire machine tool 50 (model data) created in advance. The model data of the entire machine tool 50 includes model data of main components of the machine tool 50 such as the bed 51, the first saddle 52, the second saddle 53, the spindle head 54, the spindle 55, and the table 56, and the spindle 55. The model data of the tool T mounted on the table 56 and the model data of the workpiece W placed on the table 56, and the model data of each component, the tool T and the workpiece W are associated with each other. Composed.

前記モデルデータ更新部20は、前記モデルデータ記憶部19に格納された工作機械50全体のモデルデータと、前記動作指令抽出部17によって抽出された動作指令とを基に、第1サドル52,第2サドル53及び主軸頭54が動作指令に従って移動した状態となるように工作機械50全体のモデルデータをブロック毎に生成し、生成したモデルデータをモデルデータ記憶部19に格納して、このモデルデータ記憶部19内のモデルデータを更新する。尚、第1サドル52,第2サドル53及び主軸頭54を移動させたときに、工具TのモデルデータとワークWのモデルデータとの間で重なり合う部分がある場合には、その重なり合う部分を切削領域として算出し、この切削領域がワークWから削除されるようにワークWのモデルデータを生成して工作機械50全体のモデルデータを更新する。   The model data update unit 20 includes a first saddle 52 and a second saddle 52 based on the model data of the entire machine tool 50 stored in the model data storage unit 19 and the operation command extracted by the operation command extraction unit 17. The model data of the entire machine tool 50 is generated for each block so that the two saddles 53 and the spindle head 54 are moved according to the operation command, and the generated model data is stored in the model data storage unit 19. The model data in the storage unit 19 is updated. When the first saddle 52, the second saddle 53, and the spindle head 54 are moved, if there is an overlapping portion between the model data of the tool T and the model data of the workpiece W, the overlapping portion is cut. The model data of the workpiece W is generated so that the cutting region is deleted from the workpiece W, and the model data of the entire machine tool 50 is updated.

前記位置関係認識部21は、前記カメラパラメータ記憶部15に格納されたカメラパラメータと、前記位置情報生成部18によって生成された工具Tの位置情報と、前記モデルデータ更新部20によって更新されたモデルデータとを基に、各CCDカメラ11,12,13,14、工具T及びワークWの位置関係をブロック毎に認識する。   The positional relationship recognition unit 21 includes the camera parameters stored in the camera parameter storage unit 15, the position information of the tool T generated by the position information generation unit 18, and the model updated by the model data update unit 20. Based on the data, the positional relationship among the CCD cameras 11, 12, 13, 14, the tool T and the workpiece W is recognized for each block.

例えば、各CCDカメラ11,12,13,14について、前記カメラパラメータから、CCDカメラ11,12,13,14の撮像面と光軸との交点やCCDカメラ11,12,13,14のレンズの中心点を認識し、前記工具Tの位置情報から、位置関係を認識すべきブロックに係る動作指令の実行前(工具移動前、即ち、当該ブロックよりも1つ前のブロックに係る動作指令の実行後)における工具Tの先端位置と、位置関係を認識すべきブロックに係る動作指令の実行後(工具移動後)における工具Tの先端位置とを認識し、前記モデルデータから、ワークWの配置位置と、位置関係を認識すべきブロックに係る動作指令の実行前若しくは実行後(工具移動前若しくは工具移動後)におけるワークWの形状とを認識する。   For example, for each CCD camera 11, 12, 13, 14, based on the camera parameters, the intersection of the imaging surface of the CCD camera 11, 12, 13, 14 and the optical axis, and the lens of the CCD camera 11, 12, 13, 14, Recognize the center point, and from the position information of the tool T, before the execution of the operation command related to the block whose positional relationship should be recognized (before the movement of the tool, that is, the execution of the operation command related to the block immediately before the block) The tip position of the tool T in (after) and the tip position of the tool T after execution of the operation command relating to the block whose position relationship should be recognized (after tool movement), and the arrangement position of the workpiece W from the model data And the shape of the workpiece W before or after execution of the operation command related to the block whose position relationship should be recognized (before or after the tool movement).

前記選択候補抽出部22は、前記位置関係認識部21によって認識された位置関係を基に、各CCDカメラ11,12,13,14の中から、ワークWによって工具Tの先端が隠れない2次元画像データを生成可能なCCDカメラ11,12,13,14をカメラ選択候補としてブロック毎に抽出する。   Based on the positional relationship recognized by the positional relationship recognition unit 21, the selection candidate extraction unit 22 is a two-dimensional model in which the tip of the tool T is not hidden by the workpiece W from among the CCD cameras 11, 12, 13, and 14. CCD cameras 11, 12, 13, and 14 capable of generating image data are extracted for each block as camera selection candidates.

例えば、図5に示すように、まず、各CCDカメラ11,12,13,14について、CCDカメラ11,12,13,14の撮像面と光軸との交点KやCCDカメラ11,12,13,14のレンズの中心点Kと、工具移動前後における工具Tの先端位置L,M(移動前の先端位置L,移動後の先端位置M)との3点を結んで3角形状の平面Pをそれぞれ形成し、これらの平面PとワークWの形状との間に交差部があるか否かをそれぞれ確認する。そして、交差部があると判断したCCDカメラ11,12,13,14については、工具Tの先端が隠れない2次元画像データを生成可能ではないと認識する一方、交差部がないと判断したCCDカメラ11,12,13,14については、工具Tの先端が隠れない2次元画像データを生成可能であると認識する。この後、交差部がないと判断したCCDカメラ11,12,13,14をカメラ選択候補として認識,抽出する。このとき、交差部がないと判断したCCDカメラ11,12,13,14が存在しない場合には、予め設定されたCCDカメラ11,12,13,14をカメラ選択候補として認識,抽出する。   For example, as shown in FIG. 5, first, for each CCD camera 11, 12, 13, 14, the intersection K between the imaging surface of the CCD camera 11, 12, 13, 14 and the optical axis, or the CCD camera 11, 12, 13. , 14 and the tip position L, M of the tool T before and after the tool movement (tip position L before movement, tip position M after movement) is connected to a triangular plane P And confirm whether or not there is an intersection between the plane P and the shape of the workpiece W. For the CCD cameras 11, 12, 13, and 14 determined to have an intersection, it is recognized that it is not possible to generate two-dimensional image data in which the tip of the tool T is not hidden, while the CCD is determined to have no intersection. For the cameras 11, 12, 13, and 14, it is recognized that two-dimensional image data in which the tip of the tool T is not hidden can be generated. Thereafter, the CCD cameras 11, 12, 13, and 14 determined to have no intersection are recognized and extracted as camera selection candidates. At this time, if there is no CCD camera 11, 12, 13, or 14 determined to have no intersection, the preset CCD cameras 11, 12, 13, and 14 are recognized and extracted as camera selection candidates.

尚、図5(a)は、第1CCDカメラ11が、工具Tの先端が隠れない2次元画像データを生成可能なものであるか否かを確認するための処理を説明するための説明図であり、図5(b)は、第2CCDカメラ12が、工具Tの先端が隠れない2次元画像データを生成可能なものであるか否かを確認するための処理を説明するための説明図である。この図示例において、第1CCDカメラ11は、前記平面PとワークWとが交差しており、工具Tの先端が隠れない2次元画像データを生成可能なものではなく、一方、第2CCDカメラ12は、前記平面PとワークWとが交差しておらず、工具Tの先端が隠れない2次元画像データを生成可能なものである。   FIG. 5A is an explanatory diagram for explaining processing for confirming whether or not the first CCD camera 11 can generate two-dimensional image data in which the tip of the tool T is not hidden. FIG. 5B is an explanatory diagram for explaining processing for confirming whether or not the second CCD camera 12 can generate two-dimensional image data in which the tip of the tool T is not hidden. is there. In the illustrated example, the first CCD camera 11 is not capable of generating two-dimensional image data in which the plane P and the workpiece W intersect and the tip of the tool T is not hidden, while the second CCD camera 12 The plane P and the workpiece W do not intersect with each other, and two-dimensional image data in which the tip of the tool T is not hidden can be generated.

また、選択候補抽出部22は、図6に示すように、加工プログラムのブロックと、前記抽出したカメラ選択候補とを相互に関連付けて前記選択候補記憶部23に格納する。   Further, as shown in FIG. 6, the selection candidate extraction unit 22 stores the processing program block and the extracted camera selection candidate in the selection candidate storage unit 23 in association with each other.

前記カメラ選択部24は、図7に示すような一連の処理を実行して、前記選択候補記憶部23に格納されたデータを基に、加工プログラムの各ブロックについて、カメラ選択候補の中からそれぞれ1つのCCDカメラ11,12,13,14を選択,決定する。   The camera selection unit 24 executes a series of processes as shown in FIG. 7, and based on the data stored in the selection candidate storage unit 23, each block of the processing program is selected from among the camera selection candidates. One CCD camera 11, 12, 13, 14 is selected and determined.

即ち、カメラ選択部24は、まず、選択候補記憶部23に格納されたデータを読み出して各ブロックのカメラ選択候補を認識し(ステップS1)、ブロック毎にカメラ選択候補の中から1つのCCDカメラ11,12,13,14を選択してCCDカメラ11,12,13,14の組み合わせを複数通り設定する(ステップS2)。例えば、図8(a)に示すように、カメラ選択候補が各ブロック毎に設定されているとすると、図8(b)に示すように、複数通りの組み合わせが設定される。   That is, the camera selection unit 24 first reads the data stored in the selection candidate storage unit 23 to recognize the camera selection candidates of each block (step S1), and one CCD camera from the camera selection candidates for each block. 11, 12, 13, and 14 are selected, and a plurality of combinations of the CCD cameras 11, 12, 13, and 14 are set (step S2). For example, if camera selection candidates are set for each block as shown in FIG. 8A, a plurality of combinations are set as shown in FIG. 8B.

この後、設定した各組み合わせについて、カメラ切換回数をそれぞれ算出し(ステップS3)、最もカメラ切換回数が少ない組み合わせを認識した後(ステップS4)、認識した組み合わせを基に、各ブロックについて1つのCCDカメラ11,12,13,14を決定する(ステップS5)。尚、カメラ切換は、連続するブロック間で、選択されたCCDカメラ11,12,13,14が異なっているときに行われると判断することができ、また、カメラ切換回数は、前記カメラ切換の回数を積算することで求めることができる。   Thereafter, for each set combination, the number of times of camera switching is calculated (step S3). After recognizing the combination with the smallest number of times of camera switching (step S4), one CCD for each block based on the recognized combination. Cameras 11, 12, 13, and 14 are determined (step S5). It can be determined that the camera switching is performed when the selected CCD cameras 11, 12, 13, and 14 are different between successive blocks. It can be obtained by accumulating the number of times.

そして、カメラ選択部24は、図9に示すように、加工プログラムのブロックと、前記選択,決定したCCDカメラ11,12,13,14とを相互に関連付けて前記選択カメラ記憶部25に格納し(ステップS6)、上記一連の処理を終了する。   Then, as shown in FIG. 9, the camera selection unit 24 associates the processing program block with the selected and determined CCD cameras 11, 12, 13, and 14 and stores them in the selected camera storage unit 25. (Step S6), the above series of processing ends.

前記選択カメラ修正部26は、図10に示すような一連の処理を実行して、前記選択カメラ記憶部25に格納されたデータ(選択カメラ情報)を修正する。即ち、選択カメラ修正部26は、まず、選択カメラ記憶部25から前記選択カメラ情報を読み出し(ステップS11)、予め設定された数の連続したブロックにおけるカメラ切換回数を算出して(ステップS12)、算出したカメラ切換回数が予め設定された許容切換回数よりも多いか否かを確認する(ステップS13)。尚、前記カメラ切換回数は、前記カメラ選択部24のステップS3における処理と同様にして算出することができる。   The selected camera correction unit 26 executes a series of processes as shown in FIG. 10 to correct data (selected camera information) stored in the selected camera storage unit 25. That is, the selected camera correction unit 26 first reads the selected camera information from the selected camera storage unit 25 (step S11), calculates the number of times of camera switching in a predetermined number of consecutive blocks (step S12), and It is checked whether or not the calculated number of camera switching times is larger than a preset allowable switching number (step S13). The number of times of camera switching can be calculated in the same manner as the process in step S3 of the camera selection unit 24.

そして、ステップS13で多くないと判断したときには、上記一連の処理を終了し、一方、多いと判断したときには、予め設定された数の連続したブロックの中で最も選択されているCCDカメラ11,12,13,14を認識し(ステップS14)、予め設定された数の連続したブロックの選択カメラを前記認識したCCDカメラ11,12,13,14に修正して同じCCDカメラ11,12,13,14に設定する(ステップS15)。この後、修正後のデータを選択カメラ記憶部25に格納して、この選択カメラ記憶部25内のデータを更新し(ステップS16)、上記一連の処理を終了する。   When it is determined in step S13 that the number is not large, the above-described series of processes is terminated. On the other hand, when it is determined that the number is large, the CCD cameras 11 and 12 that are most selected among a predetermined number of consecutive blocks are selected. , 13, and 14 (step S14), and the selected cameras of a predetermined number of consecutive blocks are corrected to the recognized CCD cameras 11, 12, 13, and 14, and the same CCD cameras 11, 12, 13, and 14 is set (step S15). Thereafter, the corrected data is stored in the selected camera storage unit 25, the data in the selected camera storage unit 25 is updated (step S16), and the above series of processing ends.

このようにして前記選択カメラ情報が修正されることで、例えば、図11(a)に示すような選択カメラ情報が図11(b)に示すような選択カメラ情報に修正される。尚、この図示例では、Aが4回、Bが2回、Cが1回選択されており、Aが最も選択されている。したがって、予め設定された数の連続したブロックの選択カメラはAに設定される。   By correcting the selected camera information in this way, for example, the selected camera information as shown in FIG. 11A is corrected to the selected camera information as shown in FIG. In the illustrated example, A is selected four times, B is selected twice, and C is selected once, and A is selected most. Therefore, the selected camera of a predetermined number of consecutive blocks is set to A.

前記カメラ切換部27は、前記駆動制御部64から得られる実行ブロックに関するデータと、前記選択カメラ記憶部25に格納されたデータとを基に、前記実行ブロックに対応したCCDカメラ11,12,13,14を認識し、認識したCCDカメラ11,12,13,14によって生成される2次元画像データを前記画面表示装置66に表示させる。   The camera switching unit 27 is based on the data relating to the execution block obtained from the drive control unit 64 and the data stored in the selected camera storage unit 25, and the CCD cameras 11, 12, 13 corresponding to the execution block. , 14 and the two-dimensional image data generated by the recognized CCD cameras 11, 12, 13, 14 are displayed on the screen display device 66.

以上のように構成された本例の加工状況監視装置1によれば、制御装置60によって加工プログラムが実行される前に、即ち、工作機械50において実際にワークWが加工される前に、以下のようにして、複数のCCDカメラ11,12,13,14の内、画面表示装置66に表示させるべき2次元画像データを生成するCCDカメラ11,12,13,14が選択,決定される。   According to the machining status monitoring device 1 of the present example configured as described above, before the machining program is executed by the control device 60, that is, before the workpiece W is actually machined by the machine tool 50, In this manner, among the plurality of CCD cameras 11, 12, 13, and 14, the CCD cameras 11, 12, 13, and 14 that generate two-dimensional image data to be displayed on the screen display device 66 are selected and determined.

具体的には、図12に示すように、まず、プログラム記憶部61に格納された加工プログラムが動作指令抽出部17により読み出され(ステップS21)、カウンタnが1にセットされた後(ステップS22)、加工プログラムの1ブロック目の動作指令が抽出される(ステップS23)。この後、位置情報生成部18により工具Tの位置情報が生成され(ステップS24)、モデルデータ更新部20によりモデルデータが更新される(ステップS25)。   Specifically, as shown in FIG. 12, first, the machining program stored in the program storage unit 61 is read by the operation command extraction unit 17 (step S21), and the counter n is set to 1 (step S21). S22), an operation command for the first block of the machining program is extracted (step S23). Thereafter, position information of the tool T is generated by the position information generation unit 18 (step S24), and the model data is updated by the model data update unit 20 (step S25).

次に、位置関係認識部21により各CCDカメラ11,12,13,14、工具T及びワークWの位置関係が認識され(ステップS26)、選択候補抽出部22によりカメラ選択候補が抽出されて(ステップS27)、選択候補記憶部23に格納される(ステップS28)。   Next, the positional relationship recognition unit 21 recognizes the positional relationship among the CCD cameras 11, 12, 13, 14, the tool T, and the workpiece W (step S 26), and the selection candidate extraction unit 22 extracts camera selection candidates ( Step S27) is stored in the selection candidate storage unit 23 (step S28).

そして、このような、ステップS23〜ステップS28までの処理が、カウンタnが更新されつつ加工プログラムの全ブロックについて終了するまで実行され(ステップS29,S30)、加工プログラムの全ブロックについて終了すると、即ち、全ブロックについてカメラ選択候補が抽出されると、カメラ選択部24により1つのCCDカメラ11,12,13,14が選択,決定され(ステップS31)、選択カメラ記憶部25に格納される(ステップS32)。尚、選択カメラ記憶部25内のデータは、必要に応じて、選択カメラ修正部26により修正される(ステップS33)。   Then, the processes from step S23 to step S28 are executed until the process is completed for all blocks of the machining program while the counter n is updated (steps S29 and S30). When camera selection candidates are extracted for all blocks, one CCD camera 11, 12, 13, 14 is selected and determined by the camera selection unit 24 (step S31) and stored in the selected camera storage unit 25 (step S31). S32). The data in the selected camera storage unit 25 is corrected by the selected camera correction unit 26 as necessary (step S33).

この後、制御装置60によって加工プログラムが実行されると、即ち、プログラム解析部62により加工プログラムがブロック毎に順次解析されて動作指令が抽出され、抽出された動作指令を基に、駆動制御部64により各送り機構部57,58,59が制御されて工具T及びワークWが相対移動せしめられると、この駆動制御部64から得られる実行ブロックに関するデータと選択カメラ記憶部25内のデータとを基に、カメラ切換部27により、実行ブロックに対応したCCDカメラ11,12,13,14が認識され、認識されたCCDカメラ11,12,13,14に切り換えられる(認識されたCCDカメラ11,12,13,14によって生成される2次元画像データが画面表示装置66に表示される)。   Thereafter, when the machining program is executed by the control device 60, that is, the machining program is sequentially analyzed for each block by the program analysis unit 62, and operation commands are extracted. Based on the extracted operation commands, the drive control unit When the feed mechanism units 57, 58, and 59 are controlled by 64 to move the tool T and the workpiece W relative to each other, the data relating to the execution block obtained from the drive control unit 64 and the data in the selected camera storage unit 25 are used. Based on this, the camera switching unit 27 recognizes the CCD cameras 11, 12, 13, and 14 corresponding to the execution block, and switches to the recognized CCD cameras 11, 12, 13, and 14 (recognized CCD camera 11, The two-dimensional image data generated by 12, 13, and 14 is displayed on the screen display device 66).

このように、本例の加工状況監視装置1によれば、加工プログラムのブロック毎に選択されたCCDカメラ11,12,13,14によって生成される、工具Tの先端が隠れない2次元画像データを画面表示装置66に順次表示させているので、オペレータは、表示画像を通してワークWの加工状況を十分に監視することができる。   As described above, according to the machining status monitoring apparatus 1 of this example, two-dimensional image data that is generated by the CCD cameras 11, 12, 13, and 14 selected for each block of the machining program and does not hide the tip of the tool T. Are sequentially displayed on the screen display device 66, the operator can sufficiently monitor the machining status of the workpiece W through the display image.

また、工具Tの先端が隠れない2次元画像データを表示させているので、加工状況の監視にさほど役立たない画像の表示を省略することができ、更に、一律にすべての画像を表示させていた従来に比べ、表示画像が小さくなることもなく、オペレータは、表示画像を通して加工状況を細部まで確認することができる。また、画面表示装置66に工作機械50の制御状態とCCDカメラ11,12,13,14から得られる画像とを同時に表示させても、この制御状態の表示領域が必要以上に狭くなることはなく、オペレータは、工作機械50の制御状態も十分に確認することができる。また、画面表示装置66に表示される画像が自動的に切り換えられるので、オペレータが1つの画像を選択して所望の画像に切り換えるといった手間を省くこともできる。   In addition, since the two-dimensional image data in which the tip of the tool T is not hidden is displayed, it is possible to omit the display of an image that is not very useful for monitoring the machining status, and to display all the images uniformly. Compared to the conventional case, the display image is not reduced, and the operator can check the processing status through the display image in detail. Further, even if the control state of the machine tool 50 and the images obtained from the CCD cameras 11, 12, 13, and 14 are simultaneously displayed on the screen display device 66, the display area of the control state does not become unnecessarily narrow. The operator can sufficiently check the control state of the machine tool 50. Further, since the image displayed on the screen display device 66 is automatically switched, it is possible to save the operator from selecting one image and switching to a desired image.

また、カメラ選択候補を抽出する際に、3点を結んで形成される3角形状の平面Pと、ワークWとの間に交差部があるか否かを確認して、どのCCDカメラ11,12,13,14が、工具Tの先端が隠れない2次元画像データを生成可能なCCDカメラ11,12,13,14であるかを判断しているので、比較的簡単な処理で、工具Tの先端が隠れない2次元画像データを生成可能なCCDカメラ11,12,13,14を判別することができる。   Further, when extracting the camera selection candidates, it is confirmed whether there is an intersection between the triangular plane P formed by connecting the three points and the workpiece W, and which CCD camera 11, Since it is determined whether 12, 13, and 14 are CCD cameras 11, 12, 13, and 14 that can generate two-dimensional image data in which the tip of the tool T is not hidden, the tool T can be processed with relatively simple processing. It is possible to discriminate the CCD cameras 11, 12, 13, and 14 that are capable of generating two-dimensional image data that does not cover the tip of the camera.

更に、1つのCCDカメラ11,12,13,14を決定する際に、最もカメラ切換回数が少ない組み合わせを求めて1つのCCDカメラ11,12,13,14を決定しているので、ワークWの加工時におけるカメラ切換回数を少なくすることができる。これにより、工具T及びワークWを見る方向が頻繁に変わってどの方向から見ているのかが分かり難くなり、却って、加工状況を監視し難くなるのを防止することができる。   Further, when one CCD camera 11, 12, 13, 14 is determined, one CCD camera 11, 12, 13, 14 is determined by obtaining a combination having the smallest number of camera switching times. The number of camera switching operations during processing can be reduced. As a result, the direction in which the tool T and the workpiece W are viewed frequently changes, making it difficult to understand the direction from which the tool T and the workpiece W are viewed. On the other hand, it is possible to prevent difficulty in monitoring the machining status.

また、予め設定された数の連続したブロックにおけるカメラ切換回数が予め設定された許容切換回数よりも多いときには、当該予め設定された数の連続したブロックの選択カメラを同じCCDカメラ11,12,13,14に設定しているので、このことによってもカメラ切換回数を少なくすることができ、特に、工具Tが微小移動を繰り返すような場合に効果的である。   Further, when the number of times of camera switching in the preset number of consecutive blocks is greater than the preset allowable switching number, the selected cameras of the preset number of consecutive blocks are used as the same CCD camera 11, 12, 13. , 14, it is possible to reduce the number of times of camera switching. This is particularly effective when the tool T repeats minute movements.

以上、本発明の一実施形態について説明したが、本発明の採り得る具体的な態様は、何らこれに限定されるものではない。   As mentioned above, although one Embodiment of this invention was described, the specific aspect which this invention can take is not limited to this at all.

前記加工状況監視装置1は、加工プログラムの全ブロックについてカメラ選択候補を抽出した後、1つのCCDカメラ11,12,13,14を選択,決定するように構成されていたが、カメラ選択候補を抽出する度に1つのCCDカメラ11,12,13,14を選択,決定し、これをすべてのブロックについて繰り返すようにしても良い。   The processing status monitoring apparatus 1 is configured to select and determine one CCD camera 11, 12, 13, and 14 after extracting camera selection candidates for all blocks of the processing program. One CCD camera 11, 12, 13, and 14 may be selected and determined each time extraction is performed, and this may be repeated for all blocks.

この場合、図13に示すように、加工状況監視装置2は構成され、選択候補記憶部23が省略されている点、及びカメラ選択部24に代えてカメラ選択部31が設けられている点で、前記加工状況監視装置1と相違している。これら以外の点については、前記加工状況監視装置1と同じであるため、同一の符号を付してその詳しい説明を省略する。   In this case, as shown in FIG. 13, the processing status monitoring apparatus 2 is configured, the selection candidate storage unit 23 is omitted, and a camera selection unit 31 is provided instead of the camera selection unit 24. This is different from the processing status monitoring apparatus 1. Since points other than these are the same as those in the processing status monitoring apparatus 1, the same reference numerals are given and detailed descriptions thereof are omitted.

前記カメラ選択部31は、図14に示すような一連の処理を実行して、前記選択カメラ抽出部22により抽出されたカメラ選択候補を基に、加工プログラムの各ブロックについて、カメラ選択候補の中からそれぞれ1つのCCDカメラ11,12,13,14を選択,決定する。   The camera selection unit 31 executes a series of processes as shown in FIG. 14 and, based on the camera selection candidates extracted by the selected camera extraction unit 22, for each block of the processing program, Each CCD camera 11, 12, 13, and 14 is selected and determined.

即ち、カメラ選択部31は、まず、選択カメラ抽出部22によって抽出された、決定すべきブロックのカメラ選択候補を受信してこれを認識し(ステップS41)、このブロックよりも1つ前のブロックについて決定したCCDカメラ11,12,13,14を認識する(ステップS42)。   That is, the camera selection unit 31 first receives and recognizes the camera selection candidate of the block to be determined, which is extracted by the selected camera extraction unit 22 (step S41), and blocks one block before this block. The CCD cameras 11, 12, 13, and 14 determined for are recognized (step S42).

そして、ステップS41で認識したカメラ選択候補の中に、ステップS42で認識したCCDカメラ11,12,13,14が含まれているか否かを確認し(ステップS43)、含まれていると判断したときには、ステップS42で認識したCCDカメラ11,12,13,14に決定する(ステップS44)。例えば、前記決定すべきブロックのカメラ選択候補がA,B,Cであり、1つ前のブロックについて決定したカメラがAであるとすれば、共通するAに決定される。   Then, it is confirmed whether or not the camera selection candidates recognized in step S41 include the CCD cameras 11, 12, 13, and 14 recognized in step S42 (step S43). In some cases, the CCD cameras 11, 12, 13, and 14 recognized in step S42 are determined (step S44). For example, if the camera selection candidates for the block to be determined are A, B, and C, and the camera determined for the previous block is A, the common selection is A.

一方、ステップS43で含まれていないと判断したときには、ステップS41で認識したカメラ選択候補の中から1つのCCDカメラ11,12,13,14を選択,決定する(ステップS45)。そして、前記決定すべきブロックと、前記選択,決定したCCDカメラ11,12,13,14とを相互に関連付けて前記選択カメラ記憶部25に格納し(ステップS46)、上記一連の処理を終了する。   On the other hand, when it is determined in step S43 that it is not included, one CCD camera 11, 12, 13, 14 is selected and determined from the camera selection candidates recognized in step S41 (step S45). Then, the block to be determined and the selected and determined CCD cameras 11, 12, 13, and 14 are associated with each other and stored in the selected camera storage unit 25 (step S46), and the above series of processing ends. .

そして、この加工状況監視装置2によれば、前記加工状況監視装置1と同様、制御装置60によって加工プログラムが実行される前に、以下のようにして、複数のCCDカメラ11,12,13,14の内、画面表示装置66に表示させるべき2次元画像データを生成するCCDカメラ11,12,13,14が選択,決定される。   Then, according to the machining status monitoring device 2, as in the machining status monitoring device 1, before the machining program is executed by the control device 60, a plurality of CCD cameras 11, 12, 13,. 14, the CCD cameras 11, 12, 13, and 14 that generate two-dimensional image data to be displayed on the screen display device 66 are selected and determined.

具体的には、図15に示すように、まず、プログラム記憶部61に格納された加工プログラムが動作指令抽出部17により読み出され(ステップS51)、カウンタnが1にセットされた後(ステップS52)、加工プログラムの1ブロック目の動作指令が抽出される(ステップS53)。この後、位置情報生成部18により工具Tの位置情報が生成され(ステップS54)、モデルデータ更新部20によりモデルデータが更新される(ステップS55)。   Specifically, as shown in FIG. 15, first, after the machining program stored in the program storage unit 61 is read by the operation command extraction unit 17 (step S51) and the counter n is set to 1 (step S51). S52), an operation command for the first block of the machining program is extracted (step S53). Thereafter, position information of the tool T is generated by the position information generation unit 18 (step S54), and the model data is updated by the model data update unit 20 (step S55).

次に、位置関係認識部21により各CCDカメラ11,12,13,14、工具T及びワークWの位置関係が認識され(ステップS56)、選択候補抽出部22によりカメラ選択候補が抽出された後(ステップS57)、カメラ選択部31により1つのCCDカメラ11,12,13,14が選択,決定され(ステップS58)、選択カメラ記憶部25に格納される(ステップS59)。   Next, after the positional relationship recognition unit 21 recognizes the positional relationship among the CCD cameras 11, 12, 13, 14, the tool T, and the workpiece W (step S 56), the selection candidate extraction unit 22 extracts the camera selection candidate. (Step S57), one CCD camera 11, 12, 13, 14 is selected and determined by the camera selection unit 31 (Step S58) and stored in the selected camera storage unit 25 (Step S59).

そして、このような、ステップS53〜ステップS59までの処理が、カウンタnが更新されつつ加工プログラムの全ブロックについて終了するまで実行され(ステップS60,S61)、加工プログラムの全ブロックについて終了すると、必要に応じて、選択カメラ記憶部25内のデータが選択カメラ修正部26により修正される(ステップS62)。   Then, the processes from step S53 to step S59 are executed until the process is completed for all blocks of the machining program while the counter n is updated (steps S60 and S61). Accordingly, the data in the selected camera storage unit 25 is corrected by the selected camera correction unit 26 (step S62).

この後、プログラム解析部62により加工プログラムがブロック毎に順次解析されて動作指令が抽出され、抽出された動作指令を基に、駆動制御部64により各送り機構部57,58,59が制御されて工具T及びワークWが相対移動せしめられると、この駆動制御部64から得られる実行ブロックに関するデータと選択カメラ記憶部25内のデータとを基に、カメラ切換部27により、実行ブロックに対応したCCDカメラ11,12,13,14が認識され、認識されたCCDカメラ11,12,13,14によって生成される2次元画像データが画面表示装置66に表示される。   Thereafter, the machining program is sequentially analyzed for each block by the program analysis unit 62 and operation commands are extracted, and the feed control units 57, 58, and 59 are controlled by the drive control unit 64 based on the extracted operation commands. When the tool T and the workpiece W are moved relative to each other, the camera switching unit 27 corresponds to the execution block based on the data regarding the execution block obtained from the drive control unit 64 and the data in the selected camera storage unit 25. The CCD cameras 11, 12, 13, and 14 are recognized, and two-dimensional image data generated by the recognized CCD cameras 11, 12, 13, and 14 are displayed on the screen display device 66.

斯くして、この加工状況監視装置2によっても、連続する2つのブロック間で同じCCDカメラ11,12,13,14に決定して、ワークWの加工時におけるカメラ切換回数を少なくすることができる他、上記と同様の効果を得ることができる。   Thus, this machining status monitoring device 2 can also determine the same CCD camera 11, 12, 13, 14 between two consecutive blocks, and reduce the number of times of camera switching when machining the workpiece W. In addition, the same effects as described above can be obtained.

また、前記加工状況監視装置1,2では、加工プログラムのブロック毎に、工具Tの先端が隠れない2次元画像データを生成可能なCCDカメラ11,12,13,14を選択,決定するように構成されていたが、加工プログラムの実行開始からの、予め設定された経過時間毎に、工具Tの先端が隠れない2次元画像データを生成可能なCCDカメラ11,12,13,14を選択,決定するように構成されていても良い。   In the machining status monitoring devices 1 and 2, the CCD cameras 11, 12, 13, and 14 that can generate two-dimensional image data that does not hide the tip of the tool T are selected and determined for each block of the machining program. Although configured, the CCD cameras 11, 12, 13, and 14 that can generate two-dimensional image data in which the tip of the tool T is not hidden at every preset elapsed time from the start of execution of the machining program are selected. It may be configured to determine.

この場合、例えば、図16に示すように、加工状況監視装置3は構成され、加工シミュレーション実行部16,位置関係認識部21,選択候補抽出部22,選択候補記憶部23,カメラ選択部24,選択カメラ記憶部25,選択カメラ修正部26及びカメラ切換部27に代えて、加工シミュレーション実行部32,位置関係認識部36,選択候補抽出部37,選択候補記憶部38,カメラ選択部39,選択カメラ記憶部40,選択カメラ修正部41及びカメラ切換部42が設けられている点で、前記加工状況監視装置1と相違している。これら以外の点については、前記加工状況監視装置1と同じであるため、同一の符号を付してその詳しい説明を省略する。   In this case, for example, as shown in FIG. 16, the machining status monitoring device 3 is configured, and a machining simulation execution unit 16, a positional relationship recognition unit 21, a selection candidate extraction unit 22, a selection candidate storage unit 23, a camera selection unit 24, Instead of the selected camera storage unit 25, the selected camera correction unit 26, and the camera switching unit 27, a processing simulation execution unit 32, a positional relationship recognition unit 36, a selection candidate extraction unit 37, a selection candidate storage unit 38, a camera selection unit 39, and a selection The processing status monitoring apparatus 1 is different in that a camera storage unit 40, a selected camera correction unit 41, and a camera switching unit 42 are provided. Since points other than these are the same as those in the processing status monitoring apparatus 1, the same reference numerals are given and detailed descriptions thereof are omitted.

前記加工シミュレーション実行部32は、前記動作指令抽出部17,モデルデータ記憶部19,経過時間算出部33,位置情報生成部34及びモデルデータ更新部35を備える。前記動作指令抽出部17及びモデルデータ記憶部19は、前記加工状況監視装置1と同じである。   The machining simulation execution unit 32 includes the operation command extraction unit 17, model data storage unit 19, elapsed time calculation unit 33, position information generation unit 34, and model data update unit 35. The operation command extraction unit 17 and the model data storage unit 19 are the same as those in the machining status monitoring device 1.

前記経過時間算出部33は、前記動作指令抽出部17によって抽出された動作指令を基に、加工プログラムの実行開始からの経過時間を算出する。   The elapsed time calculation unit 33 calculates an elapsed time from the start of execution of the machining program based on the operation command extracted by the operation command extraction unit 17.

前記位置情報生成部34は、前記動作指令抽出部17によって抽出された動作指令と、前記経過時間算出部33によって算出される経過時間と、前記主軸55に装着された工具Tに関する情報(例えば、工具径や工具長さなど)とを基に、予め設定された経過時間毎における工具Tの位置情報(工具Tの先端位置に関する情報)、即ち、例えば、5秒後、10秒後、15秒後といったように5秒間隔で工具Tの位置情報を生成する。   The position information generation unit 34 includes information on the operation command extracted by the operation command extraction unit 17, the elapsed time calculated by the elapsed time calculation unit 33, and the tool T attached to the spindle 55 (for example, Position information of the tool T (information on the tip position of the tool T) at every preset elapsed time, that is, for example, after 5 seconds, 10 seconds, and 15 seconds. As described later, the position information of the tool T is generated at intervals of 5 seconds.

前記モデルデータ更新部35は、前記モデルデータ記憶部19に格納された工作機械50全体のモデルデータと、前記動作指令抽出部17によって抽出された動作指令とを基に、第1サドル52,第2サドル53及び主軸頭54が動作指令に従って移動した状態となるように工作機械50全体のモデルデータをブロック毎に生成し、生成したモデルデータをモデルデータ記憶部19に格納して、このモデルデータ記憶部19内のモデルデータを更新する。また、モデルデータ更新部35は、前記経過時間算出部33によって算出される経過時間を基に、工作機械50全体のモデルデータを予め設定された経過時間毎に前記位置関係認識部36に送信する。尚、第1サドル52,第2サドル53及び主軸頭54を移動させたときに、工具TのモデルデータとワークWのモデルデータとの間で重なり合う部分がある場合には、その重なり合う部分を切削領域として算出し、この切削領域がワークWから削除されるようにワークWのモデルデータを生成して工作機械50全体のモデルデータを更新する。   The model data update unit 35 includes a first saddle 52 and a second saddle 52 based on the model data of the entire machine tool 50 stored in the model data storage unit 19 and the operation command extracted by the operation command extraction unit 17. The model data of the entire machine tool 50 is generated for each block so that the two saddles 53 and the spindle head 54 are moved according to the operation command, and the generated model data is stored in the model data storage unit 19. The model data in the storage unit 19 is updated. The model data updating unit 35 transmits model data of the entire machine tool 50 to the positional relationship recognition unit 36 for each preset elapsed time based on the elapsed time calculated by the elapsed time calculation unit 33. . When the first saddle 52, the second saddle 53, and the spindle head 54 are moved, if there is an overlapping portion between the model data of the tool T and the model data of the workpiece W, the overlapping portion is cut. The model data of the workpiece W is generated so that the cutting region is deleted from the workpiece W, and the model data of the entire machine tool 50 is updated.

前記位置関係認識部36は、前記カメラパラメータ記憶部15に格納されたカメラパラメータと、前記経過時間算出部33によって算出される経過時間と、前記位置情報生成部34によって生成された工具Tの位置情報と、前記モデルデータ更新部35から送信されたモデルデータとを基に、各CCDカメラ11,12,13,14、工具T及びワークWの位置関係を予め設定された経過時間毎に認識する。   The positional relationship recognition unit 36 includes the camera parameters stored in the camera parameter storage unit 15, the elapsed time calculated by the elapsed time calculation unit 33, and the position of the tool T generated by the position information generation unit 34. Based on the information and the model data transmitted from the model data updating unit 35, the positional relationship among the CCD cameras 11, 12, 13, 14, the tool T and the work W is recognized at each preset elapsed time. .

例えば、各CCDカメラ11,12,13,14について、前記カメラパラメータから、CCDカメラ11,12,13,14の撮像面と光軸との交点やCCDカメラ11,12,13,14のレンズの中心点を認識し、前記工具Tの位置情報から、位置関係を認識すべき経過時間よりも1つ前の経過時間(工具移動前)における工具Tの先端位置と、位置関係を認識すべき経過時間(工具移動後)における工具Tの先端位置とを認識し、前記モデルデータから、ワークWの配置位置と、位置関係を認識すべき経過時間若しくはこの経過時間よりも1つ前の経過時間におけるワークWの形状とを認識する。   For example, for each CCD camera 11, 12, 13, 14, based on the camera parameters, the intersection of the imaging surface of the CCD camera 11, 12, 13, 14 and the optical axis, and the lens of the CCD camera 11, 12, 13, 14, The center point is recognized, and the tip position of the tool T in the elapsed time (before the tool movement) one time before the elapsed time in which the positional relationship should be recognized and the positional relationship from the position information of the tool T Recognize the tip position of the tool T at time (after tool movement), and from the model data, at the position where the workpiece W is to be recognized and the elapsed time at which the positional relationship should be recognized or at the elapsed time one time before this elapsed time Recognize the shape of the workpiece W.

前記選択候補抽出部37は、前記位置関係認識部36によって認識された位置関係を基に、各CCDカメラ11,12,13,14の中から、ワークWによって工具Tの先端が隠れない2次元画像データを生成可能なCCDカメラ11,12,13,14をカメラ選択候補として予め設定された経過時間毎に抽出する。そして、図17に示すように、予め設定された経過時間と、前記抽出したカメラ選択候補とを相互に関連付けて前記選択候補記憶部38に格納する。尚、この抽出処理は、前記選択候補抽出部22と同様にして行うことができる。また、加工プログラムの実行開始直後、即ち、経過時間が0秒のときのカメラ選択候補については、予め設定されたカメラ選択候補が選択候補記憶部38に格納される。   The selection candidate extraction unit 37 is a two-dimensional model in which the tip of the tool T is not hidden by the workpiece W from the CCD cameras 11, 12, 13, and 14 based on the positional relationship recognized by the positional relationship recognition unit 36. The CCD cameras 11, 12, 13, and 14 capable of generating image data are extracted as camera selection candidates at every preset elapsed time. Then, as shown in FIG. 17, the preset elapsed time and the extracted camera selection candidate are associated with each other and stored in the selection candidate storage unit 38. This extraction process can be performed in the same manner as the selection candidate extraction unit 22. Also, for camera selection candidates immediately after the start of execution of the machining program, that is, when the elapsed time is 0 seconds, preset camera selection candidates are stored in the selection candidate storage unit 38.

前記カメラ選択部39は、前記カメラ選択部24と同様、図7に示すような一連の処理を実行して、前記選択候補記憶部38に格納されたデータを基に、予め設定された各経過時間について、カメラ選択候補の中からそれぞれ1つのCCDカメラ11,12,13,14を選択,決定する。   Similarly to the camera selection unit 24, the camera selection unit 39 executes a series of processes as shown in FIG. 7 and sets each process set in advance based on the data stored in the selection candidate storage unit 38. Regarding the time, one CCD camera 11, 12, 13, and 14 is selected and determined from the camera selection candidates.

即ち、カメラ選択部39は、まず、選択候補記憶部38に格納されたデータを読み出して各経過時間におけるカメラ選択候補を認識し(ステップS1)、経過時間毎にカメラ選択候補の中から1つのCCDカメラ11,12,13,14を選択してCCDカメラ11,12,13,14の組み合わせを複数通り設定する(ステップS2)。例えば、図18(a)に示すように、カメラ選択候補が各経過時間毎に設定されているとすると、図18(b)に示すように、複数通りの組み合わせが設定される。   That is, the camera selection unit 39 first reads the data stored in the selection candidate storage unit 38 to recognize the camera selection candidate at each elapsed time (step S1), and selects one of the camera selection candidates for each elapsed time. The CCD cameras 11, 12, 13, and 14 are selected and a plurality of combinations of the CCD cameras 11, 12, 13, and 14 are set (step S2). For example, if camera selection candidates are set for each elapsed time as shown in FIG. 18A, a plurality of combinations are set as shown in FIG. 18B.

この後、設定した各組み合わせについて、カメラ切換回数をそれぞれ算出し(ステップS3)、最もカメラ切換回数が少ない組み合わせを認識した後(ステップS4)、認識した組み合わせを基に、各経過時間について1つのCCDカメラ11,12,13,14を決定する(ステップS5)。尚、カメラ切換は、連続する2つの経過時間で、選択されたCCDカメラ11,12,13,14が異なっているときに行われると判断することができ、また、カメラ切換回数は、前記カメラ切換の回数を積算することで求めることができる。   Thereafter, for each set combination, the number of times of camera switching is calculated (step S3). After recognizing the combination with the smallest number of times of camera switching (step S4), one time is determined for each elapsed time based on the recognized combination. The CCD cameras 11, 12, 13, and 14 are determined (step S5). Note that it can be determined that the camera switching is performed when the selected CCD cameras 11, 12, 13, and 14 are different at two successive elapsed times. It can be obtained by integrating the number of times of switching.

そして、カメラ選択部39は、図19に示すように、予め設定された経過時間と、前記選択,決定したCCDカメラ11,12,13,14とを相互に関連付けて前記選択カメラ記憶部40に格納し(ステップS6)、上記一連の処理を終了する。   Then, as shown in FIG. 19, the camera selection unit 39 associates the preset elapsed time with the selected and determined CCD cameras 11, 12, 13, and 14 in the selected camera storage unit 40. Store (step S6), and the above series of processing ends.

前記選択カメラ修正部41は、前記選択カメラ修正部26と同様、図10に示すような一連の処理を実行して、前記選択カメラ記憶部40に格納されたデータ(選択カメラ情報)を修正する。即ち、選択カメラ修正部41は、まず、選択カメラ記憶部40から前記選択カメラ情報を読み出し(ステップS11)、一定時間におけるカメラ切換回数を算出して(ステップS12)、算出したカメラ切換回数が予め設定された許容切換回数よりも多いか否かを確認する(ステップS13)。尚、前記カメラ切換回数は、前記カメラ選択部39のステップS3における処理と同様にして算出することができる。   Similar to the selected camera correction unit 26, the selected camera correction unit 41 executes a series of processes as shown in FIG. 10 and corrects data (selected camera information) stored in the selected camera storage unit 40. . That is, the selected camera correction unit 41 first reads out the selected camera information from the selected camera storage unit 40 (step S11), calculates the number of times of camera switching in a predetermined time (step S12), and the calculated number of times of camera switching is calculated in advance. It is confirmed whether or not the number is larger than the set allowable switching number (step S13). The number of times of camera switching can be calculated in the same manner as the process in step S3 of the camera selection unit 39.

そして、ステップS13で多くないと判断したときには、上記一連の処理を終了し、一方、多いと判断したときには、前記一定時間の中に含まれる各経過時間で最も選択されているCCDカメラ11,12,13,14を認識し(ステップS14)、前記一定時間の中に含まれる各経過時間の選択カメラを前記認識したCCDカメラ11,12,13,14に修正して同じCCDカメラ11,12,13,14に設定する(ステップS15)。この後、修正後のデータを選択カメラ記憶部40に格納して、この選択カメラ記憶部40内のデータを更新し(ステップS16)、上記一連の処理を終了する。   When it is determined in step S13 that the number is not large, the above-described series of processing is terminated. On the other hand, when it is determined that the number is large, the CCD cameras 11 and 12 that are most selected in each elapsed time included in the predetermined time. , 13, and 14 (step S14), and the selected cameras at the respective elapsed times included in the predetermined time are corrected to the recognized CCD cameras 11, 12, 13, and 14, and the same CCD camera 11, 12, 13 and 14 are set (step S15). Thereafter, the corrected data is stored in the selected camera storage unit 40, the data in the selected camera storage unit 40 is updated (step S16), and the above series of processing ends.

このようにして前記選択カメラ情報が修正されることで、例えば、図20(a)に示すような選択カメラ情報が図20(b)に示すような選択カメラ情報に修正される。尚、この図示例では、Aが4回、Bが2回、Cが1回選択されており、Aが最も選択されている。したがって、前記一定時間の中に含まれる各経過時間の選択カメラはAに設定される。   By correcting the selected camera information in this way, for example, the selected camera information as shown in FIG. 20A is corrected to the selected camera information as shown in FIG. In the illustrated example, A is selected four times, B is selected twice, and C is selected once, and A is selected most. Therefore, the selected camera for each elapsed time included in the certain time is set to A.

前記カメラ切換部42は、前記駆動制御部64から得られる、加工プログラムの実行開始からの経過時間に関するデータと、前記選択カメラ記憶部40に格納されたデータとを基に、前記経過時間に対応したCCDカメラ11,12,13,14を認識し、認識したCCDカメラ11,12,13,14によって生成される2次元画像データを前記画面表示装置66に表示させる。   The camera switching unit 42 corresponds to the elapsed time based on the data obtained from the drive control unit 64 regarding the elapsed time from the start of processing program execution and the data stored in the selected camera storage unit 40. The two-dimensional image data generated by the recognized CCD cameras 11, 12, 13, 14 are displayed on the screen display device 66.

以上のように構成された本例の加工状況監視装置3によれば、制御装置60によって加工プログラムが実行される前に、以下のようにして、複数のCCDカメラ11,12,13,14の内、画面表示装置66に表示させるべき2次元画像データを生成するCCDカメラ11,12,13,14が選択,決定される。   According to the machining status monitoring device 3 of this example configured as described above, before the machining program is executed by the control device 60, the plurality of CCD cameras 11, 12, 13, and 14 are as follows. Among them, the CCD cameras 11, 12, 13, and 14 that generate two-dimensional image data to be displayed on the screen display device 66 are selected and determined.

具体的には、図21及び図22に示すように、まず、プログラム記憶部61に格納された加工プログラムが動作指令抽出部17により読み出された後(ステップS71)、加工プログラムから動作指令がブロック毎に順次抽出され(ステップS72)、経過時間算出部33により加工プログラムの実行開始からの経過時間が算出される(ステップS73)。また、選択候補抽出部37により加工プログラムの実行開始直後におけるカメラ選択候補が選択候補記憶部38に格納される(ステップS74)。   Specifically, as shown in FIGS. 21 and 22, first, after the machining program stored in the program storage unit 61 is read by the operation command extraction unit 17 (step S71), an operation command is received from the machining program. The blocks are sequentially extracted (step S72), and the elapsed time calculation unit 33 calculates the elapsed time from the start of execution of the machining program (step S73). In addition, the selection candidate extraction unit 37 stores the camera selection candidates immediately after the start of execution of the processing program in the selection candidate storage unit 38 (step S74).

次に、カウンタTが5にセットされた後(ステップS75)、位置情報生成部34により加工プログラムの実行開始から5秒後における工具Tの位置情報が生成され(ステップS76)、モデルデータ更新部35によりモデルデータが更新される(ステップS77)。ついで、位置関係認識部36により各CCDカメラ11,12,13,14、工具T及びワークWの位置関係が認識され(ステップS78)、選択候補抽出部37によりカメラ選択候補が抽出されて(ステップS79)、選択候補記憶部38に格納される(ステップS80)。   Next, after the counter T is set to 5 (step S75), the position information generation unit 34 generates position information of the tool T after 5 seconds from the start of execution of the machining program (step S76), and the model data update unit The model data is updated by 35 (step S77). Next, the positional relationship recognition unit 36 recognizes the positional relationship among the CCD cameras 11, 12, 13, 14, tool T and workpiece W (step S78), and the selection candidate extraction unit 37 extracts camera selection candidates (step S78). S79) and stored in the selection candidate storage unit 38 (step S80).

そして、このような、ステップS76〜ステップS80までの処理が、カウンタTが更新されつつ加工プログラムが終了するまで実行され(ステップS81,S82)、加工プログラムが終了すると、カメラ選択部39により1つのCCDカメラ11,12,13,14が選択,決定され(ステップS83)、選択カメラ記憶部40に格納される(ステップS84)。尚、選択カメラ記憶部40内のデータは、必要に応じて、選択カメラ修正部41により修正される(ステップS85)。   Such processing from step S76 to step S80 is executed until the machining program is completed while the counter T is updated (steps S81 and S82). The CCD cameras 11, 12, 13, and 14 are selected and determined (step S83) and stored in the selected camera storage unit 40 (step S84). Note that the data in the selected camera storage unit 40 is corrected by the selected camera correction unit 41 as necessary (step S85).

この後、プログラム解析部62により加工プログラムがブロック毎に順次解析されて動作指令が抽出され、抽出された動作指令を基に、駆動制御部64により各送り機構部57,58,59が制御されて工具T及びワークWが相対移動せしめられると、この駆動制御部64から得られる、加工プログラムの実行開始からの経過時間に関するデータと選択カメラ記憶部40内のデータとを基に、カメラ切換部42により、経過時間に対応したCCDカメラ11,12,13,14が認識され、認識されたCCDカメラ11,12,13,14によって生成される2次元画像データが画面表示装置66に表示される。   Thereafter, the machining program is sequentially analyzed for each block by the program analysis unit 62 and operation commands are extracted, and the feed control units 57, 58, and 59 are controlled by the drive control unit 64 based on the extracted operation commands. When the tool T and the workpiece W are moved relative to each other, the camera switching unit is obtained based on the data relating to the elapsed time from the start of execution of the machining program and the data in the selected camera storage unit 40 obtained from the drive control unit 64. 42, the CCD cameras 11, 12, 13, and 14 corresponding to the elapsed time are recognized, and the two-dimensional image data generated by the recognized CCD cameras 11, 12, 13, and 14 is displayed on the screen display device 66. .

このように、この加工状況監視装置3によれば、経過時間毎に選択されたCCDカメラ11,12,13,14によって生成される、工具Tの先端が隠れない2次元画像データを画面表示装置66に順次表示させているので、上記と同様、オペレータは、表示画像を通してワークWの加工状況を十分に監視することができる。また、一定時間におけるカメラ切換回数が予め設定された許容切換回数よりも多いときには、一定時間における選択カメラを同じCCDカメラ11,12,13,14に設定しているので、ワークWの加工時におけるカメラ切換回数を少なくすることができ、特に、工具Tが微小移動を繰り返すような場合に効果的である。この他、前記加工状況監視装置1と同様の効果を得ることができる。   As described above, according to the processing status monitoring device 3, the two-dimensional image data generated by the CCD cameras 11, 12, 13, and 14 selected every elapsed time so that the tip of the tool T is not hidden is displayed on the screen display device. 66, the operator can sufficiently monitor the machining status of the workpiece W through the display image as described above. Further, when the number of times of camera switching in a certain time is greater than a preset allowable number of times of switching, the selected camera in the certain time is set to the same CCD camera 11, 12, 13, and 14, and therefore when the workpiece W is processed. The number of times of camera switching can be reduced, and this is particularly effective when the tool T repeats minute movements. In addition, it is possible to obtain the same effects as those of the processing status monitoring apparatus 1.

前記加工状況監視装置3は、予め設定されたすべての経過時間についてカメラ選択候補を抽出した後、1つのCCDカメラ11,12,13,14を選択,決定するように構成されていたが、カメラ選択候補を抽出する度に1つのCCDカメラ11,12,13,14を選択,決定し、これをすべての経過時間について繰り返すようにしても良い。   The processing status monitoring device 3 is configured to select and determine one CCD camera 11, 12, 13, and 14 after extracting camera selection candidates for all preset elapsed times. Each time a selection candidate is extracted, one CCD camera 11, 12, 13, 14 may be selected and determined, and this may be repeated for all elapsed times.

この場合、図23に示すように、加工状況監視装置4は構成され、選択候補記憶部38が省略されている点、及びカメラ選択部39に代えてカメラ選択部43が設けられている点で、前記加工状況監視装置3と相違している。これら以外の点については、前記加工状況監視装置3と同じであるため、同一の符号を付してその詳しい説明を省略する。   In this case, as shown in FIG. 23, the processing status monitoring device 4 is configured, the selection candidate storage unit 38 is omitted, and the camera selection unit 43 is provided instead of the camera selection unit 39. This is different from the processing status monitoring device 3. Since points other than these are the same as those in the machining status monitoring device 3, the same reference numerals are given and detailed descriptions thereof are omitted.

前記カメラ選択部43は、前記カメラ選択部39と同様、図14に示すような一連の処理を実行して、前記選択カメラ抽出部37により抽出されたカメラ選択候補を基に、予め設定された各経過時間について、カメラ選択候補の中からそれぞれ1つのCCDカメラ11,12,13,14を選択,決定する。   Similarly to the camera selection unit 39, the camera selection unit 43 executes a series of processes as shown in FIG. 14 and is set in advance based on the camera selection candidates extracted by the selected camera extraction unit 37. For each elapsed time, one CCD camera 11, 12, 13, 14 is selected and determined from the camera selection candidates.

即ち、カメラ選択部43は、まず、選択カメラ抽出部37によって抽出された、決定すべき経過時間のカメラ選択候補を受信してこれを認識し(ステップS41)、この経過時間よりも1つ前の経過時間について決定したCCDカメラ11,12,13,14を認識する(ステップS42)。   That is, the camera selection unit 43 first receives and recognizes the camera selection candidate of the elapsed time to be determined, extracted by the selected camera extraction unit 37 (step S41), and immediately before this elapsed time. The CCD cameras 11, 12, 13, and 14 determined for the elapsed time are recognized (step S42).

そして、ステップS41で認識したカメラ選択候補の中に、ステップS42で認識したCCDカメラ11,12,13,14が含まれているか否かを確認し(ステップS43)、含まれていると判断したときには、ステップS42で認識したCCDカメラ11,12,13,14に決定する(ステップS44)。例えば、前記決定すべき経過時間のカメラ選択候補がA,B,Cであり、1つ前の経過時間について決定したカメラがAであるとすれば、共通するAに決定される。   Then, it is confirmed whether or not the camera selection candidates recognized in step S41 include the CCD cameras 11, 12, 13, and 14 recognized in step S42 (step S43). In some cases, the CCD cameras 11, 12, 13, and 14 recognized in step S42 are determined (step S44). For example, if the camera selection candidates for the elapsed time to be determined are A, B, and C, and the camera determined for the previous elapsed time is A, the camera is selected as a common A.

一方、ステップS43で含まれていないと判断したときには、ステップS41で認識したカメラ選択候補の中から1つのCCDカメラ11,12,13,14を選択,決定する(ステップS45)。そして、前記決定すべき経過時間と、前記選択,決定したCCDカメラ11,12,13,14とを相互に関連付けて前記選択カメラ記憶部40に格納し(ステップS46)、上記一連の処理を終了する。   On the other hand, when it is determined in step S43 that it is not included, one CCD camera 11, 12, 13, 14 is selected and determined from the camera selection candidates recognized in step S41 (step S45). Then, the elapsed time to be determined and the selected and determined CCD cameras 11, 12, 13, and 14 are stored in the selected camera storage unit 40 in association with each other (step S46), and the above series of processing ends. To do.

そして、この加工状況監視装置4によれば、前記加工状況監視装置3と同様、制御装置60によって加工プログラムが実行される前に、以下のようにして、複数のCCDカメラ11,12,13,14の内、画面表示装置66に表示させるべき2次元画像データを生成するCCDカメラ11,12,13,14が選択,決定される。   Then, according to the machining status monitoring device 4, like the machining status monitoring device 3, before the machining program is executed by the control device 60, a plurality of CCD cameras 11, 12, 13, 14, the CCD cameras 11, 12, 13, and 14 that generate two-dimensional image data to be displayed on the screen display device 66 are selected and determined.

具体的には、図24及び図25に示すように、まず、プログラム記憶部61に格納された加工プログラムが動作指令抽出部17により読み出された後(ステップS91)、加工プログラムから動作指令がブロック毎に順次抽出され(ステップS92)、経過時間算出部33により加工プログラムの実行開始からの経過時間が算出される(ステップS93)。また、選択候補抽出部37により加工プログラムの実行開始直後におけるカメラ選択候補が選択候補記憶部38に格納される(ステップS94)。   Specifically, as shown in FIGS. 24 and 25, first, after the machining program stored in the program storage unit 61 is read by the operation command extraction unit 17 (step S91), an operation command is received from the machining program. The blocks are sequentially extracted (step S92), and the elapsed time calculation unit 33 calculates the elapsed time from the start of execution of the machining program (step S93). The selection candidate extraction unit 37 stores the camera selection candidate immediately after the start of execution of the processing program in the selection candidate storage unit 38 (step S94).

次に、カウンタTが5にセットされた後(ステップS95)、位置情報生成部34により加工プログラムの実行開始から5秒後における工具Tの位置情報が生成され(ステップS96)、モデルデータ更新部35によりモデルデータが更新される(ステップS97)。ついで、位置関係認識部36により各CCDカメラ11,12,13,14、工具T及びワークWの位置関係が認識され(ステップS98)、選択候補抽出部37によりカメラ選択候補が抽出された後(ステップS99)、カメラ選択部43により1つのCCDカメラ11,12,13,14が選択,決定され(ステップS100)、選択カメラ記憶部40に格納される(ステップS101)。   Next, after the counter T is set to 5 (step S95), the position information generation unit 34 generates position information of the tool T after 5 seconds from the start of execution of the machining program (step S96), and the model data update unit The model data is updated by 35 (step S97). Next, the positional relationship recognition unit 36 recognizes the positional relationship among the CCD cameras 11, 12, 13, 14, the tool T, and the work W (step S 98), and the selection candidate extraction unit 37 extracts the camera selection candidate ( In step S99, one CCD camera 11, 12, 13, 14 is selected and determined by the camera selection unit 43 (step S100) and stored in the selected camera storage unit 40 (step S101).

そして、このような、ステップS96〜ステップS101までの処理が、カウンタTが更新されつつ加工プログラムが終了するまで実行され(ステップS102,S103)、加工プログラムが終了すると、必要に応じて、選択カメラ記憶部40内のデータが選択カメラ修正部41により修正される(ステップS104)。   Such processing from step S96 to step S101 is executed until the machining program is completed while the counter T is updated (steps S102 and S103). When the machining program is completed, the selected camera is selected as necessary. Data in the storage unit 40 is corrected by the selected camera correction unit 41 (step S104).

この後、プログラム解析部62により加工プログラムがブロック毎に順次解析されて動作指令が抽出され、抽出された動作指令を基に、駆動制御部64により各送り機構部57,58,59が制御されて工具T及びワークWが相対移動せしめられると、この駆動制御部64から得られる、加工プログラムの実行開始からの経過時間に関するデータと選択カメラ記憶部40内のデータとを基に、カメラ切換部42により、経過時間に対応したCCDカメラ11,12,13,14が認識され、認識されたCCDカメラ11,12,13,14によって生成される2次元画像データが画面表示装置66に表示される。   Thereafter, the machining program is sequentially analyzed for each block by the program analysis unit 62 and operation commands are extracted, and the feed control units 57, 58, and 59 are controlled by the drive control unit 64 based on the extracted operation commands. When the tool T and the workpiece W are moved relative to each other, the camera switching unit is obtained based on the data relating to the elapsed time from the start of execution of the machining program and the data in the selected camera storage unit 40 obtained from the drive control unit 64. 42, the CCD cameras 11, 12, 13, and 14 corresponding to the elapsed time are recognized, and the two-dimensional image data generated by the recognized CCD cameras 11, 12, 13, and 14 is displayed on the screen display device 66. .

斯くして、この加工状況監視装置4によっても、連続する2つの経過時間で同じCCDカメラ11,12,13,14に決定して、ワークWの加工時におけるカメラ切換回数を少なくすることができる他、上記と同様の効果を得ることができる。   Thus, this machining status monitoring device 4 can also determine the same CCD camera 11, 12, 13, 14 in two consecutive elapsed times, and reduce the number of times of camera switching when machining the workpiece W. In addition, the same effects as described above can be obtained.

また、前記加工状況監視装置1,2,3,4では、前記位置関係認識部21,36が各CCDカメラ11,12,13,14、工具T及びワークWの位置関係を認識するように構成されていたが、この位置関係に加え、工具Tの移動方向も認識するように構成されていても良い。   Further, in the machining status monitoring devices 1, 2, 3, and 4, the positional relationship recognition units 21 and 36 are configured to recognize the positional relationship among the CCD cameras 11, 12, 13, and 14, the tool T, and the workpiece W. However, in addition to this positional relationship, the moving direction of the tool T may be recognized.

即ち、前記位置関係認識部21は、前記カメラパラメータ記憶部15に格納されたカメラパラメータと、前記位置情報生成部18によって生成された工具Tの位置情報と、前記モデルデータ更新部20によって更新されたモデルデータとを基に、或いは、前記カメラパラメータ記憶部15に格納されたカメラパラメータと、前記位置情報生成部18によって生成された工具Tの位置情報と、前記モデルデータ更新部20によって更新されたモデルデータと、前記動作指令抽出部17によって抽出された動作指令とを基に、各CCDカメラ11,12,13,14、工具T及びワークWの位置関係、並びに工具Tの移動方向をブロック毎に認識する。   In other words, the positional relationship recognition unit 21 is updated by the camera parameter stored in the camera parameter storage unit 15, the position information of the tool T generated by the position information generation unit 18, and the model data update unit 20. Updated based on the model data, or the camera parameters stored in the camera parameter storage unit 15, the position information of the tool T generated by the position information generation unit 18, and the model data update unit 20. Based on the model data obtained and the motion command extracted by the motion command extraction unit 17, the positional relationship between the CCD cameras 11, 12, 13, 14, the tool T and the workpiece W and the moving direction of the tool T are blocked. Recognize every time.

尚、工具Tの移動方向については、例えば、位置関係を認識すべきブロックに係る動作指令の実行前(工具移動前、即ち、当該ブロックよりも1つ前のブロックに係る動作指令の実行後)における工具Tの先端位置と、位置関係を認識すべきブロックに係る動作指令の実行後(工具移動後)における工具Tの先端位置とを基に認識する。或いは、動作指令抽出部17によって抽出された動作指令から認識する。   As for the movement direction of the tool T, for example, before execution of an operation command related to a block whose positional relationship should be recognized (before the movement of the tool, that is, after execution of an operation command related to a block immediately before that block). Is recognized based on the tip position of the tool T and the tip position of the tool T after the execution of the operation command related to the block whose positional relationship should be recognized (after the tool is moved). Alternatively, it is recognized from the operation command extracted by the operation command extraction unit 17.

一方、前記位置関係認識部36は、前記カメラパラメータ記憶部15に格納されたカメラパラメータと、前記経過時間算出部33によって算出される経過時間と、前記位置情報生成部34によって生成された工具Tの位置情報と、前記モデルデータ更新部35から送信されたモデルデータとを基に、或いは、前記カメラパラメータ記憶部15に格納されたカメラパラメータと、前記経過時間算出部33によって算出される経過時間と、前記位置情報生成部34によって生成された工具Tの位置情報と、前記モデルデータ更新部35から送信されたモデルデータと、前記動作指令抽出部17によって抽出された動作指令とを基に、各CCDカメラ11,12,13,14、工具T及びワークWの位置関係、並びに工具Tの移動方向を予め設定された経過時間毎に認識する。   On the other hand, the positional relationship recognition unit 36 includes the camera parameters stored in the camera parameter storage unit 15, the elapsed time calculated by the elapsed time calculation unit 33, and the tool T generated by the position information generation unit 34. Based on the position information and the model data transmitted from the model data update unit 35, or the camera parameters stored in the camera parameter storage unit 15 and the elapsed time calculated by the elapsed time calculation unit 33 And based on the position information of the tool T generated by the position information generation unit 34, the model data transmitted from the model data update unit 35, and the operation command extracted by the operation command extraction unit 17. The positional relationship between each CCD camera 11, 12, 13, 14, tool T and workpiece W, and the moving direction of tool T are preset. Recognize every elapsed time.

尚、工具Tの移動方向については、上記と同様、位置関係を認識すべき経過時間よりも1つ前の経過時間(工具移動前)における工具Tの先端位置と、位置関係を認識すべき経過時間(工具移動後)における工具Tの先端位置とを基に認識したり、動作指令抽出部17によって抽出された動作指令から認識する。   As for the movement direction of the tool T, as described above, the tip position of the tool T in the elapsed time one time before the positional relationship should be recognized (before the tool movement) and the positional relationship to be recognized. Recognize based on the tip position of the tool T in time (after tool movement), or recognize from the operation command extracted by the operation command extraction unit 17.

また、前記選択候補抽出部22,37は、前記位置関係認識部21,36によって認識された位置関係と工具Tの移動方向とを基に、各CCDカメラ11,12,13,14の中から、ワークWによって工具Tの先端が隠れない2次元画像データを生成可能なCCDカメラ11,12,13,14であり且つ工具Tの移動方向に応じたCCDカメラ11,12,13,14をカメラ選択候補としてブロック毎若しくは予め設定された経過時間毎に抽出する。   The selection candidate extraction units 22 and 37 are selected from the CCD cameras 11, 12, 13, and 14 based on the positional relationship recognized by the positional relationship recognition units 21 and 36 and the moving direction of the tool T. The CCD cameras 11, 12, 13, and 14 can generate two-dimensional image data in which the tip of the tool T is not hidden by the workpiece W, and the CCD cameras 11, 12, 13, and 14 corresponding to the moving direction of the tool T are cameras. The selection candidate is extracted for each block or for each preset elapsed time.

具体的には、選択候補抽出部22,37は、まず、ワークWによって工具Tの先端が隠れない2次元画像データを生成可能なCCDカメラ11,12,13,14をカメラ選択候補として抽出した後、工具Tの移動方向とカメラパラメータとを基に、前記抽出したカメラ選択候補の中から、工具Tが接近してくる画像を生成可能なCCDカメラ11,12,13,14や、工具Tが離れていく画像を生成可能なCCDカメラ11,12,13,14を更に抽出する。例えば、工具Tが図4のように移動する場合に、工具Tが接近してくる画像を生成可能なCCDカメラ11,12,13,14を抽出するときには、第2CCDカメラ12がカメラ選択候補として抽出され、一方、工具Tが離れていく画像を生成可能なCCDカメラ11,12,13,14を抽出するときには、第4CCDカメラ14がカメラ選択候補として抽出される。   Specifically, the selection candidate extraction units 22 and 37 first extract CCD cameras 11, 12, 13, and 14 that can generate two-dimensional image data in which the tip of the tool T is not hidden by the workpiece W as camera selection candidates. Thereafter, based on the moving direction of the tool T and the camera parameters, the CCD cameras 11, 12, 13, and 14 that can generate an image in which the tool T approaches from the extracted camera selection candidates, and the tool T CCD cameras 11, 12, 13, and 14 that can generate images that move away from each other are further extracted. For example, when the tool T moves as shown in FIG. 4, when extracting the CCD cameras 11, 12, 13, and 14 that can generate an image approaching the tool T, the second CCD camera 12 is selected as a camera selection candidate. On the other hand, when extracting the CCD cameras 11, 12, 13, and 14 that can generate an image that is extracted and the tool T moves away, the fourth CCD camera 14 is extracted as a camera selection candidate.

このように、工具Tの移動方向も考慮してカメラ選択候補を抽出すれば、より適切なCCDカメラ11,12,13,14によって生成される2次元画像データを画面表示装置66に表示させることができる。   In this way, if camera selection candidates are extracted in consideration of the moving direction of the tool T, two-dimensional image data generated by more appropriate CCD cameras 11, 12, 13, and 14 can be displayed on the screen display device 66. Can do.

また、上例では、前記選択候補抽出部22,37が工具Tの先端が隠れない2次元画像データを生成可能なCCDカメラ11,12,13,14をカメラ選択候補として抽出する際に、各CCDカメラ11,12,13,14の撮像面と光軸との交点KやCCDカメラ11,12,13,14のレンズの中心点Kと、工具移動前後における工具Tの先端位置L,Mとの3点を結んで3角形状の平面Pをそれぞれ形成し、これらの平面PとワークWの形状との間に交差部があるか否かをそれぞれ確認するようにしたが、これに限られるものではなく、各CCDカメラ11,12,13,14の撮像面と光軸との交点KやCCDカメラ11,12,13,14のレンズの中心点Kと、工具移動後における工具Tの先端位置Mとの2点を結んだ直線と、ワークWの形状との間に交差部があるか否かをそれぞれ確認するようにしても良い。   In the above example, when the selection candidate extraction units 22 and 37 extract the CCD cameras 11, 12, 13, and 14 that can generate two-dimensional image data in which the tip of the tool T is not hidden as camera selection candidates, The intersection K between the imaging surface of the CCD camera 11, 12, 13, 14 and the optical axis, the center point K of the lens of the CCD camera 11, 12, 13, 14 and the tip positions L, M of the tool T before and after the tool movement These three points are respectively connected to form a triangular plane P, and whether or not there is an intersection between the plane P and the shape of the workpiece W is confirmed. Instead, the intersection K between the imaging surface of each CCD camera 11, 12, 13, 14 and the optical axis, the center point K of the lens of the CCD camera 11, 12, 13, 14 and the tip of the tool T after moving the tool A straight line connecting two points with position M It may be whether or not there is a crossing portion between the shape of the workpiece W to be independently confirmed.

更に、前記選択候補抽出部22,37によって、工具Tの先端が隠れない2次元画像データを生成可能なCCDカメラ11,12,13,14が存在しないと判断された場合や、クーラントが吐出されているような場合には、画面表示装置66には、シミュレーション画像を表示させるようにしても良い。尚、クーラント吐出量が少量で工具Tの先端を視認可能なときには、シミュレーション画像とせずに、CCDカメラ11,12,13,14から得られる2次元画像データを表示させても良い。   Further, when it is determined by the selection candidate extraction units 22 and 37 that there is no CCD camera 11, 12, 13, or 14 capable of generating two-dimensional image data in which the tip of the tool T is not hidden, coolant is discharged. In such a case, the screen display device 66 may display a simulation image. When the coolant discharge amount is small and the tip of the tool T is visible, two-dimensional image data obtained from the CCD cameras 11, 12, 13, and 14 may be displayed instead of the simulation image.

また、前記選択候補抽出部22,37は、カメラ選択候補を抽出する際に、まず、ワークWが工具Tによって加工される領域や、ワークWに対して工具Tが存在する空間を認識した後、認識した領域や空間に近い位置に配置されたCCDカメラ11,12,13,14を認識し、この認識したCCDカメラ11,12,13,14についてのみ、そのCCDカメラ11,12,13,14が、工具Tの先端が隠れない2次元画像データを生成可能であるか否かを判断するようにしても良い。このようにすれば、処理の簡略化を図ることができる。   In addition, when the selection candidate extraction units 22 and 37 extract camera selection candidates, first, after recognizing a region where the workpiece W is processed by the tool T and a space where the tool T exists with respect to the workpiece W, The CCD cameras 11, 12, 13, and 14 arranged at positions close to the recognized areas and spaces are recognized, and only the recognized CCD cameras 11, 12, 13, and 14 are recognized. 14 may determine whether it is possible to generate two-dimensional image data in which the tip of the tool T is not hidden. In this way, the process can be simplified.

また、前記選択候補抽出部22,37を省略して、前記カメラ選択部24,31,39,43が、各CCDカメラ11,12,13,14の中から、ワークWによって工具Tの先端が隠れない2次元画像データを生成可能なCCDカメラ11,12,13,14や、ワークWによって工具Tの先端が隠れない2次元画像データを生成可能なCCDカメラ11,12,13,14であり且つ工具Tの移動方向に応じたCCDカメラ11,12,13,14を選択,決定するように構成されていても良い。   Further, the selection candidate extraction units 22 and 37 are omitted, and the camera selection units 24, 31, 39, and 43 are arranged so that the tip of the tool T is moved by the workpiece W from the CCD cameras 11, 12, 13, and 14. CCD cameras 11, 12, 13, and 14 that can generate non-hidden two-dimensional image data, and CCD cameras 11, 12, 13, and 14 that can generate two-dimensional image data in which the tip of the tool T is not hidden by the workpiece W In addition, the CCD cameras 11, 12, 13, and 14 may be selected and determined according to the moving direction of the tool T.

更に、ワークWをテーブル56に取り付けるに当たっては、通常、取付具が使用されるため、前記選択候補抽出部22,37が、この取付具及びワークWによって工具Tの先端が隠れない2次元画像データを生成可能なCCDカメラ11,12,13,14をカメラ選択候補として抽出したり、前記カメラ選択部24,31,39,43が、この取付具及びワークWによって工具Tの先端が隠れない2次元画像データを生成可能なCCDカメラ11,12,13,14を選択,決定するように構成されていても良い。   Further, when the workpiece W is attached to the table 56, since a fixture is usually used, the selection candidate extraction units 22 and 37 can perform two-dimensional image data in which the tip of the tool T is not hidden by the fixture and the workpiece W. CCD cameras 11, 12, 13, and 14 that can generate a camera selection candidate are extracted as camera selection candidates, and the camera selection units 24, 31, 39, and 43 do not obscure the tip of the tool T by this fixture and workpiece W 2 The CCD cameras 11, 12, 13, and 14 that can generate the dimensional image data may be selected and determined.

また、前記カメラ切換部27,42は、CCDカメラ11,12,13,14によって生成された2次元画像データを前記画面表示装置66に表示させるに当たり、すべてのCCDカメラ11,12,13,14によって生成された2次元画像データを画面表示装置66に表示させるとともに、前記選択カメラ記憶部25,40内のデータから認識されるCCDカメラ11,12,13,14によって生成された2次元画像データについては、画面表示装置66の表示画面に大きく表示させ(メイン表示)、それ以外のCCDカメラ11,12,13,14によって生成された2次元画像データについては、画面表示装置66の表示画面の隅部に小さく表示させたり、前記メイン表示の背景画像として表示させるように構成されていても良い。   In addition, the camera switching units 27 and 42 display all the CCD cameras 11, 12, 13, 14 when displaying the two-dimensional image data generated by the CCD cameras 11, 12, 13, 14 on the screen display device 66. The two-dimensional image data generated by the CCD camera 11, 12, 13, 14 recognized from the data in the selected camera storage units 25, 40 is displayed on the screen display device 66. Is displayed largely on the display screen of the screen display device 66 (main display), and the other two-dimensional image data generated by the CCD cameras 11, 12, 13, and 14 is displayed on the display screen of the screen display device 66. It may be configured to be displayed in a small corner or as a background image of the main display.

また、前記位置情報生成部18,34とモデルデータ更新部20,35は、一体的に設けられ、モデルデータを更新することによって工具Tの位置情報を生成するように構成されていても良い。また、モデルデータ更新部20,35は、動作指令ではなく、位置情報生成部18,34によって生成された工具Tの位置情報を基にモデルデータを更新するように構成されていても良い。更に、前記加工状況監視装置1が設けられる工作機械50は、何ら限定されるものではなく、どのような工作機械50であっても良い。例えば、上例のようなマシニングセンタではなく、旋盤などに設けるようにしても良い。   In addition, the position information generation units 18 and 34 and the model data update units 20 and 35 may be provided integrally, and may be configured to generate the position information of the tool T by updating the model data. The model data updating units 20 and 35 may be configured to update the model data based on the position information of the tool T generated by the position information generation units 18 and 34 instead of the operation command. Further, the machine tool 50 provided with the machining status monitoring device 1 is not limited at all, and any machine tool 50 may be used. For example, it may be provided on a lathe instead of the machining center as in the above example.

1 加工状況監視装置
11,12,13,14 CCDカメラ
15 カメラパラメータ記憶部
16 加工シミュレーション実行部
17 動作指令抽出部
18 位置情報生成部
19 モデルデータ記憶部
20 モデルデータ更新部
21 位置関係認識部
22 選択候補抽出部
23 選択候補記憶部
24 カメラ選択部
25 選択カメラ記憶部
26 選択カメラ修正部
27 カメラ切換部
60 制御装置
66 画面表示装置
DESCRIPTION OF SYMBOLS 1 Processing condition monitoring apparatus 11, 12, 13, 14 CCD camera 15 Camera parameter memory | storage part 16 Processing simulation execution part 17 Operation command extraction part 18 Position information generation part 19 Model data storage part 20 Model data update part 21 Position relation recognition part 22 Selection candidate extraction unit 23 Selection candidate storage unit 24 Camera selection unit 25 Selected camera storage unit 26 Selected camera correction unit 27 Camera switching unit 60 Control device 66 Screen display device

Claims (12)

工具及びワークを相対移動させる加工動作機構部と、加工プログラムをそのブロック毎に解析して前記加工動作機構部の動作指令を抽出し、抽出した動作指令を基に前記加工動作機構部の作動を制御する制御手段とを備えた工作機械における加工状況を監視する装置であって、
少なくとも前記工具及びワークを互いに異なる視点から一定時間間隔で撮像してその2次元画像データを順次生成する複数のカメラと、
前記カメラによって生成された2次元画像データを表示する画面表示手段と、
前記複数のカメラについて、その配置位置及び姿勢を示すカメラパラメータをそれぞれ記憶するカメラパラメータ記憶手段と、
前記加工プログラムをそのブロック毎に解析して動作指令を抽出する動作指令抽出部と、前記動作指令抽出部によって抽出された動作指令、並びに前記工具,ワーク及び加工動作機構部の3次元モデルに関するデータを基に、前記加工動作機構部が前記動作指令に従って動作したときの前記工具,ワーク及び加工動作機構部のモデルデータを生成して更新するモデルデータ更新部とを有する加工シミュレーション実行手段と、
前記カメラパラメータ記憶手段に格納されたカメラパラメータと、前記モデルデータ更新部によって更新されたモデルデータとを基に、前記複数のカメラの内、少なくとも前記ワークによって前記工具の先端が隠れない2次元画像データを生成可能なカメラを前記加工プログラムのブロック毎に選択するカメラ選択手段と、
前記加工プログラムのブロックと、前記カメラ選択手段によって選択されたカメラとを関連付けて記憶する選択カメラ記憶手段と、
前記制御手段により前記加工プログラムが実行されると、この制御手段から得られる実行ブロックに関するデータと、前記選択カメラ記憶手段に格納されたデータとを基に、前記実行ブロックに対応したカメラを認識し、認識したカメラによって生成される2次元画像データを前記画面表示手段に表示させるカメラ切換手段とを備えてなることを特徴とする加工状況監視装置。
A machining operation mechanism unit that relatively moves the tool and the workpiece, and a machining program is analyzed for each block to extract an operation command of the machining operation mechanism unit, and the machining operation mechanism unit is operated based on the extracted operation command. An apparatus for monitoring a machining state in a machine tool provided with a control means for controlling,
A plurality of cameras that capture at least the tool and the workpiece from different viewpoints at regular time intervals and sequentially generate two-dimensional image data thereof;
Screen display means for displaying two-dimensional image data generated by the camera;
Camera parameter storage means for storing camera parameters indicating the position and orientation of the plurality of cameras;
An operation command extraction unit that analyzes the machining program for each block and extracts an operation command, an operation command extracted by the operation command extraction unit, and data relating to a three-dimensional model of the tool, workpiece, and machining operation mechanism unit Based on the above, a machining simulation execution means having a model data update unit that generates and updates model data of the tool, workpiece, and machining operation mechanism unit when the machining operation mechanism unit operates according to the operation command;
Based on the camera parameters stored in the camera parameter storage means and the model data updated by the model data updating unit, a two-dimensional image in which the tip of the tool is not hidden by at least the workpiece among the plurality of cameras. Camera selection means for selecting a camera capable of generating data for each block of the machining program;
Selected camera storage means for storing the processing program block in association with the camera selected by the camera selection means;
When the processing program is executed by the control means, the camera corresponding to the execution block is recognized based on the data related to the execution block obtained from the control means and the data stored in the selected camera storage means. A processing state monitoring apparatus comprising: a camera switching unit that causes the screen display unit to display two-dimensional image data generated by the recognized camera.
前記複数のカメラ,工具及び少なくともワークの位置関係を認識する位置関係認識手段を備え、
前記加工シミュレーション実行手段は、前記動作指令抽出部によって抽出された動作指令を基に前記工具の位置情報を生成する位置情報生成部を更に有し、
前記位置関係認識手段は、前記カメラパラメータ記憶手段に格納されたカメラパラメータと、前記位置情報生成部によって生成された前記工具の位置情報と、前記モデルデータ更新部によって更新されたモデルデータとを基に、前記位置関係を前記加工プログラムのブロック毎に認識するように構成され、
前記カメラ選択手段は、前記位置関係認識手段によって認識された位置関係を基に前記カメラを選択するように構成されてなることを特徴とする請求項1記載の加工状況監視装置。
A positional relationship recognition means for recognizing the positional relationship between the plurality of cameras, tools and at least the workpiece;
The machining simulation execution unit further includes a position information generation unit that generates position information of the tool based on the operation command extracted by the operation command extraction unit,
The positional relationship recognition means is based on the camera parameters stored in the camera parameter storage means, the tool position information generated by the position information generation section, and the model data updated by the model data update section. In addition, the positional relationship is configured to recognize each block of the machining program,
The processing status monitoring apparatus according to claim 1, wherein the camera selection unit is configured to select the camera based on the positional relationship recognized by the positional relationship recognition unit.
前記位置関係認識手段によって認識された位置関係を基に、前記複数のカメラの内、少なくとも前記ワークによって前記工具の先端が隠れない2次元画像データを生成可能なカメラをカメラ選択候補として前記加工プログラムのブロック毎に抽出する選択候補抽出手段と、
前記加工プログラムのブロックと、前記選択候補抽出手段によって抽出されたカメラ選択候補とを関連付けて記憶する選択候補記憶手段とを備え、
前記カメラ選択手段は、前記選択候補記憶手段に格納されたデータを基に、前記加工プログラムの各ブロックについて、前記カメラ選択候補の中から1つのカメラを選択,決定し、決定したカメラと、前記加工プログラムのブロックとを関連付けて前記選択カメラ記憶手段に格納するとともに、前記カメラ選択候補の中から1つのカメラを決定する際には、ブロック毎に前記カメラ選択候補の中から1つのカメラを選択してカメラの組み合わせを複数通り設定し、設定した各組み合わせについてカメラ切換回数を算出した後、最もカメラ切換回数が少ない組み合わせを基に1つのカメラを決定するように構成されてなることを特徴とする請求項2記載の加工状況監視装置。
Based on the positional relationship recognized by the positional relationship recognition means, the processing program with a camera that can generate two-dimensional image data in which at least the tip of the tool is not hidden by the workpiece among the plurality of cameras as a camera selection candidate Selection candidate extraction means for extracting each block of
A selection candidate storage unit that associates and stores the block of the processing program and the camera selection candidate extracted by the selection candidate extraction unit;
The camera selection means selects and determines one camera from the camera selection candidates for each block of the processing program based on the data stored in the selection candidate storage means, and the determined camera, The processing program blocks are associated with each other and stored in the selected camera storage means, and when one camera is determined from the camera selection candidates, one camera is selected from the camera selection candidates for each block. Then, a plurality of combinations of cameras are set, and after calculating the number of times of camera switching for each set combination, one camera is determined based on the combination with the smallest number of times of camera switching. The processing status monitoring device according to claim 2.
前記位置関係認識手段によって認識された位置関係を基に、前記複数のカメラの内、少なくとも前記ワークによって前記工具の先端が隠れない2次元画像データを生成可能なカメラをカメラ選択候補として前記加工プログラムのブロック毎に抽出する選択候補抽出手段を備え、
前記カメラ選択手段は、前記加工プログラムの各ブロックについて、前記選択候補抽出手段によって抽出されたカメラ選択候補の中から1つのカメラを選択,決定し、決定したカメラと、前記加工プログラムのブロックとを関連付けて前記選択カメラ記憶手段に格納するとともに、前記カメラ選択候補の中から1つのカメラを決定する際には、決定すべきブロックのカメラ選択候補の中に、このブロックよりも1つ前のブロックについて決定したカメラが含まれているか否かを確認して、含まれていると判断したときには、前記1つ前のブロックと同じカメラに決定するように構成されてなることを特徴とする請求項2記載の加工状況監視装置。
Based on the positional relationship recognized by the positional relationship recognition means, the processing program with a camera that can generate two-dimensional image data in which at least the tip of the tool is not hidden by the workpiece among the plurality of cameras as a camera selection candidate Selection candidate extraction means for extracting for each block of
The camera selection means selects and determines one camera from the camera selection candidates extracted by the selection candidate extraction means for each block of the processing program, and determines the determined camera and the block of the processing program. In association with storage in the selected camera storage means, when determining one camera from among the camera selection candidates, a block immediately preceding this block among the camera selection candidates of the block to be determined It is configured to check whether or not the camera determined for is included, and when it is determined that the camera is included, the same camera as the previous block is determined. 2. The processing status monitoring device according to 2.
前記選択カメラ記憶手段に格納されたデータを修正する選択カメラ修正手段を備え、
前記カメラ選択手段は、前記加工プログラムのブロック毎に前記カメラを1つ選択するように構成され、
前記選択カメラ修正手段は、前記選択カメラ記憶手段に格納されたデータを基に、一定数連続したブロックにおけるカメラ切換回数を算出して、算出したカメラ切換回数が予め設定された許容切換回数よりも多いか否かを確認し、多いと判断したときには、前記選択カメラ記憶手段に格納されたデータを修正して、前記一定数連続したブロックの選択カメラを同じカメラに設定するように構成されてなることを特徴とする請求項1又は2記載の加工状況監視装置。
A selection camera correction unit that corrects data stored in the selected camera storage unit;
The camera selection means is configured to select one camera for each block of the machining program,
The selected camera correction means calculates the number of times of camera switching in a fixed number of consecutive blocks based on the data stored in the selected camera storage means, and the calculated number of times of camera switching is greater than a preset allowable number of switching times. It is configured to check whether or not there is a large number, and when it is determined that the number is large, the data stored in the selected camera storage means is corrected and the selected cameras of the fixed number of consecutive blocks are set to the same camera. The processing status monitoring apparatus according to claim 1 or 2, wherein
前記位置関係認識手段は、少なくとも、前記カメラパラメータ記憶手段に格納されたカメラパラメータと、前記位置情報生成部によって生成された前記工具の位置情報と、前記モデルデータ更新部によって更新されたモデルデータとを基に、前記位置関係及び前記工具の移動方向を前記加工プログラムのブロック毎に認識するように構成され、
前記カメラ選択手段は、前記位置関係認識手段によって認識された位置関係及び工具の移動方向を基に、前記複数のカメラの内、少なくとも前記ワークによって前記工具の先端が隠れない2次元画像データを生成可能なカメラであり且つ前記工具の移動方向に応じたカメラを選択するように構成されてなることを特徴とする請求項2記載の加工状況監視装置。
The positional relationship recognition means includes at least camera parameters stored in the camera parameter storage means, position information of the tool generated by the position information generation section, and model data updated by the model data update section. Based on the above, the positional relationship and the moving direction of the tool is configured to be recognized for each block of the machining program,
The camera selection unit generates two-dimensional image data in which the tip of the tool is not hidden by at least the workpiece among the plurality of cameras based on the positional relationship recognized by the positional relationship recognition unit and the moving direction of the tool. The machining status monitoring apparatus according to claim 2, wherein the machining status monitoring apparatus is configured to select a camera that is a possible camera and that corresponds to a moving direction of the tool.
工具及びワークを相対移動させる加工動作機構部と、加工プログラムを解析して前記加工動作機構部の動作指令を抽出し、抽出した動作指令を基に前記加工動作機構部の作動を制御する制御手段とを備えた工作機械における加工状況を監視する装置であって、
少なくとも前記工具及びワークを互いに異なる視点から一定時間間隔で撮像してその2次元画像データを順次生成する複数のカメラと、
前記カメラによって生成された2次元画像データを表示する画面表示手段と、
前記複数のカメラについて、その配置位置及び姿勢を示すカメラパラメータをそれぞれ記憶するカメラパラメータ記憶手段と、
前記加工プログラムを解析して動作指令を抽出する動作指令抽出部と、前記動作指令抽出部によって抽出された動作指令を基に、前記加工プログラムの実行開始からの経過時間を算出する経過時間算出部と、前記動作指令抽出部によって抽出された動作指令、並びに前記工具,ワーク及び加工動作機構部の3次元モデルに関するデータを基に、前記加工動作機構部が前記動作指令に従って動作したときの前記工具,ワーク及び加工動作機構部のモデルデータを生成して更新するモデルデータ更新部とを有する加工シミュレーション実行手段と、
前記カメラパラメータ記憶手段に格納されたカメラパラメータと、前記経過時間算出部によって算出される経過時間と、前記モデルデータ更新部によって更新されたモデルデータとを基に、前記複数のカメラの内、少なくとも前記ワークによって前記工具の先端が隠れない2次元画像データを生成可能なカメラを予め設定された経過時間毎に選択するカメラ選択手段と、
前記予め設定された経過時間と、前記カメラ選択手段によって選択されたカメラとを関連付けて記憶する選択カメラ記憶手段と、
前記制御手段により前記加工プログラムが実行されると、この制御手段から得られる、前記加工プログラムの実行開始からの経過時間に関するデータと、前記選択カメラ記憶手段に格納されたデータとを基に、前記経過時間に対応したカメラを認識し、認識したカメラによって生成される2次元画像データを前記画面表示手段に表示させるカメラ切換手段とを備えてなることを特徴とする加工状況監視装置。
A machining operation mechanism unit that relatively moves a tool and a workpiece, and a control unit that analyzes a machining program, extracts an operation command of the machining operation mechanism unit, and controls the operation of the machining operation mechanism unit based on the extracted operation command An apparatus for monitoring the machining status of a machine tool equipped with
A plurality of cameras that capture at least the tool and the workpiece from different viewpoints at regular time intervals and sequentially generate two-dimensional image data thereof;
Screen display means for displaying two-dimensional image data generated by the camera;
Camera parameter storage means for storing camera parameters indicating the position and orientation of the plurality of cameras;
An operation command extraction unit that analyzes the machining program and extracts an operation command, and an elapsed time calculation unit that calculates an elapsed time from the start of execution of the machining program based on the operation command extracted by the operation command extraction unit And the tool when the machining operation mechanism unit is operated according to the operation command based on the operation command extracted by the operation command extraction unit and the data regarding the three-dimensional model of the tool, workpiece and machining operation mechanism unit. , A machining simulation execution means having a model data update unit that generates and updates model data of the workpiece and the machining operation mechanism unit;
Based on the camera parameters stored in the camera parameter storage unit, the elapsed time calculated by the elapsed time calculation unit, and the model data updated by the model data update unit, at least of the plurality of cameras Camera selection means for selecting a camera capable of generating two-dimensional image data in which the tip of the tool is not hidden by the workpiece for each preset elapsed time;
Selected camera storage means for storing the preset elapsed time and the camera selected by the camera selection means in association with each other;
When the processing program is executed by the control means, based on the data obtained from the control means regarding the elapsed time from the start of execution of the processing program and the data stored in the selected camera storage means, A processing status monitoring apparatus comprising: a camera switching means for recognizing a camera corresponding to an elapsed time and displaying the two-dimensional image data generated by the recognized camera on the screen display means.
前記複数のカメラ,工具及び少なくともワークの位置関係を認識する位置関係認識手段を備え、
前記加工シミュレーション実行手段は、前記動作指令抽出部によって抽出された動作指令を基に前記工具の位置情報を生成する位置情報生成部を更に有し、
前記位置関係認識手段は、前記カメラパラメータ記憶手段に格納されたカメラパラメータと、前記経過時間算出部によって算出される経過時間と、前記位置情報生成部によって生成された前記工具の位置情報と、前記モデルデータ更新部によって更新されたモデルデータとを基に、前記位置関係を前記予め設定された経過時間毎に認識するように構成され、
前記カメラ選択手段は、前記位置関係認識手段によって認識された位置関係を基に前記カメラを選択するように構成されてなることを特徴とする請求項7記載の加工状況監視装置。
A positional relationship recognition means for recognizing the positional relationship between the plurality of cameras, tools and at least the workpiece;
The machining simulation execution unit further includes a position information generation unit that generates position information of the tool based on the operation command extracted by the operation command extraction unit,
The positional relationship recognition means includes the camera parameters stored in the camera parameter storage means, the elapsed time calculated by the elapsed time calculation section, the position information of the tool generated by the position information generation section, Based on the model data updated by the model data update unit, configured to recognize the positional relationship for each preset elapsed time,
The processing status monitoring apparatus according to claim 7, wherein the camera selection unit is configured to select the camera based on the positional relationship recognized by the positional relationship recognition unit.
前記位置関係認識手段によって認識された位置関係を基に、前記複数のカメラの内、少なくとも前記ワークによって前記工具の先端が隠れない2次元画像データを生成可能なカメラをカメラ選択候補として前記予め設定された経過時間毎に抽出する選択候補抽出手段と、
前記予め設定された経過時間と、前記選択候補抽出手段によって抽出されたカメラ選択候補とを関連付けて記憶する選択候補記憶手段とを備え、
前記カメラ選択手段は、前記選択候補記憶手段に格納されたデータを基に、前記予め設定された各経過時間について、前記カメラ選択候補の中から1つのカメラを選択,決定し、決定したカメラと、前記予め設定された経過時間とを関連付けて前記選択カメラ記憶手段に格納するとともに、前記カメラ選択候補の中から1つのカメラを決定する際には、予め設定された経過時間毎に前記カメラ選択候補の中から1つのカメラを選択してカメラの組み合わせを複数通り設定し、設定した各組み合わせについてカメラ切換回数を算出した後、最もカメラ切換回数が少ない組み合わせを基に1つのカメラを決定するように構成されてなることを特徴とする請求項2記載の加工状況監視装置。
Based on the positional relationship recognized by the positional relationship recognition means, a camera capable of generating two-dimensional image data in which at least the tip of the tool is not hidden by the workpiece among the plurality of cameras is set as the camera selection candidate in advance. Selection candidate extracting means for extracting every elapsed time,
Selection candidate storage means for storing the preset elapsed time in association with the camera selection candidate extracted by the selection candidate extraction means;
The camera selection means selects and determines one camera from the camera selection candidates for each preset elapsed time based on the data stored in the selection candidate storage means, and the determined camera , Storing the preset elapsed time in association with the selected camera storage means, and determining the camera for each preset elapsed time when determining one camera from the camera selection candidates. Select one camera from the candidates, set multiple combinations of cameras, calculate the number of camera switching for each set combination, and then determine one camera based on the combination with the smallest number of camera switching The processing status monitoring device according to claim 2, wherein
前記位置関係認識手段によって認識された位置関係を基に、前記複数のカメラの内、少なくとも前記ワークによって前記工具の先端が隠れない2次元画像データを生成可能なカメラをカメラ選択候補として前記予め設定された経過時間毎に抽出する選択候補抽出手段を備え、
前記カメラ選択手段は、前記予め設定された各経過時間について、前記選択候補抽出手段によって抽出されたカメラ選択候補の中から1つのカメラを選択,決定し、決定したカメラと、前記予め設定された経過時間とを関連付けて前記選択カメラ記憶手段に格納するとともに、前記カメラ選択候補の中から1つのカメラを決定する際には、決定すべき経過時間のカメラ選択候補の中に、この経過時間よりも1つ前の経過時間について決定したカメラが含まれているか否かを確認して、含まれていると判断したときには、前記1つ前の経過時間と同じカメラに決定するように構成されてなることを特徴とする請求項8記載の加工状況監視装置。
Based on the positional relationship recognized by the positional relationship recognition means, a camera capable of generating two-dimensional image data in which at least the tip of the tool is not hidden by the workpiece among the plurality of cameras is set as the camera selection candidate in advance. Selection candidate extracting means for extracting every elapsed time
The camera selection means selects and determines one camera from the camera selection candidates extracted by the selection candidate extraction means for each preset elapsed time, the determined camera, and the preset In association with the elapsed time and stored in the selected camera storage means, when determining one camera from the camera selection candidates, from the elapsed time to the camera selection candidates of the elapsed time to be determined It is also configured to check whether the camera determined for the previous elapsed time is included, and to determine that the camera is the same as the previous elapsed time when it is determined that it is included. The processing status monitoring apparatus according to claim 8, wherein
前記選択カメラ記憶手段に格納されたデータを修正する選択カメラ修正手段を備え、
前記カメラ選択手段は、前記予め設定された経過時間毎に前記カメラを1つ選択するように構成され、
前記選択カメラ修正手段は、前記選択カメラ記憶手段に格納されたデータを基に、一定時間におけるカメラ切換回数を算出して、算出したカメラ切換回数が予め設定された許容切換回数よりも多いか否かを確認し、多いと判断したときには、前記選択カメラ記憶手段に格納されたデータを修正して、前記一定時間における選択カメラを同じカメラに設定するように構成されてなることを特徴とする請求項7又は8記載の加工状況監視装置。
A selection camera correction unit that corrects data stored in the selected camera storage unit;
The camera selection means is configured to select one camera for each preset elapsed time,
The selected camera correcting means calculates the number of times of camera switching in a predetermined time based on the data stored in the selected camera storage means, and whether or not the calculated number of times of camera switching is greater than a preset allowable switching number. If it is determined that there is a large number, the data stored in the selected camera storage means is corrected, and the selected camera at the predetermined time is set to the same camera. Item 7. The processing status monitoring device according to Item 7 or 8.
前記位置関係認識手段は、少なくとも、前記カメラパラメータ記憶手段に格納されたカメラパラメータと、前記経過時間算出部によって算出される経過時間と、前記位置情報生成部によって生成された前記工具の位置情報と、前記モデルデータ更新部によって更新されたモデルデータとを基に、前記位置関係及び前記工具の移動方向を前記予め設定された経過時間毎に認識するように構成され、
前記カメラ選択手段は、前記位置関係認識手段によって認識された位置関係及び工具の移動方向を基に、前記複数のカメラの内、少なくとも前記ワークによって前記工具の先端が隠れない2次元画像データを生成可能なカメラであり且つ前記工具の移動方向に応じたカメラを選択するように構成されてなることを特徴とする請求項8記載の加工状況監視装置。
The positional relationship recognition means includes at least camera parameters stored in the camera parameter storage means, elapsed time calculated by the elapsed time calculation section, and position information of the tool generated by the position information generation section. , Based on the model data updated by the model data update unit, configured to recognize the positional relationship and the movement direction of the tool for each preset elapsed time,
The camera selection unit generates two-dimensional image data in which the tip of the tool is not hidden by at least the workpiece among the plurality of cameras based on the positional relationship recognized by the positional relationship recognition unit and the moving direction of the tool. 9. The processing status monitoring apparatus according to claim 8, wherein the processing status monitoring apparatus is configured to select a camera that is a possible camera and that corresponds to a moving direction of the tool.
JP2010018240A 2010-01-29 2010-01-29 Processing status monitoring device Expired - Fee Related JP5530204B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010018240A JP5530204B2 (en) 2010-01-29 2010-01-29 Processing status monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010018240A JP5530204B2 (en) 2010-01-29 2010-01-29 Processing status monitoring device

Publications (2)

Publication Number Publication Date
JP2011158981A true JP2011158981A (en) 2011-08-18
JP5530204B2 JP5530204B2 (en) 2014-06-25

Family

ID=44590904

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010018240A Expired - Fee Related JP5530204B2 (en) 2010-01-29 2010-01-29 Processing status monitoring device

Country Status (1)

Country Link
JP (1) JP5530204B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019132071A1 (en) * 2017-12-29 2019-07-04 (주) 유노믹 Dashboard for production facility control
EP3681150A4 (en) * 2017-09-04 2021-01-13 Kajita, Hiroki Multiple-viewpoint video image viewing system and camera system
US10905508B2 (en) 2015-08-25 2021-02-02 Kawasaki Jukogyo Kabushiki Kaisha Remote control robot system
WO2022163590A1 (en) * 2021-01-28 2022-08-04 ファナック株式会社 Teaching device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06250730A (en) * 1993-03-01 1994-09-09 Nissan Motor Co Ltd Teaching device for industrial robot
JP2002268721A (en) * 2001-03-14 2002-09-20 Olympus Optical Co Ltd Maintenance diagnostic method and its system
JP2003022108A (en) * 2001-07-10 2003-01-24 Yamazaki Mazak Corp Abnormality management device of machine tool

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06250730A (en) * 1993-03-01 1994-09-09 Nissan Motor Co Ltd Teaching device for industrial robot
JP2002268721A (en) * 2001-03-14 2002-09-20 Olympus Optical Co Ltd Maintenance diagnostic method and its system
JP2003022108A (en) * 2001-07-10 2003-01-24 Yamazaki Mazak Corp Abnormality management device of machine tool

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10905508B2 (en) 2015-08-25 2021-02-02 Kawasaki Jukogyo Kabushiki Kaisha Remote control robot system
EP3681150A4 (en) * 2017-09-04 2021-01-13 Kajita, Hiroki Multiple-viewpoint video image viewing system and camera system
WO2019132071A1 (en) * 2017-12-29 2019-07-04 (주) 유노믹 Dashboard for production facility control
WO2022163590A1 (en) * 2021-01-28 2022-08-04 ファナック株式会社 Teaching device

Also Published As

Publication number Publication date
JP5530204B2 (en) 2014-06-25

Similar Documents

Publication Publication Date Title
JP5404450B2 (en) Processing status monitoring device
JP5337636B2 (en) Machining status monitoring method and machining status monitoring device
JP5465957B2 (en) Machining state confirmation method and machining state confirmation apparatus
JP5384178B2 (en) Machining simulation method and machining simulation apparatus
US10543599B2 (en) Robot system equipped with video display apparatus that displays image of virtual object in superimposed fashion on real image of robot
CN104249195B (en) Deburring device including visual sensor and force sensor
US8565515B2 (en) Three-dimensional recognition result displaying method and three-dimensional visual sensor
EP2082850B1 (en) Generating device of processing robot program
US20130076287A1 (en) Numerical controller having display function for trajectory of tool
CN104802186A (en) Robot programming apparatus for creating robot program for capturing image of workpiece
JP2020075354A (en) External input device, robot system, control method for robot system, control program, and recording medium
JP5945132B2 (en) Lathe with machining status display device
JP5530204B2 (en) Processing status monitoring device
JP2006190228A (en) Operation program creating method
JP6287293B2 (en) Display system, display device, and display method
JP2012071394A (en) Simulation system and simulation program therefor
WO2015170639A1 (en) Laser processing machine, composite processing system, composite processing machine, and processing origin correction method
WO2018173656A1 (en) Method for acquiring welding path information, and welding robot system
JP6709210B2 (en) Machine Tools
JP2020086759A (en) Three-dimensional model creation system, processing simulation system, and tool path automatic production system
JP2010149225A (en) Robot system, device and method for controlling robot system
JP6220514B2 (en) Robot control system and robot control method
WO2020065854A1 (en) Workpiece position detecting method and machine tool
JP2009116505A (en) Interference detector of machine tool
WO2024009484A1 (en) Control device and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140418

R150 Certificate of patent or registration of utility model

Ref document number: 5530204

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees