JP7415097B1 - Control device, laser processing system, and laser processing method - Google Patents

Control device, laser processing system, and laser processing method Download PDF

Info

Publication number
JP7415097B1
JP7415097B1 JP2023562788A JP2023562788A JP7415097B1 JP 7415097 B1 JP7415097 B1 JP 7415097B1 JP 2023562788 A JP2023562788 A JP 2023562788A JP 2023562788 A JP2023562788 A JP 2023562788A JP 7415097 B1 JP7415097 B1 JP 7415097B1
Authority
JP
Japan
Prior art keywords
processing
model
state
processing machine
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023562788A
Other languages
Japanese (ja)
Inventor
恭平 石川
健太 藤井
正記 瀬口
輝章 福岡
啓介 古田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP7415097B1 publication Critical patent/JP7415097B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Laser Beam Processing (AREA)

Abstract

制御装置(3)は、加工機による加工の状態を示す特徴量と加工機による加工の状態との関係を学習した結果である学習済モデルを複数保持する学習済モデル保持部(26)と、複数の学習済モデルの各々へ特徴量を入力することにより、または、複数の学習済モデルの組合せへ特徴量を入力することにより、加工機による加工の状態を評価する加工状態評価部(23)と、加工機によって加工されたワークの観察により加工の状態を評価した結果と加工状態評価部(23)による評価結果とに基づいて、加工機による加工の状態の監視に用いる監視モデルである、学習済モデルまたは複数の学習済モデルの組合せを決定する監視モデル決定部(24)と、監視モデルを用いて加工機による加工の状態を監視した結果に基づいて加工機を制御する加工制御部(28)と、を備える。The control device (3) includes a learned model holding unit (26) that holds a plurality of learned models that are the results of learning the relationship between the feature amount indicating the state of processing by the processing machine and the state of processing by the processing machine; A machining state evaluation unit (23) that evaluates the state of machining by the processing machine by inputting feature quantities to each of the plurality of trained models or by inputting feature quantities to a combination of the plurality of learned models. and a monitoring model used to monitor the machining state by the processing machine based on the results of evaluating the machining state by observing the workpiece machined by the processing machine and the evaluation results by the machining state evaluation unit (23). A monitoring model determination unit (24) that determines a trained model or a combination of a plurality of trained models; and a processing control unit (24) that controls the processing machine based on the result of monitoring the state of processing by the processing machine using the monitoring model. 28) and.

Description

本開示は、レーザ加工機を制御する制御装置、レーザ加工システム、およびレーザ加工方法に関する。 The present disclosure relates to a control device that controls a laser processing machine, a laser processing system, and a laser processing method.

レーザ加工機を制御する制御装置は、あらかじめ設定された加工条件を読み出して、読み出された加工条件に従ってレーザ加工機を制御する。制御装置には、ワークの材料、ワークの厚さ、または加工ガスの種別などに対応付けられた複数の加工条件があらかじめ設定されており、複数の加工条件から加工に適した加工条件が選択される。 A control device that controls a laser beam machine reads out machining conditions set in advance, and controls the laser beam machine in accordance with the read machining conditions. The control device is preset with multiple machining conditions that are associated with the workpiece material, workpiece thickness, type of machining gas, etc., and the machining conditions suitable for the machining are selected from the multiple machining conditions. Ru.

レーザ加工機による良好な加工を可能とする加工条件は、ワークの製造元によるワークの個体差、またはワークのロットによるワークの個体差などに起因して、あらかじめ設定された加工条件から変化することがある。そこで、制御装置は、レーザ加工機による加工の状態を監視し、監視の結果に基づいて、加工に使用される加工パラメータを調整することがある。レーザ加工機は、加工パラメータを適切に調整することによって、良好な加工を行い得る。 The processing conditions that enable good processing with a laser processing machine may vary from the preset processing conditions due to individual differences in workpieces depending on the workpiece manufacturer or workpiece lots. be. Therefore, the control device may monitor the state of machining by the laser beam machine, and adjust machining parameters used for machining based on the monitoring results. A laser processing machine can perform good processing by appropriately adjusting processing parameters.

特許文献1には、ワークの加工点付近から放射する光を検出し、検出される光強度分布を基にワークの加工状態の良否を評価する数値制御装置が開示されている。特許文献1に開示されている数値制御装置は、検出される光強度分布と加工状態の良否との関係を学習することによって学習済モデルを生成し、学習済モデルを用いてワークの加工状態の良否を評価する。 Patent Document 1 discloses a numerical control device that detects light emitted from the vicinity of a processing point of a workpiece and evaluates the quality of the processing state of the workpiece based on the detected light intensity distribution. The numerical control device disclosed in Patent Document 1 generates a learned model by learning the relationship between the detected light intensity distribution and the quality of the machining state, and uses the learned model to determine the machining state of the workpiece. Evaluate the quality.

特開2022-118774号公報Japanese Patent Application Publication No. 2022-118774

加工状態が良好であるときにおけるワークの加工点付近から放射する光の状態は、レーザ加工機の状態、または、ワークの含有成分のばらつきなどによって、変化することがある。このように光の状態が変化することがある一方、特許文献1に開示されている従来の技術の場合、加工状態の良否の評価にはあらかじめ生成された学習済モデルが用いられることから、加工状態の良否を正確に評価できないことがある。特許文献1に開示されている従来の技術によると、加工状態の良否を正確に評価できないことがあるため、レーザ加工機による良好な加工を継続できない場合があるという問題があった。 The state of light emitted from the vicinity of the processing point of the workpiece when the processing state is good may change depending on the state of the laser processing machine or variations in the components contained in the workpiece. While the state of light may change in this way, in the case of the conventional technology disclosed in Patent Document 1, a learned model generated in advance is used to evaluate the quality of the machining state. It may not be possible to accurately assess the quality of the condition. According to the conventional technique disclosed in Patent Document 1, there is a problem in that it may not be possible to accurately evaluate the quality of the machining state, and therefore it may not be possible to continue good machining using a laser beam machine.

本開示は、上記に鑑みてなされたものであって、レーザ加工機による良好な加工を継続させることができる制御装置を得ることを目的とする。 The present disclosure has been made in view of the above, and an object of the present disclosure is to obtain a control device that can continue good processing by a laser processing machine.

上述した課題を解決し、目的を達成するために、本開示にかかる制御装置は、加工機による加工の状態を示す特徴量と加工機による加工の状態との関係を学習した結果である学習済モデルを複数保持する学習済モデル保持部と、複数の学習済モデルの各々へ特徴量を入力することにより、または、複数の学習済モデルの組合せへ特徴量を入力することにより、加工機による加工の状態を評価する加工状態評価部と、加工機によって加工されたワークの観察により加工の状態を評価した結果と加工状態評価部による評価結果とに基づいて、加工機による加工の状態の監視に用いる監視モデルである、学習済モデルまたは複数の学習済モデルの組合せを決定する監視モデル決定部と、監視モデルを用いて加工機による加工の状態を監視した結果に基づいて加工機を制御する加工制御部と、を備える。 In order to solve the above-mentioned problems and achieve the purpose, a control device according to the present disclosure provides a learned control device that is a result of learning the relationship between a feature value indicating the state of processing by a processing machine and the state of processing by the processing machine. A trained model holding unit that holds multiple models, and processing by a processing machine by inputting feature quantities to each of the multiple trained models, or by inputting feature quantities to a combination of multiple trained models. A machining state evaluation unit that evaluates the state of the workpiece, and a machining state evaluation unit that evaluates the machining state by the processing machine based on the results of evaluating the machining state by observing the workpiece machined by the processing machine and the evaluation results by the machining state evaluation unit. A monitoring model determination unit that determines a trained model or a combination of multiple trained models as the monitoring model to be used, and a processing unit that controls the processing machine based on the result of monitoring the processing state of the processing machine using the monitoring model. A control unit.

本開示にかかる制御装置は、レーザ加工機による良好な加工を継続させることができる、という効果を奏する。 The control device according to the present disclosure has the effect of allowing the laser processing machine to continue good processing.

実施の形態1にかかるレーザ加工システムの構成例を示す図A diagram showing a configuration example of a laser processing system according to Embodiment 1. 実施の形態1にかかるレーザ加工システムが有する制御装置の構成例を示す図A diagram showing a configuration example of a control device included in the laser processing system according to Embodiment 1. 実施の形態1における学習済モデルの構成例を示す図A diagram showing a configuration example of a trained model in Embodiment 1 実施の形態1にかかるレーザ加工システムが実行する処理の手順の第1の例を示すフローチャートFlowchart showing a first example of processing procedures executed by the laser processing system according to the first embodiment 実施の形態1にかかるレーザ加工システムが実行する処理の手順の第2の例を示すフローチャートFlowchart showing a second example of processing procedures executed by the laser processing system according to the first embodiment 実施の形態1にかかるレーザ加工システムが実行する処理の手順の第3の例を示すフローチャートFlowchart showing a third example of processing procedures executed by the laser processing system according to the first embodiment 実施の形態2にかかる制御装置が有する監視モデル決定部の構成例を示す図A diagram illustrating an example configuration of a monitoring model determination unit included in a control device according to a second embodiment. 実施の形態3にかかるレーザ加工システムが有する制御装置の構成例を示す図A diagram showing an example of the configuration of a control device included in the laser processing system according to Embodiment 3. 実施の形態3にかかる制御装置が有する監視モデル決定部の構成例を示す図A diagram illustrating a configuration example of a monitoring model determination unit included in a control device according to Embodiment 3. 実施の形態1から3にかかる制御回路の構成例を示す図A diagram showing a configuration example of a control circuit according to Embodiments 1 to 3. 実施の形態1から3にかかる専用のハードウェア回路の構成例を示す図A diagram showing a configuration example of a dedicated hardware circuit according to Embodiments 1 to 3.

以下に、実施の形態にかかる制御装置、レーザ加工システム、およびレーザ加工方法を図面に基づいて詳細に説明する。 Below, a control device, a laser processing system, and a laser processing method according to an embodiment will be described in detail based on the drawings.

実施の形態1.
図1は、実施の形態1にかかるレーザ加工システム1の構成例を示す図である。レーザ加工システム1は、レーザ加工機2と制御装置3とを備える。レーザ加工機2は、レーザ光によりワーク10を加工する加工機である。レーザ加工機2は、レーザ光の照射によりワーク10を局所的に溶融させてワーク10を加工する。レーザ加工機2は、切断、溶接、積層加工、または熱処理といったレーザ加工を行う。図1に示す例では、ワーク10は、金属の板である。また、レーザ加工機2は、ワーク10を切断するレーザ加工を行うものとする。制御装置3は、レーザ加工機2を制御する。
Embodiment 1.
FIG. 1 is a diagram showing a configuration example of a laser processing system 1 according to the first embodiment. The laser processing system 1 includes a laser processing machine 2 and a control device 3. The laser processing machine 2 is a processing machine that processes the workpiece 10 using a laser beam. The laser processing machine 2 processes the work 10 by locally melting the work 10 by irradiating the work with laser light. The laser processing machine 2 performs laser processing such as cutting, welding, lamination processing, or heat treatment. In the example shown in FIG. 1, the workpiece 10 is a metal plate. Further, it is assumed that the laser processing machine 2 performs laser processing to cut the workpiece 10. The control device 3 controls the laser processing machine 2.

レーザ加工機2は、レーザ光を出力する光源であるレーザ発振器4と、加工ヘッド6と、レーザ発振器4から加工ヘッド6へのレーザ光の伝送路であるケーブル5と、ワーク10が載せられるテーブルとを備える。テーブルの図示は省略する。ケーブル5は、例えば光ファイバを備える。ケーブル5の出射端は、加工ヘッド6の内部に入れられている。 The laser processing machine 2 includes a laser oscillator 4 that is a light source that outputs laser light, a processing head 6, a cable 5 that is a transmission path for the laser light from the laser oscillator 4 to the processing head 6, and a table on which a workpiece 10 is placed. Equipped with. Illustration of the table is omitted. The cable 5 includes, for example, an optical fiber. The output end of the cable 5 is placed inside the processing head 6.

図1では、加工ヘッド6の内部の構成を模式的に示している。加工ヘッド6の内部には、コリメート光学系11と、結像光学系12と、保護ガラス13とが設けられている。コリメート光学系11には、ケーブル5の出射端から発散したレーザ光が入射する。コリメート光学系11は、平行光を出射する。結像光学系12は、ケーブル5の出射端の像を形成する。保護ガラス13は、ガラスの平板である。保護ガラス13は、加工ヘッド6の内部の構成を保護するための光学部品である。なお、図1では、単レンズであるコリメート光学系11と単レンズである結像光学系12とを示している。コリメート光学系11と結像光学系12との少なくとも一方は、複数のレンズで構成されても良い。 FIG. 1 schematically shows the internal configuration of the processing head 6. As shown in FIG. Inside the processing head 6, a collimating optical system 11, an imaging optical system 12, and a protective glass 13 are provided. Laser light diverging from the output end of the cable 5 enters the collimating optical system 11 . The collimating optical system 11 emits parallel light. The imaging optical system 12 forms an image of the output end of the cable 5. The protective glass 13 is a flat glass plate. The protective glass 13 is an optical component for protecting the internal structure of the processing head 6. Note that FIG. 1 shows a collimating optical system 11 that is a single lens and an imaging optical system 12 that is a single lens. At least one of the collimating optical system 11 and the imaging optical system 12 may be composed of a plurality of lenses.

加工ヘッド6は、ワーク10に照射させるレーザ光とワーク10へ噴射される加工ガスとが通る加工ノズル7を有する。コリメート光学系11、結像光学系12、および保護ガラス13を通過したレーザ光は、加工ノズル7を通過する。加工ガスは、加工ヘッド6の外部にガス供給源から加工ヘッド6の内部へ供給される。レーザ加工機2は、加工ヘッド6から加工ノズル7を経てワーク10へ加工ガスを噴射する。ガス供給源の図示は省略する。 The processing head 6 has a processing nozzle 7 through which laser light to be irradiated onto the workpiece 10 and processing gas to be injected to the workpiece 10 pass. The laser beam that has passed through the collimating optical system 11, the imaging optical system 12, and the protective glass 13 passes through the processing nozzle 7. Processing gas is supplied into the processing head 6 from a gas supply source outside the processing head 6 . The laser processing machine 2 injects processing gas from a processing head 6 to a workpiece 10 via a processing nozzle 7. Illustration of the gas supply source is omitted.

レーザ加工機2は、加工ヘッド6を駆動する加工ヘッド駆動部14を備える。レーザ加工機2は、加工ヘッド駆動部14により、テーブルに対して加工ヘッド6を移動させることによって、レーザ光とワーク10とを相対移動させる。レーザ加工機2は、ワーク10におけるレーザ光の入射位置を制御することによって、レーザ光とワーク10とを相対移動させる。なお、レーザ加工機2は、加工ヘッド6を移動させず、加工ヘッド6に対してテーブルを移動させることによって、レーザ光とワーク10とを相対移動させるものでも良い。 The laser processing machine 2 includes a processing head drive section 14 that drives the processing head 6. In the laser processing machine 2, the processing head drive unit 14 moves the processing head 6 with respect to the table, thereby moving the laser beam and the workpiece 10 relative to each other. The laser processing machine 2 relatively moves the laser beam and the workpiece 10 by controlling the incident position of the laser beam on the workpiece 10. Note that the laser processing machine 2 may be one in which the laser beam and the workpiece 10 are moved relative to each other by moving the table relative to the processing head 6 without moving the processing head 6.

加工ヘッド6の内部には、コリメート光学系11を移動させる移動機構15と、結像光学系12を移動させる移動機構16とが設けられている。移動機構16は、結像光学系12を光軸方向に移動させることによって、結像位置を変化させる。レーザ加工機2は、結像位置を変化させることによって、加工ノズル7とワーク10との位置関係を変化させずに、結像位置とワーク10との位置関係を変更させる。移動機構15は、結像光学系12の移動に伴って、コリメート光学系11を光軸方向に移動させることによって、コリメート光学系11の位置を調整する。または、移動機構15は、コリメート光学系11を光軸方向に移動させることによって、結像光学系12に入射するレーザ光の発散角を調整しても良い。なお、上記説明における光軸方向とは、コリメート光学系11および結像光学系12の各々の光軸の方向とする。コリメート光学系11の光軸と結像光学系12の光軸とは、互いに一致する。これらの光軸は、ワーク10へ入射するレーザ光の中心軸に一致する。 Inside the processing head 6, a moving mechanism 15 for moving the collimating optical system 11 and a moving mechanism 16 for moving the imaging optical system 12 are provided. The moving mechanism 16 changes the imaging position by moving the imaging optical system 12 in the optical axis direction. By changing the imaging position, the laser processing machine 2 changes the positional relationship between the imaging position and the workpiece 10 without changing the positional relationship between the processing nozzle 7 and the workpiece 10. The moving mechanism 15 adjusts the position of the collimating optical system 11 by moving the collimating optical system 11 in the optical axis direction as the imaging optical system 12 moves. Alternatively, the moving mechanism 15 may adjust the divergence angle of the laser light incident on the imaging optical system 12 by moving the collimating optical system 11 in the optical axis direction. Note that the optical axis direction in the above description is the direction of each optical axis of the collimating optical system 11 and the imaging optical system 12. The optical axis of the collimating optical system 11 and the optical axis of the imaging optical system 12 coincide with each other. These optical axes coincide with the central axis of the laser beam incident on the workpiece 10.

加工ヘッド6の内部には、コリメート光学系11および結像光学系12以外の光学系が設けられても良い。加工ヘッド6の内部には、光軸方向に移動することによって結像の大きさを変化させるズーム光学系が設けられても良い。レーザ加工機2は、加工ヘッド6の内部に備えられる複数の光学系のうちの少なくとも1つを光軸方向へ移動させる。結像位置は、ビームウェスト上の位置でも、ビームウェストからずれた位置でも良い。加工ヘッド6の内部には、結像光学系12の代わりに集光光学系が設けられても良い。なお、以下の説明では、加工ヘッド6の内部に設けられる光学系をまとめて、加工光学系と称することがある。 Optical systems other than the collimating optical system 11 and the imaging optical system 12 may be provided inside the processing head 6. A zoom optical system that changes the size of an image by moving in the optical axis direction may be provided inside the processing head 6. The laser processing machine 2 moves at least one of a plurality of optical systems provided inside the processing head 6 in the optical axis direction. The imaging position may be a position on the beam waist or a position shifted from the beam waist. A condensing optical system may be provided inside the processing head 6 instead of the imaging optical system 12. In the following description, the optical systems provided inside the processing head 6 may be collectively referred to as a processing optical system.

レーザ発振器4の一例は、ファイバレーザ発振器である。レーザ発振器4は、ダイレクトダイオードレーザ、炭酸ガスレーザ、銅蒸気レーザ、または各種イオンレーザでも良い。あるいは、レーザ発振器4は、励起媒体であるYAG(Yttrium Aluminum Garnet)結晶等を有する固体レーザでも良い。レーザ加工機2は、レーザ発振器4から出力されたレーザ光の波長変換を実施する波長変換部を備えても良い。 An example of the laser oscillator 4 is a fiber laser oscillator. The laser oscillator 4 may be a direct diode laser, a carbon dioxide laser, a copper vapor laser, or various ion lasers. Alternatively, the laser oscillator 4 may be a solid laser having a YAG (Yttrium Aluminum Garnet) crystal or the like as an excitation medium. The laser processing machine 2 may include a wavelength conversion section that converts the wavelength of the laser beam output from the laser oscillator 4.

制御装置3は、レーザ発振器4と、加工ヘッド駆動部14と、移動機構15と、移動機構16との各々へ制御信号を出力することによって、レーザ発振器4と、加工ヘッド駆動部14と、移動機構15と、移動機構16との各々を制御する。 The control device 3 outputs control signals to each of the laser oscillator 4, the processing head drive unit 14, the movement mechanism 15, and the movement mechanism 16, thereby controlling the movement of the laser oscillator 4, the processing head drive unit 14, and the movement mechanism 16. Each of the mechanism 15 and the moving mechanism 16 is controlled.

レーザ加工システム1は、音センサ8と光センサ9とを有する。音センサ8と光センサ9との各々は、レーザ加工機2による加工の状態を検出するセンサである。音センサ8は、加工点付近から発生する音を検出し、検出された音の大きさを示す信号を制御装置3へ出力する。光センサ9は、加工点付近から放射する光を検出し、検出された光の強度を示す信号を制御装置3へ出力する。加工点とは、ワーク10のうち加工が行われている位置であって、レーザ光が入射する位置とする。 The laser processing system 1 includes a sound sensor 8 and an optical sensor 9. Each of the sound sensor 8 and the optical sensor 9 is a sensor that detects the state of processing by the laser processing machine 2. The sound sensor 8 detects the sound generated near the processing point and outputs a signal indicating the magnitude of the detected sound to the control device 3. The optical sensor 9 detects light emitted from the vicinity of the processing point and outputs a signal indicating the intensity of the detected light to the control device 3. The processing point is a position on the workpiece 10 where processing is being performed, and is a position where the laser beam is incident.

以下の説明では、音センサ8と光センサ9との各々によって得られるデータを、センサデータと称する。音センサ8によって得られるセンサデータは、加工時に発生する音の大きさを示すデータである。光センサ9によって得られるセンサデータは、加工時に放射される光の強度を示すデータである。音センサ8によって得られるセンサデータと光センサ9によって得られるセンサデータとの各々は、レーザ加工機2による加工の状態を示すデータである。 In the following description, data obtained by each of the sound sensor 8 and the optical sensor 9 will be referred to as sensor data. The sensor data obtained by the sound sensor 8 is data indicating the volume of sound generated during processing. The sensor data obtained by the optical sensor 9 is data indicating the intensity of light emitted during processing. Each of the sensor data obtained by the sound sensor 8 and the sensor data obtained by the optical sensor 9 is data indicating the state of processing by the laser processing machine 2.

なお、レーザ加工システム1は、音センサ8および光センサ9以外のセンサを有しても良い。レーザ加工システム1は、例えば、加工点付近から発生する振動を検出する振動センサ、または、加工点付近を撮影するカメラを有しても良い。振動センサによって得られるセンサデータは、加工時に発生する振動の大きさを示すデータである。制御装置3は、カメラによって撮影された画像を処理することによって、加工が行われた部分の寸法を示すデータ、または、ワーク10の溶融状態を示すデータなどを取得する。カメラによって得られるセンサデータは、加工点付近を撮影した画像の処理によって得られるデータである。レーザ加工システム1は、音センサ8、光センサ9、振動センサ、およびカメラのうちの少なくとも1つを有する。レーザ加工システム1は、音センサ8、光センサ9、振動センサ、およびカメラのうちの2つ以上を有しても良い。レーザ加工システム1が有するセンサは、レーザ加工機2による加工の状態を検出可能なセンサであれば良く、実施の形態1にて説明するセンサに限られない。 Note that the laser processing system 1 may include sensors other than the sound sensor 8 and the optical sensor 9. The laser processing system 1 may include, for example, a vibration sensor that detects vibrations generated near the processing point, or a camera that photographs the vicinity of the processing point. Sensor data obtained by the vibration sensor is data indicating the magnitude of vibrations generated during processing. The control device 3 acquires data indicating the dimensions of the processed portion, data indicating the molten state of the work 10, etc. by processing the image taken by the camera. The sensor data obtained by the camera is data obtained by processing an image photographed near the processing point. Laser processing system 1 includes at least one of a sound sensor 8, a light sensor 9, a vibration sensor, and a camera. The laser processing system 1 may include two or more of a sound sensor 8, a light sensor 9, a vibration sensor, and a camera. The sensor included in the laser processing system 1 may be any sensor that can detect the state of processing by the laser processing machine 2, and is not limited to the sensor described in the first embodiment.

図1に示す例では、光センサ9は、加工ヘッド6の外部に配置されている。光センサ9は、加工ヘッド6の内部に配置されても良い。光センサ9は応答時間が短いことから、レーザ加工システム1は、光センサ9が設けられることによって、加工の状態を高速に検出することができる。音センサ8は、広範囲において音を検出可能であることから、設置位置を容易に決定できるという利点がある。 In the example shown in FIG. 1, the optical sensor 9 is arranged outside the processing head 6. The optical sensor 9 may be placed inside the processing head 6. Since the optical sensor 9 has a short response time, the laser processing system 1 can detect the processing state at high speed by providing the optical sensor 9. Since the sound sensor 8 can detect sound over a wide range, it has the advantage that the installation position can be easily determined.

次に、制御装置3の構成について説明する。図2は、実施の形態1にかかるレーザ加工システム1が有する制御装置3の構成例を示す図である。制御装置3は、レーザ加工機2による加工の状態を監視する加工監視部20と、レーザ加工機2を制御する加工制御部28とを備える。 Next, the configuration of the control device 3 will be explained. FIG. 2 is a diagram showing a configuration example of the control device 3 included in the laser processing system 1 according to the first embodiment. The control device 3 includes a processing monitoring unit 20 that monitors the state of processing by the laser processing machine 2 and a processing control unit 28 that controls the laser processing machine 2.

レーザ加工機2は、連続加工を行う場合に、加工ヘッド6を構成する部品の蓄熱、またはワーク10の蓄熱などによる加工不良を生じ得る。加工監視部20は、レーザ加工機2の加工状態を評価することによって、加工不良を監視する。 When the laser processing machine 2 performs continuous processing, processing defects may occur due to heat accumulation in the parts constituting the processing head 6 or heat accumulation in the workpiece 10. The processing monitoring unit 20 monitors processing defects by evaluating the processing state of the laser beam machine 2.

図1に示すレーザ加工システム1では、制御装置3はレーザ加工機2の外部の装置である。レーザ加工機2と制御装置3とは、互いに通信可能に接続され、レーザ加工機2と制御装置3との間で情報の送受信を行う。制御装置3は、レーザ加工機2に包含される装置であっても良い。または、制御装置3のうち加工制御部28がレーザ加工機2に包含される装置により実現され、制御装置3のうち加工監視部20がレーザ加工機2の外部の装置により実現されても良い。レーザ加工機2の外部の装置により加工監視部20が実現される場合、加工監視部20を実現する装置と加工制御部28を実現する装置とは、互いに通信可能に接続される。 In the laser processing system 1 shown in FIG. 1, the control device 3 is a device external to the laser processing machine 2. The laser processing machine 2 and the control device 3 are communicably connected to each other, and information is transmitted and received between the laser processing machine 2 and the control device 3. The control device 3 may be a device included in the laser processing machine 2. Alternatively, the processing control section 28 of the control device 3 may be realized by a device included in the laser beam machine 2, and the processing monitoring section 20 of the control device 3 may be realized by a device external to the laser beam machine 2. When the processing monitoring section 20 is implemented by a device external to the laser processing machine 2, the device implementing the processing monitoring section 20 and the device implementing the processing control section 28 are connected to each other so as to be able to communicate with each other.

加工監視部20は、データ取得部21と、特徴量算出部22と、加工状態評価部23と、監視モデル決定部24と、加工パラメータ補正部25と、学習済モデル保持部26と、監視モデル保持部27とを備える。 The machining monitoring unit 20 includes a data acquisition unit 21, a feature value calculation unit 22, a machining state evaluation unit 23, a monitoring model determination unit 24, a machining parameter correction unit 25, a learned model holding unit 26, and a monitoring model A holding section 27 is provided.

データ取得部21は、音センサ8および光センサ9の各々から出力されるセンサデータを取得する。すなわち、データ取得部21は、レーザ加工機2による加工の際に発生する光の検出結果であるセンサデータとレーザ加工機2による加工の際に発生する音の検出結果であるセンサデータとを取得する。音センサ8および光センサ9の各々から継続してセンサデータが入力されることによって、データ取得部21は、時系列データであるセンサデータを取得する。データ取得部21は、取得されたセンサデータを特徴量算出部22へ出力する。 The data acquisition unit 21 acquires sensor data output from each of the sound sensor 8 and the optical sensor 9. That is, the data acquisition unit 21 acquires sensor data that is a detection result of light generated during processing by the laser processing machine 2 and sensor data that is a detection result of sound generated during processing by the laser processing machine 2. do. By continuously inputting sensor data from each of the sound sensor 8 and the optical sensor 9, the data acquisition unit 21 acquires sensor data that is time-series data. The data acquisition unit 21 outputs the acquired sensor data to the feature amount calculation unit 22.

特徴量算出部22は、データ取得部21によって取得されたセンサデータから特徴量を算出する。実施の形態1において、特徴量は、レーザ加工機2による加工の状態を示す。特徴量算出部22は、算出された特徴量を加工状態評価部23へ出力する。 The feature amount calculation unit 22 calculates a feature amount from the sensor data acquired by the data acquisition unit 21. In the first embodiment, the feature amount indicates the state of processing by the laser processing machine 2. The feature amount calculation unit 22 outputs the calculated feature amount to the machining state evaluation unit 23.

特徴量は、センサデータの処理によって得られる値であって、例えば、平均値または標準偏差などの統計量である。特徴量は、周波数解析、フィルタバンク、またはウェーブレット変換といった処理によって得られる値であっても良い。特徴量算出部22は、複数の値の組合せを特徴量として算出しても良い。 The feature quantity is a value obtained by processing sensor data, and is, for example, a statistical quantity such as an average value or a standard deviation. The feature amount may be a value obtained by processing such as frequency analysis, filter bank, or wavelet transform. The feature quantity calculation unit 22 may calculate a combination of a plurality of values as a feature quantity.

なお、特徴量算出部22によって算出される特徴量は、ここで例示するものに限られない。特徴量は、時系列データの一般的な解析手法である任意の手法によって算出可能な特徴量であれば良いものとする。また、特徴量算出部22は、センサデータの値をそのまま特徴量として出力しても良い。特徴量算出部22は、加工開始時における特徴量を示す特徴ベクトルの、特徴空間における位置を記憶し、加工開始後における特徴ベクトルの位置の変化量を特徴量として出力しても良い。データ取得部21が複数のセンサのセンサデータを取得する場合、特徴量算出部22は、センサごとの出力が反映された特徴量を算出しても良く、複数のセンサの出力の組合せが反映された特徴量を算出しても良い。 Note that the feature amounts calculated by the feature amount calculation unit 22 are not limited to those exemplified here. The feature amount may be any feature amount that can be calculated by any method that is a general analysis method for time-series data. Further, the feature amount calculation unit 22 may output the value of the sensor data as it is as the feature amount. The feature amount calculation unit 22 may store the position in the feature space of a feature vector indicating the feature amount at the time of starting machining, and may output the amount of change in the position of the feature vector after the start of machining as the feature amount. When the data acquisition unit 21 acquires sensor data of a plurality of sensors, the feature quantity calculation unit 22 may calculate a feature quantity that reflects the output of each sensor, or a feature quantity that reflects a combination of the outputs of the plurality of sensors. Alternatively, the feature amount may be calculated.

学習済モデル保持部26は、複数の学習済モデルを保持する。複数の学習済モデルの各々は、レーザ加工機2による加工の状態を示す特徴量とレーザ加工機2による加工の状態との関係を学習した結果である。学習済モデル保持部26に保持される複数の学習済モデルの各々は、板状のワーク10の厚さとレーザ加工機2による加工の際における加工ガスの種類との少なくとも一方が互いに異なる複数のケースの各々における特徴量と加工の状態との関係を学習した結果である。これにより、制御装置3は、ワーク10の厚さまたは加工ガスの種類が互いに異なる複数のケースについての学習済モデルを学習済モデル保持部26に保持する。 The trained model holding unit 26 holds a plurality of trained models. Each of the plurality of learned models is a result of learning the relationship between the feature amount indicating the state of machining by the laser beam machine 2 and the state of machining by the laser beam machine 2 . Each of the plurality of trained models held in the trained model holding unit 26 is a plurality of cases in which at least one of the thickness of the plate-shaped workpiece 10 and the type of processing gas during processing by the laser processing machine 2 are different from each other. This is the result of learning the relationship between the feature amount and the machining state for each. Thereby, the control device 3 holds learned models for a plurality of cases in which the thickness of the workpiece 10 or the type of processing gas differs from each other in the learned model holding unit 26.

加工状態評価部23は、学習済モデル保持部26から複数の学習済モデルを読み出す。加工状態評価部23は、特徴量算出部22によって算出された特徴量を複数の学習済モデルの各々へ入力することによって、レーザ加工機2による加工の状態を評価する。加工状態評価部23は、加工の状態の良否を判定することによって、加工の状態を評価する。すなわち、加工状態評価部23は、レーザ加工機2による加工の状態が良好と不良とのいずれに該当するかを判定する。加工状態評価部23は、加工の状態の評価結果を監視モデル決定部24へ出力する。 The machining state evaluation section 23 reads out a plurality of learned models from the learned model holding section 26. The machining state evaluation unit 23 evaluates the machining state of the laser beam machine 2 by inputting the feature quantities calculated by the feature quantity calculation unit 22 to each of the plurality of learned models. The machining state evaluation unit 23 evaluates the machining state by determining whether the machining state is good or bad. That is, the machining state evaluation unit 23 determines whether the machining state by the laser beam machine 2 is good or bad. The machining state evaluation section 23 outputs the evaluation result of the machining state to the monitoring model determination section 24 .

監視モデル決定部24には、加工状態評価部23による評価結果が入力される。また、加工状態評価部23による評価結果とは別に、レーザ加工機2によって加工されたワーク10の観察による評価結果が監視モデル決定部24へ入力される。監視モデル決定部24は、レーザ加工機2によって加工されたワーク10の観察により加工の状態を評価した結果と、加工状態評価部23による評価結果とに基づいて、監視モデルである学習済モデルを決定する。ここで説明する例では、レーザ加工機2によって加工されたワーク10をユーザが観察することによって、加工の状態をユーザが評価する。監視モデル決定部24は、学習済モデル保持部26にて保持されている複数の学習済モデルのうち、加工状態評価部23により出力された評価結果が、ユーザによる評価結果に一致する学習済モデルを、監視モデルに決定する。 The evaluation results by the machining state evaluation section 23 are input to the monitoring model determination section 24 . In addition to the evaluation results by the machining state evaluation section 23 , evaluation results obtained by observing the workpiece 10 processed by the laser processing machine 2 are input to the monitoring model determination section 24 . The monitoring model determination unit 24 determines a learned model, which is a monitoring model, based on the results of evaluating the machining state by observing the workpiece 10 processed by the laser processing machine 2 and the evaluation results by the machining state evaluation unit 23. decide. In the example described here, the user observes the workpiece 10 processed by the laser processing machine 2 to evaluate the processing state. The monitoring model determination unit 24 selects a trained model whose evaluation result outputted by the machining state evaluation unit 23 matches the evaluation result by the user, from among the plurality of trained models held in the learned model storage unit 26. is determined as the monitoring model.

監視モデルに決定される学習済モデルは、ユーザによって選択されても良く、監視モデル決定部24によって選択されても良い。監視モデルに決定される学習済モデルがユーザによって選択される場合、ユーザは、複数の学習済モデルの各々について、加工状態評価部23にて出力された評価結果を確認し、加工状態評価部23にて出力された評価結果がユーザによる評価結果に一致する1つの学習済モデルを選択する。または、ユーザは、加工状態評価部23にて出力された評価結果がユーザによる評価結果に最も近い1つの学習済モデルを選択する。 The trained model determined as the monitoring model may be selected by the user or may be selected by the monitoring model determination unit 24. When the user selects a trained model determined as a monitoring model, the user checks the evaluation results output by the machining state evaluation unit 23 for each of the plurality of trained models, and One trained model whose evaluation result outputted in , matches the evaluation result by the user is selected. Alternatively, the user selects one trained model whose evaluation result outputted by the machining state evaluation unit 23 is closest to the evaluation result by the user.

ユーザは、例えば制御装置3に備えられている入力機器を操作することによって、選択した学習済モデルを示す情報を監視モデル決定部24へ入力する。図2では、入力機器の図示を省略する。監視モデル決定部24は、ユーザによって選択された学習済モデルを、監視モデルに決定する。なお、レーザ加工システム1には、加工状態評価部23による評価結果を表示する表示機器が設けられていても良い。ユーザは、表示機器に表示される評価結果を確認することにより、学習済モデルを選択することができる。図2では、表示機器の図示を省略する。 The user inputs information indicating the selected trained model to the monitoring model determining unit 24 by operating an input device provided in the control device 3, for example. In FIG. 2, illustration of input devices is omitted. The monitoring model determining unit 24 determines the learned model selected by the user as the monitoring model. Note that the laser processing system 1 may be provided with a display device that displays the evaluation results by the processing state evaluation section 23. The user can select a trained model by checking the evaluation results displayed on the display device. In FIG. 2, illustration of the display device is omitted.

監視モデルに決定される学習済モデルが監視モデル決定部24によって選択される場合、ユーザは、レーザ加工機2による加工の状態を評価した結果を監視モデル決定部24へ入力する。ユーザは、例えば制御装置3に備えられている入力機器を操作することによって、加工の状態を評価した結果を監視モデル決定部24へ入力する。監視モデル決定部24は、複数の学習済モデルのうち、加工状態評価部23にて出力された評価結果がユーザによる評価結果に一致する1つの学習済モデルを選択する。または、監視モデル決定部24は、複数の学習済モデルのうち、加工状態評価部23にて出力された評価結果がユーザによる評価結果に最も近い1つの学習済モデルを選択する。監視モデル決定部24は、監視モデル決定部24によって選択された学習済モデルを、監視モデルに決定する。 When the trained model determined as the monitoring model is selected by the monitoring model determining unit 24, the user inputs the result of evaluating the state of machining by the laser beam machine 2 to the monitoring model determining unit 24. The user inputs the results of evaluating the machining state to the monitoring model determining unit 24, for example, by operating an input device included in the control device 3. The monitoring model determining unit 24 selects one learned model whose evaluation result outputted by the machining state evaluation unit 23 matches the evaluation result by the user from among the plurality of learned models. Alternatively, the monitoring model determining unit 24 selects one learned model whose evaluation result outputted by the machining state evaluation unit 23 is closest to the evaluation result by the user from among the plurality of learned models. The monitoring model determining unit 24 determines the learned model selected by the monitoring model determining unit 24 as the monitoring model.

監視モデル決定部24は、決定された監視モデルを監視モデル保持部27に保存する。監視モデル保持部27は、監視モデルを保持する。制御装置3は、ユーザによる評価結果と加工状態評価部23にて出力された評価結果との比較により監視モデルを決定することにより、ユーザによる評価と同様の評価を行い得る監視モデルを得ることができる。 The monitoring model determining unit 24 stores the determined monitoring model in the monitoring model holding unit 27. The monitoring model holding unit 27 holds a monitoring model. The control device 3 determines the monitoring model by comparing the evaluation result by the user with the evaluation result output by the machining state evaluation unit 23, thereby obtaining a monitoring model that can perform the same evaluation as the evaluation by the user. can.

加工監視部20は、監視モデル決定部24により決定された監視モデルを用いて、レーザ加工機2による加工の状態を監視する。レーザ加工機2による加工の状態を加工監視部20が監視する際に、データ取得部21は、音センサ8および光センサ9の各々から出力されるセンサデータを取得する。特徴量算出部22は、データ取得部21によって取得されたセンサデータから特徴量を算出する。 The processing monitoring section 20 monitors the state of processing by the laser processing machine 2 using the monitoring model determined by the monitoring model determining section 24. When the processing monitoring unit 20 monitors the state of processing by the laser processing machine 2, the data acquisition unit 21 acquires sensor data output from each of the sound sensor 8 and the optical sensor 9. The feature amount calculation unit 22 calculates a feature amount from the sensor data acquired by the data acquisition unit 21.

レーザ加工機2による加工の状態を加工監視部20が監視する際に、加工状態評価部23は、監視モデル保持部27から監視モデルを読み出す。加工状態評価部23は、特徴量算出部22によって算出された特徴量を監視モデルへ入力することによって、レーザ加工機2による加工の状態を評価する。加工状態評価部23は、加工の状態の評価結果を加工パラメータ補正部25へ出力する。 When the processing monitoring section 20 monitors the state of processing by the laser processing machine 2, the processing state evaluation section 23 reads out the monitoring model from the monitoring model holding section 27. The machining state evaluation section 23 evaluates the machining state of the laser beam machine 2 by inputting the feature amount calculated by the feature amount calculation section 22 into the monitoring model. The machining state evaluation section 23 outputs the evaluation result of the machining state to the machining parameter correction section 25.

加工パラメータ補正部25は、加工状態評価部23による評価結果に基づいて、加工パラメータの補正量を算出する。実施の形態1において、加工パラメータは、レーザ加工機2による加工に使用されるパラメータである。加工パラメータ補正部25は、算出された補正量の情報を加工制御部28へ出力する。 The machining parameter correction section 25 calculates the amount of correction of the machining parameters based on the evaluation result by the machining state evaluation section 23. In the first embodiment, the processing parameters are parameters used for processing by the laser beam machine 2. The machining parameter correction unit 25 outputs information on the calculated correction amount to the machining control unit 28.

加工制御部28は、加工条件に応じて加工パラメータを調整する。加工制御部28は、補正量の情報を取得すると、補正量に基づいて加工パラメータを補正する。加工制御部28は、補正された加工パラメータに従って、レーザ発振器4と、加工ヘッド駆動部14と、移動機構15と、移動機構16との各々を制御する。 The processing control unit 28 adjusts processing parameters according to processing conditions. Upon acquiring the information on the correction amount, the processing control unit 28 corrects the processing parameters based on the correction amount. The processing control unit 28 controls each of the laser oscillator 4, the processing head drive unit 14, the moving mechanism 15, and the moving mechanism 16 according to the corrected processing parameters.

上記説明では、加工状態評価部23は、レーザ加工機2による加工の状態が良好と不良とのいずれに該当するかを判定することとした。この場合、加工状態評価部23は、加工の状態が良好と不良とのいずれに該当するかを示す情報を出力する。良好と不良とのいずれに該当するかは、2値によって表される。加工状態評価部23は、判定結果を示す値を出力する。なお、加工状態評価部23による評価は、加工の状態が良好と不良とのいずれに該当するかを判定することに限られない。加工状態評価部23は、加工の状態が良好であることの度合いを示す評価値を算出することによって、加工の状態を評価しても良い。評価値の一例は、0%から100%までの範囲内の値である。評価値は、例えば、加工の状態が良好であるほど高い値であるものとする。評価値は、0から10までの範囲内の値などであっても良い。加工状態評価部23は、算出された評価値を出力する。 In the above description, the machining condition evaluation unit 23 determines whether the machining condition by the laser beam machine 2 is good or bad. In this case, the machining state evaluation unit 23 outputs information indicating whether the machining state is good or bad. Whether the item is good or bad is expressed by a binary value. The machining state evaluation unit 23 outputs a value indicating the determination result. Note that the evaluation by the machining state evaluation unit 23 is not limited to determining whether the machining state is good or bad. The machining state evaluation unit 23 may evaluate the machining state by calculating an evaluation value indicating the degree to which the machining state is good. An example of the evaluation value is a value within the range from 0% to 100%. For example, the evaluation value is assumed to be higher as the processing condition is better. The evaluation value may be a value within the range of 0 to 10. The processing state evaluation unit 23 outputs the calculated evaluation value.

加工状態評価部23は、加工の状態についての複数の項目を設定し、項目ごとの評価結果を出力しても良い。例えば、加工状態評価部23は、加工の状態が良好と不良とのいずれに該当するかを判定する場合に、項目ごとに良好と不良とのいずれに該当するかを判定する。加工状態評価部23は、項目ごとの判定結果を出力する。 The machining state evaluation unit 23 may set a plurality of items regarding the machining state and output evaluation results for each item. For example, when determining whether the machining state is good or bad, the machining state evaluation unit 23 determines whether the machining state is good or bad for each item. The machining state evaluation unit 23 outputs determination results for each item.

加工の状態についての項目の例は、ドロスの発生、または切断面の荒れなどである。ドロスは、ワーク10を切断する際にワーク10に付着する溶融物である。ドロスは、ワーク10のうち切断面の下端付近に付着する。ドロスが少ないほど、加工の状態は良好といえる。切断面の荒れは、切断面のうちの上部に生じる周期的な凹凸である。切断面に荒れが発生すると、荒れが発生しない場合に比べて、切断面に発生する条痕の深さが深くなる。切断面の荒れが少ないほど、加工の状態は良好といえる。 Examples of items regarding processing conditions include generation of dross or roughness of cut surfaces. Dross is a molten substance that adheres to the workpiece 10 when the workpiece 10 is cut. Dross adheres to the vicinity of the lower end of the cut surface of the workpiece 10. It can be said that the less dross there is, the better the processing condition is. The roughness of the cut surface is periodic unevenness that occurs on the upper part of the cut surface. When roughness occurs on the cut surface, the depth of the striations generated on the cut surface becomes deeper than when no roughness occurs. The less rough the cut surface is, the better the processing condition is.

レーザ加工に使用される加工ガスが酸素である場合、切断面には酸化膜が生じる。レーザ加工に使用される加工ガスが酸素である場合は、切断面に生じる酸化膜の剥離が、加工の状態についての項目に含められても良い。切断面に生じる酸化膜の剥離が少ないほど、加工の状態は良好といえる。 When the processing gas used in laser processing is oxygen, an oxide film is formed on the cut surface. When the processing gas used in laser processing is oxygen, peeling of the oxide film that occurs on the cut surface may be included in the item regarding the processing state. The less peeling of the oxide film that occurs on the cut surface, the better the processing condition.

加工の状態についての項目は、上記の項目に限られない。加工の状態についての項目には、ワーク10の変色、またはワーク10の面における振動の有無などの項目が含められても良い。加工状態評価部23は、実施の形態1にて説明する複数の項目のうち任意の1つ以上の項目についての評価結果を出力することができる。加工状態評価部23は、加工条件等に応じて評価の対象とする項目を変更しても良い。例えば、加工状態評価部23は、レーザ出力、加工速度、およびワーク10の厚さの組合せに応じて、評価の対象とする項目を変更しても良い。ワーク10の厚さとは、ワーク10へ入射するレーザ光の中心軸の方向における厚さとする。 Items regarding processing conditions are not limited to the above items. Items regarding the state of machining may include items such as discoloration of the workpiece 10 or the presence or absence of vibrations on the surface of the workpiece 10. The machining state evaluation unit 23 can output evaluation results for any one or more items among the plurality of items described in the first embodiment. The machining state evaluation unit 23 may change the items to be evaluated depending on the machining conditions and the like. For example, the machining state evaluation unit 23 may change the items to be evaluated depending on the combination of laser output, machining speed, and thickness of the workpiece 10. The thickness of the workpiece 10 is defined as the thickness in the direction of the central axis of the laser beam incident on the workpiece 10.

または、加工状態評価部23は、加工ガスの種類に応じて、評価の対象とする項目を変更しても良い。例えば、加工状態評価部23は、レーザ加工に使用される加工ガスが酸素である場合は、評価の対象とする項目に酸化膜の剥離を含める。一方、レーザ加工に使用される加工ガスが窒素である場合は、切断面に酸化膜が生じないため、加工状態評価部23は、酸化膜の剥離を、評価の対象とする項目から省く。溶接加工を行うレーザ加工機2については、加工の状態についての項目には、スパッタの発生などの項目が含められても良い。積層加工を行うレーザ加工機2については、加工の状態についての項目には、造形物の高さ、または造形物の過剰溶融などの項目が含められても良い。 Alternatively, the machining state evaluation unit 23 may change the items to be evaluated depending on the type of machining gas. For example, when the processing gas used in laser processing is oxygen, the processing state evaluation unit 23 includes peeling of the oxide film as an item to be evaluated. On the other hand, when the processing gas used in laser processing is nitrogen, no oxide film is formed on the cut surface, so the processing state evaluation unit 23 excludes the peeling of the oxide film from the items to be evaluated. Regarding the laser processing machine 2 that performs welding processing, items regarding the processing state may include items such as occurrence of spatter. Regarding the laser processing machine 2 that performs lamination processing, the items regarding the processing state may include items such as the height of the object or excessive melting of the object.

加工状態評価部23は、2つ以上の項目について加工の状態を判定し、項目ごとの判定を総括した結果を、加工状態の判定結果として出力しても良い。加工状態評価部23は、例えば、あらかじめ設定された数以上の項目について加工の状態が不良と判定された場合に、加工の状態が不良であることを示す判定結果を出力しても良い。または、加工状態評価部23は、加工の状態が不良であると判定された場合に、項目ごとの良否を分析することとしても良い。 The machining state evaluation unit 23 may determine the machining state for two or more items, and output the overall result of the determination for each item as the machining state determination result. For example, when the machining state is determined to be poor for more than a preset number of items, the machining state evaluation unit 23 may output a determination result indicating that the machining state is poor. Alternatively, the machining state evaluation unit 23 may analyze the quality of each item when it is determined that the machining state is poor.

上記するように、レーザ加工システム1は、加工状態評価部23による評価結果を表示する表示機器を有しても良い。表示機器は、レーザ加工機2に設けられても良く、レーザ加工機2の外部の装置に設けられても良い。例えば、表示機器は、加工の状態の良否を示す情報を表示する。表示機器は、加工状態評価部23により加工の状態が不良と判定された場合にのみ、加工状態評価部23による評価結果を表示しても良い。この場合、表示機器は、加工の状態が不良であることを示す情報を表示する一方、加工の状態が良好であることを示す情報を表示しない。 As described above, the laser processing system 1 may include a display device that displays the evaluation results by the processing state evaluation section 23. The display device may be provided in the laser processing machine 2 or may be provided in a device external to the laser processing machine 2. For example, the display device displays information indicating whether the processing status is good or bad. The display device may display the evaluation result by the machining state evaluation section 23 only when the machining state evaluation section 23 determines that the machining state is poor. In this case, the display device displays information indicating that the processing condition is poor, but does not display information indicating that the processing condition is good.

上記説明では、加工状態評価部23は、特徴量算出部22によって算出された特徴量を複数の学習済モデルの各々へ入力することによって、レーザ加工機2による加工の状態を評価することとした。加工状態評価部23は、特徴量算出部22によって算出された特徴量以外の情報を複数の学習済モデルの各々へ入力することによって、レーザ加工機2による加工の状態を評価しても良い。複数の学習済モデルの各々へ入力される情報の例は、評価時における加工パラメータの値、評価時における加工光学系の温度、加工光学系の温度変化、ワーク10の厚さ、またはワーク10の材料などの情報である。この場合、複数の学習済モデルの各々は、かかる情報と特徴量と加工の状態との関係を学習した結果である。また、加工状態評価部23は、かかる情報と特徴量とを監視モデルへ入力することによって、レーザ加工機2による加工の状態を評価する。 In the above description, the machining state evaluation unit 23 evaluates the machining state by the laser processing machine 2 by inputting the feature quantities calculated by the feature quantity calculation unit 22 to each of the plurality of learned models. . The machining state evaluation unit 23 may evaluate the machining state by the laser beam machine 2 by inputting information other than the feature amount calculated by the feature amount calculation unit 22 to each of the plurality of learned models. Examples of information input to each of the plurality of trained models include values of processing parameters at the time of evaluation, temperature of the processing optical system at the time of evaluation, temperature change of the processing optical system, thickness of the workpiece 10, or This is information such as materials. In this case, each of the plurality of learned models is the result of learning the relationship between such information, feature amounts, and processing state. Further, the machining state evaluation unit 23 evaluates the machining state by the laser processing machine 2 by inputting such information and feature amounts to the monitoring model.

加工パラメータ補正部25は、加工状態評価部23による評価結果に基づいて、加工パラメータの補正量を算出する。加工パラメータ補正部25は、例えば、レーザ加工機2による加工の状態が不良であることを示す判定結果が加工パラメータ補正部25へ入力された場合に、加工パラメータの補正量を算出する。加工制御部28は、加工パラメータ補正部25によって算出された補正量を用いて加工パラメータを補正する。加工監視部20は、加工の状態が良好であることを示す判定結果が得られるまで、加工パラメータ補正部25による補正量の算出と加工制御部28による加工パラメータの補正とを繰り返す。 The machining parameter correction section 25 calculates the amount of correction of the machining parameters based on the evaluation result by the machining state evaluation section 23. For example, when a determination result indicating that the state of machining by the laser beam machine 2 is poor is input to the machining parameter correction unit 25, the machining parameter correction unit 25 calculates the amount of correction of the machining parameter. The processing control section 28 corrects the processing parameters using the correction amount calculated by the processing parameter correction section 25. The processing monitoring unit 20 repeats calculation of the correction amount by the processing parameter correction unit 25 and correction of the processing parameters by the processing control unit 28 until a determination result indicating that the processing state is good is obtained.

加工パラメータ補正部25は、加工制御部28に設定されている加工パラメータの値と加工状態評価部23による判定結果とに基づいて補正量を算出しても良い。この場合、加工パラメータ補正部25は、加工制御部28に設定されている加工パラメータの値を加工制御部28から取得する。 The machining parameter correction unit 25 may calculate the correction amount based on the value of the machining parameter set in the machining control unit 28 and the determination result by the machining state evaluation unit 23. In this case, the machining parameter correction section 25 acquires the value of the machining parameter set in the machining control section 28 from the machining control section 28 .

加工パラメータ補正部25は、加工状態評価部23による評価結果を基に加工不良の予兆の有無を判断し、加工不良の予兆が確認された場合に補正量を算出しても良い。加工監視部20は、加工不良の予兆が確認されなくなるまで、加工パラメータ補正部25による補正量の算出と、加工制御部28による加工パラメータの補正とを繰り返しても良い。 The machining parameter correction unit 25 may determine whether there is a sign of a machining defect based on the evaluation result by the machining state evaluation unit 23, and calculate a correction amount when a sign of a machining defect is confirmed. The processing monitoring section 20 may repeat the calculation of the correction amount by the processing parameter correction section 25 and the correction of the processing parameters by the processing control section 28 until no sign of processing defects is confirmed.

加工パラメータ補正部25によって算出された補正量により補正される加工パラメータは、例えば、レーザ出力、レーザ光のビーム品質、加工ガスの圧力、加工速度、結像光学系12の焦点距離、結像光学系12により形成される像の径、レーザ発振器4のパルス周波数、レーザ発振器4のパルスのデューティー比、結像光学系12の倍率、ノズル径、ワーク10と加工ノズル7との距離、またはレーザ光のモードの種類などを示すパラメータである。ノズル径は、加工ノズル7におけるレーザ光が通る孔の径である。加工パラメータ補正部25によって算出された補正量により補正される加工パラメータは、加工ノズル7におけるレーザ光が通る孔の中心位置とレーザ光の中心軸との位置関係を示すパラメータでも良い。 The processing parameters corrected by the correction amount calculated by the processing parameter correction unit 25 include, for example, laser output, beam quality of laser light, pressure of processing gas, processing speed, focal length of the imaging optical system 12, and imaging optical system. The diameter of the image formed by the system 12, the pulse frequency of the laser oscillator 4, the duty ratio of the pulses of the laser oscillator 4, the magnification of the imaging optical system 12, the nozzle diameter, the distance between the workpiece 10 and the processing nozzle 7, or the laser beam This is a parameter that indicates the type of mode. The nozzle diameter is the diameter of the hole in the processing nozzle 7 through which the laser beam passes. The processing parameter corrected by the correction amount calculated by the processing parameter correction unit 25 may be a parameter indicating the positional relationship between the center position of the hole in the processing nozzle 7 through which the laser beam passes and the central axis of the laser beam.

加工パラメータ補正部25は、複数の項目の各々についての判定結果が加工パラメータ補正部25へ入力される場合、項目ごとの判定結果の組合せに基づいて、補正の対象とする加工パラメータと、補正の対象とする加工パラメータの補正量とを決定しても良い。 When the determination results for each of a plurality of items are input to the machining parameter correction unit 25, the machining parameter correction unit 25 determines the machining parameters to be corrected and the correction target based on the combination of the determination results for each item. The correction amount of the target machining parameter may also be determined.

ここで、加工の状態が良好であることを示す情報を「1」、および、加工の状態が不良であることを示す情報を「0」とする。また、加工状態評価部23が、ドロスの発生、切断面の荒れ、および、切断面に生じる酸化膜の剥離の各項目についての判定結果を出力するものとする。ドロスの発生については「1」、切断面の荒れについては「0」、および、切断面に生じる酸化膜の剥離については「0」が加工パラメータ補正部25へ入力された場合に、加工パラメータ補正部25は、入力された値の組合せである「1,0,0」に基づいて、補正の対象とする加工パラメータと補正量とを決定する。加工パラメータ補正部25は、かかる組み合わせに基づいて、例えば、レーザ出力、および加工ガスの圧力の各パラメータを、補正の対象とする加工パラメータに決定する。また、加工パラメータ補正部25は、かかる組み合わせに基づいて、レーザ出力、および加工ガスの圧力の各々についての補正量を決定する。例えば、加工パラメータ補正部25は、レーザ出力を増加させるための補正量と、加工ガスの圧力を低下させるための補正量とを算出する。 Here, information indicating that the processing state is good is set to "1", and information indicating that the processing state is poor is set to "0". Further, it is assumed that the machining state evaluation unit 23 outputs the determination results regarding the occurrence of dross, the roughness of the cut surface, and the peeling of the oxide film generated on the cut surface. When “1” is input for the generation of dross, “0” is for the roughness of the cut surface, and “0” is for the peeling of the oxide film generated on the cut surface, the machining parameter correction is performed. The unit 25 determines a processing parameter to be corrected and a correction amount based on the input value combination "1, 0, 0". Based on this combination, the processing parameter correction unit 25 determines, for example, each parameter of laser output and processing gas pressure as processing parameters to be corrected. Furthermore, the processing parameter correction unit 25 determines correction amounts for each of the laser output and the pressure of the processing gas based on this combination. For example, the processing parameter correction unit 25 calculates a correction amount for increasing the laser output and a correction amount for reducing the pressure of the processing gas.

加工パラメータ補正部25には、項目ごとの判定結果の複数の組合せについて、組合せごとに、補正の対象とする加工パラメータと補正量との関係があらかじめ定められている。加工パラメータ補正部25は、あらかじめ定められている関係と、項目ごとの判定結果の組合せとに基づいて、補正の対象とする加工パラメータと補正量とを決定することができる。 In the machining parameter correction unit 25, a relationship between a machining parameter to be corrected and a correction amount is predetermined for each combination of a plurality of combinations of determination results for each item. The machining parameter correction unit 25 can determine the machining parameters to be corrected and the amount of correction based on a predetermined relationship and a combination of determination results for each item.

上記説明では、加工パラメータ補正部25は、加工状態評価部23による評価結果に基づいて補正量を算出することとしたが、特徴量に基づいて補正量を算出しても良い。加工パラメータ補正部25は、特徴量算出部22によって算出された特徴量を監視モデルへ入力することによって、補正量を算出しても良い。学習済モデル保持部26により保持される複数の学習済モデルの各々は、特徴量が入力されることによって、加工の状態の評価結果と補正量との少なくとも一方を出力する学習済モデルであれば良い。学習済モデルが補正量を出力する場合、学習済モデルによる加工状態の評価が行われた上で、補正量が算出される。 In the above description, the machining parameter correction unit 25 calculates the correction amount based on the evaluation result by the machining state evaluation unit 23, but the correction amount may be calculated based on the feature amount. The processing parameter correction section 25 may calculate the correction amount by inputting the feature amount calculated by the feature amount calculation section 22 to the monitoring model. Each of the plurality of trained models held by the trained model holding unit 26 is a trained model that outputs at least one of the evaluation result of the machining state and the correction amount by inputting the feature amount. good. When the learned model outputs a correction amount, the correction amount is calculated after the learned model evaluates the machining state.

上記説明では、加工監視部20は、加工の状態が良好であることを示す判定結果が得られるまで、加工パラメータ補正部25による補正量の算出と加工制御部28による加工パラメータの補正とを繰り返すこととした。レーザ加工システム1は、加工の状態が良好であることを示す判定結果が得られない状況が続く場合は、レーザ加工機2によるレーザ加工を停止しても良い。 In the above description, the machining monitoring unit 20 repeats calculation of the correction amount by the machining parameter correction unit 25 and correction of the machining parameters by the machining control unit 28 until a determination result indicating that the machining state is good is obtained. I decided to do so. The laser processing system 1 may stop the laser processing by the laser processing machine 2 if a situation continues in which a determination result indicating that the processing state is good is not obtained.

上記するように、監視モデル決定部24は、レーザ加工機2による加工の状態をユーザが評価した結果と加工状態評価部23による評価結果とに基づいて、監視モデルを決定する。ユーザは、例えば、ワーク10の切断面を目視することによって、加工の良否を判定しても良い。加工の状態をユーザが評価した結果は、3次元測定器または粗さ測定器といった測定器を用いて切断面の粗さを測定した結果でも良い。監視モデル決定部24は、加工の状態をユーザが評価した結果を示す情報を受け付けても良い。ユーザは、例えば制御装置3に備えられている入力機器を操作することによって、加工の状態を評価した結果を監視モデル決定部24へ入力する。 As described above, the monitoring model determining unit 24 determines a monitoring model based on the result of the user's evaluation of the processing state by the laser beam machine 2 and the evaluation result by the processing state evaluation unit 23. The user may judge the quality of processing by, for example, visually observing the cut surface of the workpiece 10. The result of the user's evaluation of the processing state may be the result of measuring the roughness of the cut surface using a measuring device such as a three-dimensional measuring device or a roughness measuring device. The monitoring model determination unit 24 may receive information indicating the result of the user's evaluation of the machining state. The user inputs the results of evaluating the machining state to the monitoring model determining unit 24, for example, by operating an input device included in the control device 3.

上記説明では、レーザ加工機2によって加工されたワーク10の観察により加工の状態を評価した結果として、ユーザによる評価結果が監視モデル決定部24へ入力されることとした。監視モデル決定部24へ入力される評価結果は、ユーザによる評価結果に限られない。すなわち、ワーク10の観察により加工の状態を評価した結果は、ユーザによる評価結果に限られない。監視モデル決定部24には、ワーク10の観察により加工の状態を判定する判定装置から、加工の良否を判定した結果が監視モデル決定部24へ入力されても良い。判定装置は、例えば、カメラによって撮影された画像を基に加工の状態を自動で判定する。このように、監視モデル決定部24には、加工の状態をユーザが評価した結果と、加工の状態を判定装置が評価した結果とのどちらが入力されても良い。監視モデル決定部24は、複数の学習済モデルのうち、加工状態評価部23にて出力された評価結果が、ワーク10の観察により加工の状態を評価した結果に最も近い1つの学習済モデルを選択することができる。なお、判定装置の図示は省略する。 In the above description, the evaluation result by the user is input to the monitoring model determining unit 24 as a result of evaluating the machining state by observing the workpiece 10 machined by the laser beam machine 2. The evaluation results input to the monitoring model determination unit 24 are not limited to the evaluation results by the user. That is, the results of evaluating the state of machining by observing the workpiece 10 are not limited to the results of evaluation by the user. The monitoring model determining unit 24 may receive a result of determining the quality of machining from a determination device that determines the machining state by observing the workpiece 10. The determination device automatically determines the state of processing based on, for example, an image photographed by a camera. In this way, the monitoring model determining unit 24 may receive either the result of the user's evaluation of the machining state or the result of the determination device's evaluation of the machining state. The monitoring model determination unit 24 selects one learned model among the plurality of learned models whose evaluation result outputted by the machining state evaluation unit 23 is closest to the result of evaluating the machining state by observing the workpiece 10. You can choose. Note that illustration of the determination device is omitted.

ユーザまたは判定装置による評価結果が監視モデル決定部24へ入力される場合において、加工の状態が良好と不良とのいずれに該当するかを加工状態評価部23が判定する場合、加工の状態が良好と不良とのいずれに該当するかをユーザまたは判定装置が判定した結果が監視モデル決定部24へ入力される。加工状態評価部23の判定結果とユーザまたは判定装置の判定結果が一致する場合に、監視モデル決定部24は、加工状態評価部23の当該判定結果を出力した学習済モデルを、監視モデルに決定する。 When the evaluation result by the user or the determination device is input to the monitoring model determination unit 24, when the machining status evaluation unit 23 determines whether the machining status is good or poor, the machining status is good. The result of the determination made by the user or the determination device as to whether the product falls under the category of "defective" or "defective" is input to the monitoring model determination unit 24. When the determination result of the machining state evaluation unit 23 and the determination result of the user or the determination device match, the monitoring model determination unit 24 determines the trained model that outputs the determination result of the machining state evaluation unit 23 as the monitoring model. do.

ユーザまたは判定装置による評価結果が監視モデル決定部24へ入力される場合において、加工状態評価部23が複数の項目の各々の評価結果を出力する場合、複数の項目の各々について加工の状態をユーザまたは判定装置が判定した結果が監視モデル決定部24へ入力される。加工状態評価部23による各項目についての判定結果とユーザまたは判定装置による各項目についての判定結果が一致する場合に、監視モデル決定部24は、加工状態評価部23の当該判定結果を出力した学習済モデルを、監視モデルに決定する。 When the evaluation results by the user or the determination device are input to the monitoring model determination section 24, and when the machining state evaluation section 23 outputs the evaluation results for each of a plurality of items, the machining state is determined by the user for each of the plurality of items. Alternatively, the result determined by the determination device is input to the monitoring model determination unit 24. When the determination result for each item by the machining state evaluation unit 23 and the determination result for each item by the user or the determination device match, the monitoring model determination unit 24 uses the learning model that outputs the determination result of the machining state evaluation unit 23. The monitored model is determined as the monitored model.

ユーザまたは判定装置による評価結果が監視モデル決定部24へ入力される場合において、加工の状態についての評価値を加工状態評価部23が出力する場合、加工の状態についてユーザまたは判定装置が求めた評価値が監視モデル決定部24へ入力される。加工状態評価部23が出力した評価値が、ユーザまたは判定装置が求めた評価値を含む許容範囲に含まれる場合に、監視モデル決定部24は、加工状態評価部23の当該評価値を出力した学習済モデルを、監視モデルに決定する。許容範囲は、ユーザまたは判定装置が求めた評価値を基準とする範囲であって、あらかじめ設定された数値幅の範囲とする。 When the evaluation result by the user or the determination device is input to the monitoring model determination unit 24, and the machining state evaluation unit 23 outputs an evaluation value regarding the machining state, the evaluation result obtained by the user or the determination device regarding the machining state The value is input to the monitoring model determination unit 24. When the evaluation value output by the machining state evaluation unit 23 is included in the tolerance range that includes the evaluation value determined by the user or the determination device, the monitoring model determination unit 24 outputs the evaluation value of the machining state evaluation unit 23. The learned model is determined as the monitoring model. The permissible range is a range based on the evaluation value obtained by the user or the determination device, and is a range of a preset numerical range.

上記説明では、監視モデル決定部24は、複数の学習済モデルのうち、加工状態評価部23にて出力された評価結果が、ワーク10の観察により加工の状態を評価した結果に一致する学習済モデルを、監視モデルに決定することとした。複数の学習済モデルの各々が、補正量を出力する学習済モデルである場合、監視モデル決定部24は、複数の学習済モデルの各々から出力される補正量に基づいて、監視モデルとする学習済モデルを決定しても良い。例えば、監視モデル決定部24は、学習済モデルから出力された補正量を基に補正された加工パラメータと、ユーザによって調整された加工条件に基づく加工パラメータとを比較する。監視モデル決定部24は、かかる比較によって、監視モデルとする学習済モデルを決定しても良い。 In the above description, the monitoring model determination unit 24 selects a trained model whose evaluation result outputted by the machining state evaluation unit 23 matches the result of evaluating the machining state by observing the workpiece 10 among the plurality of trained models. We decided to use a monitoring model as the model. When each of the plurality of trained models is a trained model that outputs a correction amount, the monitoring model determining unit 24 determines which learning model to use as the monitoring model based on the correction amount output from each of the plurality of trained models. You may also decide on an existing model. For example, the monitoring model determining unit 24 compares the machining parameters corrected based on the correction amounts output from the learned model and the machining parameters based on the machining conditions adjusted by the user. The monitoring model determining unit 24 may determine a trained model to be used as a monitoring model through such comparison.

学習済モデル保持部26は、例えば、レーザ加工機2のメーカによって生成された複数の学習済モデルを保持する。学習済モデル保持部26に保持される複数の学習済モデルには、メーカによって生成された学習済モデルのほかに、ユーザによって生成された学習済モデルが含まれても良い。 The learned model holding unit 26 holds a plurality of learned models generated by the manufacturer of the laser processing machine 2, for example. The plurality of trained models held in the trained model holding unit 26 may include trained models generated by a user as well as trained models generated by a manufacturer.

ここで、実施の形態1における学習済モデルの例を説明する。レーザ加工システム1が用いる学習アルゴリズムには、教師あり学習、教師なし学習、または強化学習等の公知のアルゴリズムを用いることができる。一例として、ニューラルネットワークを適用するケースについて説明する。 Here, an example of a learned model in the first embodiment will be explained. As a learning algorithm used by the laser processing system 1, a known algorithm such as supervised learning, unsupervised learning, or reinforcement learning can be used. As an example, a case where a neural network is applied will be explained.

実施の形態1における学習済モデルは、教師あり学習によって、特徴量と加工の状態との関係を学習した結果である。ここで、教師あり学習とは、入力および結果のデータの組を学習装置に与えることで、学習用データにある特徴を学習し、入力から結果を推論する手法である。学習用データは、入力と、入力に対応する結果であるラベルとを含む。特徴量は、入力に相当する。加工の状態は、教師データであって、ラベルに相当する。ニューラルネットワークは、複数のニューロンからなる入力層と、複数のニューロンからなる中間層である隠れ層と、複数のニューロンからなる出力層とで構成される。中間層は、1層、または2層以上でも良い。 The learned model in the first embodiment is the result of learning the relationship between the feature amount and the processing state by supervised learning. Here, supervised learning is a method in which a set of input and result data is given to a learning device to learn features in the learning data and infer results from the input. The learning data includes an input and a label that is a result corresponding to the input. The feature amount corresponds to the input. The processing state is training data and corresponds to a label. A neural network is composed of an input layer consisting of a plurality of neurons, a hidden layer which is an intermediate layer consisting of a plurality of neurons, and an output layer consisting of a plurality of neurons. The intermediate layer may be one layer or two or more layers.

図3は、実施の形態1における学習済モデルの構成例を示す図である。図3には、ニューラルネットワークの構成例を示す。図3に示すニューラルネットワークは、3層のニューラルネットワークである。入力層は、ニューロンX1,X2,X3を含む。中間層は、ニューロンY1,Y2を含む。出力層は、ニューロンZ1,Z2,Z3を含む。なお、各層のニューロンの数は任意とする。入力層へ入力された複数の値は、重みW1であるw11,w12,w13,w14,w15,w16が乗算されて、中間層へ入力される。中間層へ入力された複数の値は、重みW2であるw21,w22,w23,w24,w25,w26が乗算されて、出力層から出力される。出力層から出力される出力結果は、重みW1,W2の値に従って変化する。ニューラルネットワークは、特徴量を入力層に入力して出力層から出力された結果が加工の状態に近づくように重みW1,W2を調整することによって生成される。 FIG. 3 is a diagram illustrating a configuration example of a learned model in the first embodiment. FIG. 3 shows an example of the configuration of a neural network. The neural network shown in FIG. 3 is a three-layer neural network. The input layer includes neurons X1, X2, and X3. The middle layer includes neurons Y1 and Y2. The output layer includes neurons Z1, Z2, Z3. Note that the number of neurons in each layer is arbitrary. The plurality of values input to the input layer are multiplied by weights W1, w11, w12, w13, w14, w15, and w16, and then input to the intermediate layer. The plurality of values input to the intermediate layer are multiplied by weights W2, w21, w22, w23, w24, w25, and w26, and output from the output layer. The output result output from the output layer changes according to the values of weights W1 and W2. The neural network is generated by inputting feature amounts into an input layer and adjusting weights W1 and W2 so that the result output from the output layer approaches the processed state.

次に、レーザ加工システム1が実行する処理の手順について説明する。ここでは、監視モデルを決定する際における処理の手順の3つの例を説明する。 Next, the procedure of processing executed by the laser processing system 1 will be explained. Here, three examples of processing procedures when determining a monitoring model will be described.

図4は、実施の形態1にかかるレーザ加工システム1が実行する処理の手順の第1の例を示すフローチャートである。第1の例では、レーザ加工システム1は、レーザ加工機2に試し加工を行わせることにより監視モデルを決定する。第1の例では、監視モデル決定部24は、加工の状態をユーザが評価した結果と、加工状態評価部23による評価結果とに基づいて、監視モデルを決定するものとする。 FIG. 4 is a flowchart showing a first example of a processing procedure executed by the laser processing system 1 according to the first embodiment. In the first example, the laser processing system 1 determines a monitoring model by causing the laser processing machine 2 to perform trial processing. In the first example, the monitoring model determining unit 24 determines the monitoring model based on the result of the user's evaluation of the machining state and the evaluation result by the machining state evaluation unit 23.

ステップS1において、レーザ加工機2は、試し加工を開始する。試し加工が開始されると、音センサ8および光センサ9の各々は、加工の状態を検出し、センサデータを出力する。ステップS2において、データ取得部21は、音センサ8および光センサ9の各々から出力されるセンサデータを取得する。データ取得部21は、取得されたセンサデータを特徴量算出部22へ出力する。 In step S1, the laser processing machine 2 starts trial processing. When trial machining is started, each of the sound sensor 8 and the optical sensor 9 detects the machining state and outputs sensor data. In step S2, the data acquisition unit 21 acquires sensor data output from each of the sound sensor 8 and the optical sensor 9. The data acquisition unit 21 outputs the acquired sensor data to the feature amount calculation unit 22.

ステップS3において、特徴量算出部22は、センサデータを基に特徴量を算出する。特徴量算出部22は、算出された特徴量を加工状態評価部23へ出力する。ステップS4において、加工状態評価部23は、学習済モデルに基づいて加工状態を評価する。加工状態評価部23は、学習済モデル保持部26に保持されている複数の学習済モデルの1つへ特徴量を入力することによって、加工の状態の評価結果を求める。加工状態評価部23は、求めた評価結果を監視モデル決定部24へ出力する。 In step S3, the feature amount calculation unit 22 calculates a feature amount based on the sensor data. The feature amount calculation unit 22 outputs the calculated feature amount to the machining state evaluation unit 23. In step S4, the machining state evaluation unit 23 evaluates the machining state based on the learned model. The machining state evaluation unit 23 obtains an evaluation result of the machining state by inputting a feature amount to one of the plurality of learned models held in the learned model holding unit 26. The machining state evaluation section 23 outputs the obtained evaluation results to the monitoring model determination section 24.

ステップS5において、監視モデル決定部24は、ステップS4における加工状態の評価結果が、ユーザによる評価結果と一致しているか否かを判定する。図4に示す第1の例では、ユーザによる評価結果が監視モデル決定部24へ入力されるものとする。監視モデル決定部24は、ステップS4における加工状態の評価結果と、ユーザによる評価結果とを比較することによって、ユーザによる評価結果と一致する評価結果が得られたか否かを判定する。 In step S5, the monitoring model determining unit 24 determines whether the evaluation result of the machining state in step S4 matches the evaluation result by the user. In the first example shown in FIG. 4, it is assumed that the evaluation result by the user is input to the monitoring model determination unit 24. The monitoring model determining unit 24 compares the evaluation result of the machining state in step S4 with the evaluation result by the user, thereby determining whether or not an evaluation result that matches the evaluation result by the user has been obtained.

ステップS4における加工状態の評価結果がユーザによる評価結果と一致している場合(ステップS5,Yes)、ステップS6において、監視モデル決定部24は、監視モデルを決定する。監視モデル決定部24は、ステップS4における加工状態の評価に用いられた学習済モデルを、監視モデルに決定する。 If the evaluation result of the machining state in step S4 matches the evaluation result by the user (step S5, Yes), the monitoring model determining unit 24 determines a monitoring model in step S6. The monitoring model determination unit 24 determines the learned model used for evaluating the machining state in step S4 as the monitoring model.

一方、ステップS4における加工状態の評価結果がユーザによる評価結果と一致していない場合(ステップS5,No)、ステップS7において、加工状態評価部23は、加工状態の評価に用いる学習済モデルを選択する。加工状態評価部23は、学習済モデル保持部26に保持されている複数の学習済モデルのうち、ステップS4における加工状態の評価に用いられた学習済モデル以外の1つを選択する。その後、レーザ加工システム1は、手順をステップS4へ戻し、ステップS7において選択された学習済モデルについてのステップS4,S5の処理を行う。 On the other hand, if the evaluation result of the machining state in step S4 does not match the evaluation result by the user (step S5, No), in step S7, the machining state evaluation unit 23 selects a learned model to be used for evaluating the machining state. do. The machining state evaluation unit 23 selects one of the learned models held in the learned model holding unit 26 other than the learned model used for evaluating the machining state in step S4. After that, the laser processing system 1 returns the procedure to step S4 and performs the processes of steps S4 and S5 for the trained model selected in step S7.

レーザ加工システム1は、ステップS6を終えることによって、図4に示す手順による処理を終了する。レーザ加工システム1は、レーザ加工機2が製品を加工している際における加工状態を、監視モデルを用いて監視する。なお、ワーク10の観察による加工状態の判定を判定装置が行う場合、監視モデル決定部24は、ステップS5において、加工の状態を判定装置が評価した結果と、加工状態評価部23による評価結果とに基づいて、監視モデルを決定する。 The laser processing system 1 ends the processing according to the procedure shown in FIG. 4 by completing step S6. The laser processing system 1 uses a monitoring model to monitor the processing state when the laser processing machine 2 is processing a product. Note that when the determination device determines the machining state by observing the workpiece 10, the monitoring model determination unit 24 combines the result of the determination device’s evaluation of the machining state with the evaluation result by the machining state evaluation unit 23 in step S5. Determine the monitoring model based on.

加工状態評価部23による加工状態の評価結果がユーザによる評価結果と一致しているか否かは、ユーザによって判定されても良い。ユーザは、複数の学習済モデルの各々について、加工状態評価部23にて出力された評価結果を確認し、加工状態評価部23にて出力された評価結果がユーザによる評価結果に一致する1つの学習済モデルを選択する。この場合、監視モデル決定部24は、ユーザによって選択された学習済モデルを、監視モデルに決定する。第2の例では、監視モデル決定部24は、加工の状態をユーザが評価した結果と、加工状態評価部23による評価結果とに基づいて、監視モデルを決定するものとする。 The user may determine whether the evaluation result of the machining state by the machining state evaluation unit 23 matches the evaluation result by the user. The user checks the evaluation results output by the machining state evaluation unit 23 for each of the plurality of learned models, and selects one whose evaluation result output by the machining state evaluation unit 23 matches the evaluation result by the user. Select a trained model. In this case, the monitoring model determining unit 24 determines the trained model selected by the user as the monitoring model. In the second example, the monitoring model determination unit 24 determines the monitoring model based on the result of the user's evaluation of the machining state and the evaluation result by the machining state evaluation unit 23.

図5は、実施の形態1にかかるレーザ加工システム1が実行する処理の手順の第2の例を示すフローチャートである。上記の第1の例では、レーザ加工システム1は、複数の学習済モデルの1つずつから評価結果を得て、得られた評価結果とユーザによる評価結果とを比較した。第2の例では、レーザ加工システム1は、複数の学習済モデルの全てから評価結果を得て、得られた各評価結果とユーザによる評価結果とを比較する。また、第2の例においても、レーザ加工システム1は、レーザ加工機2に試し加工を行わせることにより監視モデルを決定する。 FIG. 5 is a flowchart illustrating a second example of the processing procedure executed by the laser processing system 1 according to the first embodiment. In the first example described above, the laser processing system 1 obtained evaluation results from each of the plurality of trained models, and compared the obtained evaluation results with the evaluation results by the user. In the second example, the laser processing system 1 obtains evaluation results from all of the plurality of trained models, and compares each obtained evaluation result with the evaluation result by the user. Also in the second example, the laser processing system 1 determines the monitoring model by causing the laser processing machine 2 to perform trial processing.

ステップS11において、レーザ加工機2は、試し加工を開始する。ステップS12において、データ取得部21は、センサデータを取得する。ステップS13において、特徴量算出部22は、センサデータを基に特徴量を算出する。ステップS11からステップS13は、図4に示すステップS1からステップS3と同様である。 In step S11, the laser processing machine 2 starts trial processing. In step S12, the data acquisition unit 21 acquires sensor data. In step S13, the feature amount calculation unit 22 calculates a feature amount based on the sensor data. Steps S11 to S13 are similar to steps S1 to S3 shown in FIG. 4.

ステップS14において、加工状態評価部23は、複数の学習済モデルの各々に基づいて加工状態を評価する。加工状態評価部23は、学習済モデル保持部26に保持されている複数の学習済モデルの全てへ特徴量を入力することによって、複数の学習済モデルの各々による評価結果を求める。加工状態評価部23は、求めた評価結果を監視モデル決定部24へ出力する。 In step S14, the machining state evaluation unit 23 evaluates the machining state based on each of the plurality of learned models. The machining state evaluation section 23 obtains evaluation results for each of the plurality of learned models by inputting feature amounts to all of the plurality of learned models held in the learned model holding section 26. The machining state evaluation section 23 outputs the obtained evaluation results to the monitoring model determination section 24.

ステップS15において、監視モデル決定部24は、複数の学習済モデルの中から、加工状態の評価結果がユーザによる評価結果に最も近い学習済モデルを選択する。図5に示す第2の例では、ユーザによる評価結果が監視モデル決定部24へ入力されるものとする。監視モデル決定部24は、複数の学習済モデルの各々による評価結果をユーザによる評価結果と比較することによって、ユーザによる評価結果に最も近い評価結果が得られた1つの学習済モデルを選択する。 In step S15, the monitoring model determining unit 24 selects a learned model whose processing state evaluation result is closest to the evaluation result by the user from among the plurality of learned models. In the second example shown in FIG. 5, it is assumed that the evaluation result by the user is input to the monitoring model determination unit 24. The monitoring model determining unit 24 compares the evaluation results of each of the plurality of trained models with the evaluation results of the user, and selects one trained model that has obtained the evaluation result closest to the evaluation result of the user.

ステップS16において、監視モデル決定部24は、監視モデルを決定する。監視モデル決定部24は、ステップS15において選択された学習済モデルを、監視モデルに決定する。レーザ加工システム1は、ステップS16を終えることによって、図5に示す手順による処理を終了する。レーザ加工システム1は、レーザ加工機2が製品を加工している際における加工状態を、監視モデルを用いて監視する。 In step S16, the monitoring model determining unit 24 determines a monitoring model. The monitoring model determining unit 24 determines the trained model selected in step S15 as the monitoring model. The laser processing system 1 ends the processing according to the procedure shown in FIG. 5 by completing step S16. The laser processing system 1 uses a monitoring model to monitor the processing state when the laser processing machine 2 is processing a product.

加工状態の評価結果がユーザによる評価結果に最も近い学習済モデルは、ユーザによって選択されても良い。ユーザは、複数の学習済モデルの各々による評価結果を確認し、ユーザによる評価結果に最も近い評価結果が得られた1つの学習済モデルを選択する。この場合、監視モデル決定部24は、ユーザによって選択された学習済モデルを、監視モデルに決定する。なお、ワーク10の観察による加工状態の判定を判定装置が行う場合、監視モデル決定部24は、ステップS15において、複数の学習済モデルの中から、加工状態の評価結果が判定装置による評価結果に最も近い学習済モデルを選択する。 The learned model whose processing state evaluation result is closest to the evaluation result by the user may be selected by the user. The user checks the evaluation results of each of the plurality of trained models, and selects the one trained model that has obtained the evaluation result closest to the user's evaluation result. In this case, the monitoring model determining unit 24 determines the trained model selected by the user as the monitoring model. Note that when the determination device determines the machining state by observing the workpiece 10, the monitoring model determination unit 24 determines, in step S15, that the evaluation result of the machining state is the evaluation result by the determination device from among the plurality of learned models. Select the closest trained model.

図6は、実施の形態1にかかるレーザ加工システム1が実行する処理の手順の第3の例を示すフローチャートである。第3の例では、レーザ加工システム1は、レーザ加工機2が製品加工を行っている際に監視モデルを決定する。レーザ加工システム1は、第1の例または第2の例のように試し加工によって監視モデルを決定しても良く、第3の例のように製品加工が行われている際に監視モデルを決定しても良い。第3の例では、監視モデル決定部24は、加工の状態をユーザが評価した結果と、加工状態評価部23による評価結果とに基づいて、監視モデルを決定するものとする。 FIG. 6 is a flowchart showing a third example of the processing procedure executed by the laser processing system 1 according to the first embodiment. In the third example, the laser processing system 1 determines the monitoring model while the laser processing machine 2 is processing a product. The laser processing system 1 may determine the monitoring model through trial processing as in the first or second example, or may determine the monitoring model while product processing is being performed as in the third example. You may do so. In the third example, the monitoring model determination unit 24 determines the monitoring model based on the result of the user's evaluation of the machining state and the evaluation result by the machining state evaluation unit 23.

ステップS21において、レーザ加工機2は、製品の加工を開始する。ステップS22において、データ取得部21は、センサデータを取得する。ステップS23において、特徴量算出部22は、センサデータを基に特徴量を算出する。ステップS24において、加工状態評価部23は、複数の学習済モデルの各々に基づいて加工状態を評価する。ステップS25において、監視モデル決定部24は、複数の学習済モデルの中から、加工状態の評価結果がユーザによる評価結果に最も近い学習済モデルを選択する。ステップS26において、監視モデル決定部24は、監視モデルを決定する。ステップS22からステップS26は、図5に示すステップS12からステップS16と同様である。 In step S21, the laser processing machine 2 starts processing the product. In step S22, the data acquisition unit 21 acquires sensor data. In step S23, the feature amount calculation unit 22 calculates a feature amount based on the sensor data. In step S24, the machining state evaluation unit 23 evaluates the machining state based on each of the plurality of learned models. In step S25, the monitoring model determining unit 24 selects a learned model whose processing state evaluation result is closest to the user's evaluation result from among the plurality of learned models. In step S26, the monitoring model determining unit 24 determines a monitoring model. Steps S22 to S26 are similar to steps S12 to S16 shown in FIG. 5.

レーザ加工システム1は、ステップS26を終えることによって、図6に示す手順による処理を終了する。レーザ加工システム1は、レーザ加工機2による製品加工を継続し、監視モデルを用いて加工状態を監視する。レーザ加工システム1は、製品加工において加工不良がある程度許容可能である場合に、第3の例のように、製品加工が行われている際に監視モデルを決定しても良い。なお、ワーク10の観察による加工状態の判定を判定装置が行う場合、監視モデル決定部24は、ステップS25において、複数の学習済モデルの中から、加工状態の評価結果が判定装置による評価結果に最も近い学習済モデルを選択する。 The laser processing system 1 ends the processing according to the procedure shown in FIG. 6 by completing step S26. The laser processing system 1 continues the product processing by the laser processing machine 2 and monitors the processing state using the monitoring model. The laser processing system 1 may determine the monitoring model while the product is being processed, as in the third example, if processing defects are tolerable to some extent in the product processing. Note that when the determination device determines the machining state by observing the workpiece 10, the monitoring model determination unit 24 determines, in step S25, that the evaluation result of the machining state is the evaluation result by the determination device from among the plurality of learned models. Select the closest trained model.

製品加工が行われている際において、監視モデルを決定するための処理を実行するタイミングは、任意であるものとする。レーザ加工システム1は、例えば、製品加工のためのレーザ加工機2の稼働を終了する際に、監視モデルを決定するための処理を実行する。レーザ加工システム1は、ある決められた数の製品についての加工を終えた後に、監視モデルを決定するための処理を実行しても良い。レーザ加工システム1は、1つの製品の加工を行うごとに、監視モデルを決定するための処理を実行しても良い。レーザ加工システム1は、加工不良が生じた際に、監視モデルを決定するための処理を実行しても良い。レーザ加工システム1は、製品加工のためのレーザ加工機2の稼働を開始する際に、監視モデルを決定するための処理を実行しても良い。 It is assumed that the timing of executing the processing for determining the monitoring model is arbitrary when the product is being processed. For example, the laser processing system 1 executes processing for determining a monitoring model when terminating the operation of the laser processing machine 2 for product processing. The laser processing system 1 may execute processing for determining a monitoring model after finishing processing a certain number of products. The laser processing system 1 may execute processing for determining a monitoring model every time one product is processed. The laser processing system 1 may execute processing for determining a monitoring model when a processing defect occurs. The laser processing system 1 may execute processing for determining a monitoring model when starting the operation of the laser processing machine 2 for product processing.

レーザ加工システム1は、製品加工が行われている際に監視モデルを決定することで、監視モデルとする学習済モデルを多くのデータに基づいて決定することができる。レーザ加工システム1は、製品加工が行われている際に監視モデルを随時決定することによって、レーザ加工機2の経年変化が反映された監視モデルを用いて加工状態を評価することができる。 By determining a monitoring model while product processing is being performed, the laser processing system 1 can determine a trained model to be used as a monitoring model based on a large amount of data. The laser processing system 1 can evaluate the processing state using the monitoring model that reflects aging of the laser processing machine 2 by determining a monitoring model at any time while product processing is being performed.

実施の形態1によると、制御装置3は、レーザ加工機2によって加工されたワーク10の観察により加工の状態を評価した結果と加工状態評価部23による評価結果とに基づいて、レーザ加工機2による加工の状態の監視に用いる監視モデルである学習済モデルを決定する。制御装置3は、センサによって計測される加工の状態が、レーザ加工機2の状態またはワーク10の含有成分のばらつきなどによって変化した場合でも、加工状態を正確に評価可能とする監視モデルを得ることができる。制御装置3は、加工状態の良否を正確に評価することができることによって、レーザ加工機2による良好な加工を継続させることができる。以上により、制御装置3は、レーザ加工機2による良好な加工を継続させることができるという効果を奏する。 According to the first embodiment, the control device 3 controls the laser processing machine 2 based on the result of evaluating the processing state by observing the workpiece 10 processed by the laser processing machine 2 and the evaluation result by the processing state evaluation unit 23. Determine a trained model that is a monitoring model used to monitor the state of machining. The control device 3 obtains a monitoring model that enables accurate evaluation of the machining state even when the machining state measured by the sensor changes due to the state of the laser processing machine 2 or variations in the contained components of the workpiece 10. Can be done. By being able to accurately evaluate the quality of the machining state, the control device 3 can allow the laser beam machine 2 to continue good machining. As described above, the control device 3 has the effect of allowing the laser processing machine 2 to continue good processing.

実施の形態2.
実施の形態1では、監視モデル決定部24が、複数の学習済モデルのうち、加工状態評価部23にて出力された評価結果がワーク10の観察による評価結果に一致する学習済モデルを、監視モデルに決定することとした。実施の形態2では、複数の学習済モデルの組合せを監視モデルに決定する例について説明する。実施の形態2では、実施の形態1と同一の構成要素には同一の符号を付し、実施の形態1とは異なる構成について主に説明する。
Embodiment 2.
In the first embodiment, the monitoring model determination section 24 monitors a learned model whose evaluation result outputted by the machining state evaluation section 23 matches the evaluation result obtained by observing the workpiece 10, among the plurality of learned models. I decided to go with the model. In Embodiment 2, an example will be described in which a combination of a plurality of trained models is determined as a monitoring model. In Embodiment 2, the same components as in Embodiment 1 are given the same reference numerals, and configurations that are different from Embodiment 1 will be mainly explained.

図7は、実施の形態2にかかる制御装置3が有する監視モデル決定部30の構成例を示す図である。実施の形態2にかかる制御装置3は、図2に示す監視モデル決定部24の代わりに、図7に示す監視モデル決定部30を備える。監視モデル決定部30は、学習済モデル保持部26にて保持されている複数の学習済モデルの組合せについて各学習済モデルの出力値に対する重みを調整し、各学習済モデルについての重みが調整された複数の学習済モデルの組合せを監視モデルに決定する。 FIG. 7 is a diagram showing a configuration example of the monitoring model determination unit 30 included in the control device 3 according to the second embodiment. The control device 3 according to the second embodiment includes a monitoring model determining section 30 shown in FIG. 7 instead of the monitoring model determining section 24 shown in FIG. 2. The monitoring model determining unit 30 adjusts the weight for the output value of each trained model for the combination of the plurality of trained models held in the trained model holding unit 26, and adjusts the weight for each trained model. A combination of trained models is determined as a monitoring model.

監視モデル決定部30は、重み決定部31を備える。重み決定部31は、各学習済モデルについての重みを調整して、各学習済モデルについての重みを決定する。 The monitoring model determining section 30 includes a weight determining section 31. The weight determination unit 31 adjusts the weight for each trained model and determines the weight for each trained model.

監視モデル決定部30は、学習済モデル保持部26から複数の学習済モデルを読み出す。図7に示す例では、学習済モデル保持部26には3つの学習済モデルが保持されており、監視モデル決定部30が3つの学習済モデルを読み出したとする。 The monitoring model determining unit 30 reads out a plurality of trained models from the trained model holding unit 26. In the example shown in FIG. 7, it is assumed that the learned model holding unit 26 holds three learned models, and the monitoring model determination unit 30 reads out the three learned models.

図7に示すv1、v2、およびv3は、各学習済モデルの出力値に対する重みを表す。重み決定部31は、v1、v2、およびv3の各々を調整する。図7に示す破線の矢印は、重み決定部31によりv1、v2、およびv3の各々を調整することを示している。各学習済モデルは、例えば図3に示すニューラルネットワークである。 v1, v2, and v3 shown in FIG. 7 represent weights for the output values of each learned model. The weight determining unit 31 adjusts each of v1, v2, and v3. The dashed arrows shown in FIG. 7 indicate that the weight determination unit 31 adjusts each of v1, v2, and v3. Each trained model is, for example, a neural network shown in FIG. 3.

加工状態評価部23は、各学習済モデルについての重みが調整された複数の学習済モデルの組合せにより、レーザ加工機2による加工の状態を評価する。監視モデル決定部30は、加工状態評価部23にて出力された評価結果とワーク10の観察による評価結果との差が小さくなるように、v1、v2、およびv3の各々を調整する。これにより、監視モデル決定部30は、加工状態評価部23により出力された評価結果がワーク10の観察による評価結果に一致するように、v1、v2、およびv3の各々を調整する。なお、ワーク10の観察による評価結果とは、レーザ加工機2によって加工されたワーク10の観察により加工の状態を評価した結果のことである。ワーク10の観察による評価結果とは、加工されたワーク10をユーザが観察することによって加工の状態をユーザが評価した結果、または、ワーク10の観察により加工の状態を判定する判定装置による評価結果である。 The machining state evaluation unit 23 evaluates the machining state of the laser beam machine 2 based on a combination of a plurality of learned models with adjusted weights for each learned model. The monitoring model determining unit 30 adjusts each of v1, v2, and v3 so that the difference between the evaluation result output by the machining state evaluation unit 23 and the evaluation result obtained by observing the workpiece 10 becomes small. Thereby, the monitoring model determining unit 30 adjusts each of v1, v2, and v3 so that the evaluation result output by the machining state evaluation unit 23 matches the evaluation result obtained by observing the workpiece 10. Note that the evaluation result obtained by observing the workpiece 10 is the result of evaluating the state of processing by observing the workpiece 10 processed by the laser processing machine 2. The evaluation result based on observation of the workpiece 10 is the result of the user evaluating the machining state by observing the machined workpiece 10, or the evaluation result by a determination device that determines the machining state by observing the workpiece 10. It is.

監視モデル決定部30は、加工状態評価部23にて出力された評価結果がワーク10の観察による評価結果に一致するように重みが調整された3つの学習済モデルの組合せを、監視モデルに決定する。または、監視モデル決定部30は、加工状態評価部23にて出力された評価結果がワーク10の観察による評価結果に最も近くなるように重みが調整された3つの学習済モデルの組合せを、監視モデルに決定する。このように、監視モデル決定部30は、各学習済モデルについての重みが調整された複数の学習済モデルの組合せを監視モデルに決定する。監視モデル決定部30は、決定された監視モデルを監視モデル保持部27に保存する。監視モデル保持部27は、監視モデルを保持する。 The monitoring model determining unit 30 determines, as the monitoring model, a combination of three learned models whose weights have been adjusted so that the evaluation results output by the machining state evaluation unit 23 match the evaluation results obtained by observing the workpiece 10. do. Alternatively, the monitoring model determination unit 30 monitors a combination of three learned models whose weights have been adjusted so that the evaluation result output by the machining state evaluation unit 23 is closest to the evaluation result obtained by observing the workpiece 10. Decide on the model. In this way, the monitoring model determination unit 30 determines, as the monitoring model, a combination of a plurality of trained models in which the weights of each trained model are adjusted. The monitoring model determining unit 30 stores the determined monitoring model in the monitoring model holding unit 27. The monitoring model holding unit 27 holds a monitoring model.

加工監視部20は、監視モデル決定部30により決定された監視モデルを用いて、レーザ加工機2による加工の状態を監視する。監視モデルは、特徴量が入力されることにより、重みが施された各学習済モデルの出力値の和を出力する。監視モデルは、特徴量が入力されることにより、各学習済モデルの出力値の重み付き平均を出力するものであっても良い。監視モデル決定部30は、重みと特徴量と加工の状態との関係を学習することによって、各学習済モデルの重みを決定しても良い。 The processing monitoring section 20 monitors the state of processing by the laser processing machine 2 using the monitoring model determined by the monitoring model determining section 30. The monitoring model outputs the sum of weighted output values of each trained model by inputting the feature amount. The monitoring model may output a weighted average of the output values of each trained model by inputting the feature amount. The monitoring model determining unit 30 may determine the weight of each learned model by learning the relationship between the weight, the feature amount, and the processing state.

各学習済モデルがニューラルネットワークである場合、監視モデル決定部30では、ニューラルネットワーク内に設定される重み、すなわち図3に示すw11-w16,w21-w26は変更されない。監視モデル決定部30は、ニューラルネットワーク内に設定される重みを変更せずに、各学習済モデルの出力値に対する重みを調整することによって、監視モデルを決定する。加工監視部20は、監視モデル決定部30により、各学習済モデルの出力値に対する重みを調整することによって、複数の学習済モデルの組合せを監視モデルとして用いることができる。 When each learned model is a neural network, the monitoring model determination unit 30 does not change the weights set in the neural network, that is, w11-w16 and w21-w26 shown in FIG. 3. The monitoring model determining unit 30 determines a monitoring model by adjusting the weight for the output value of each learned model without changing the weight set in the neural network. The processing monitoring section 20 can use a combination of a plurality of learned models as a monitoring model by adjusting the weight for the output value of each learned model by the monitoring model determining section 30.

制御装置3は、各学習済モデルについての重みを調整することによって、レーザ加工機2による加工の状態を評価するための監視モデルを得る。学習済モデル保持部26に保持される複数の学習済モデルの各々は、監視モデルの基本とされるモデルとすることができる。監視モデルの基本とされるモデルとは、例えば、ワーク10の製造元ごとに設定されたモデル、または、ワーク10の材料ごとに設定されたモデルである。制御装置3は、複数の学習済モデルの中から監視モデルとする学習済モデルを選択する場合に比べて、あらかじめ設定される学習済モデルの数を少なくすることができる。制御装置3は、比較的少ないデータに基づいて、監視モデルを決定することができる。 The control device 3 obtains a monitoring model for evaluating the state of machining by the laser beam machine 2 by adjusting the weight for each learned model. Each of the plurality of learned models held in the learned model holding unit 26 can be a model that is the basis of the monitoring model. The model that is the basis of the monitoring model is, for example, a model set for each manufacturer of the work 10 or a model set for each material of the work 10. The control device 3 can reduce the number of trained models set in advance, compared to the case where a trained model to be a monitoring model is selected from among a plurality of trained models. The control device 3 can determine a monitoring model based on relatively little data.

実施の形態2によると、制御装置3は、各学習済モデルについての重みが調整された複数の学習済モデルの組合せを監視モデルに決定する。制御装置3は、加工状態を正確に評価可能とする監視モデルを得ることができ、レーザ加工機2による良好な加工を継続させることができる。以上により、制御装置3は、レーザ加工機2による良好な加工を継続させることができるという効果を奏する。レーザ加工システム1は、比較的少ないデータに基づいて監視モデルを決定することができることによって、生産性を向上させることができる。 According to the second embodiment, the control device 3 determines, as the monitoring model, a combination of a plurality of trained models in which the weights of each trained model are adjusted. The control device 3 can obtain a monitoring model that enables accurate evaluation of the machining state, and can allow the laser beam machine 2 to continue good machining. As described above, the control device 3 has the effect of allowing the laser processing machine 2 to continue good processing. The laser processing system 1 can improve productivity by being able to determine a monitoring model based on relatively little data.

実施の形態3.
実施の形態1および2では、あらかじめ複数の学習済モデルが設定される例を説明した。実施の形態3では、レーザ加工システム1での学習によって学習済モデルを追加する例について説明する。実施の形態3では、実施の形態1または2と同一の構成要素には同一の符号を付し、実施の形態1または2とは異なる構成について主に説明する。
Embodiment 3.
In the first and second embodiments, an example has been described in which a plurality of trained models are set in advance. In Embodiment 3, an example will be described in which a learned model is added through learning in the laser processing system 1. In Embodiment 3, the same components as in Embodiment 1 or 2 are given the same reference numerals, and configurations that are different from Embodiment 1 or 2 will be mainly explained.

図8は、実施の形態3にかかるレーザ加工システム1が有する制御装置40の構成例を示す図である。実施の形態3にかかるレーザ加工システム1は、レーザ加工機2と制御装置40とを備える。制御装置40は、加工制御部28と加工監視部41とを備える。制御装置40は、レーザ加工機2の外部の装置であっても良く、レーザ加工機2に包含される装置であっても良い。または、制御装置40のうち加工制御部28がレーザ加工機2に包含される装置により実現され、制御装置40のうち加工監視部41がレーザ加工機2の外部の装置により実現されても良い。 FIG. 8 is a diagram showing a configuration example of the control device 40 included in the laser processing system 1 according to the third embodiment. A laser processing system 1 according to the third embodiment includes a laser processing machine 2 and a control device 40. The control device 40 includes a processing control section 28 and a processing monitoring section 41. The control device 40 may be a device external to the laser processing machine 2 or may be a device included in the laser processing machine 2. Alternatively, the processing control section 28 of the control device 40 may be realized by a device included in the laser beam machine 2, and the processing monitoring section 41 of the control device 40 may be realized by a device external to the laser beam machine 2.

加工監視部41は、データ取得部21と、特徴量算出部22と、加工状態評価部23と、加工パラメータ補正部25と、学習済モデル保持部26と、監視モデル保持部27と、監視モデル決定部42と、学習部43とを備える。 The machining monitoring unit 41 includes a data acquisition unit 21, a feature value calculation unit 22, a machining state evaluation unit 23, a machining parameter correction unit 25, a learned model holding unit 26, a monitoring model holding unit 27, and a monitoring model It includes a determining section 42 and a learning section 43.

学習部43は、特徴量算出部22によって算出された特徴量を特徴量算出部22から取得する。学習部43は、レーザ加工機2による加工の状態を示す情報を取得する。学習部43は、特徴量とレーザ加工機2による加工の状態との関係を学習することによって学習済モデルを生成し、生成された学習済モデルを学習済モデル保持部26に追加する。 The learning section 43 acquires the feature amount calculated by the feature amount calculation section 22 from the feature amount calculation section 22 . The learning unit 43 acquires information indicating the state of processing by the laser processing machine 2. The learning unit 43 generates a learned model by learning the relationship between the feature amount and the state of machining by the laser processing machine 2, and adds the generated learned model to the learned model holding unit 26.

監視モデル決定部42は、学習済モデル保持部26にて保持されている複数の学習済モデルの組合せについて各学習済モデルの出力値に対する重みを調整し、各学習済モデルについての重みが調整された複数の学習済モデルの組合せを監視モデルに決定する。学習済モデル保持部26にて保持されている複数の学習済モデルには、学習部43によって追加された学習済モデルが含まれる。 The monitoring model determining unit 42 adjusts the weight for the output value of each trained model for the combination of the plurality of trained models held in the trained model holding unit 26, and adjusts the weight for each trained model. A combination of trained models is determined as a monitoring model. The plurality of learned models held in the learned model holding unit 26 include the learned models added by the learning unit 43.

複数の学習済モデルの各々は、例えば図3に示すニューラルネットワークである。学習部43は、教師あり学習によって特徴量と加工の状態との関係を学習し、学習済モデルを生成する。 Each of the plurality of trained models is, for example, a neural network shown in FIG. 3. The learning unit 43 learns the relationship between the feature amount and the processing state by supervised learning, and generates a learned model.

図9は、実施の形態3にかかる制御装置40が有する監視モデル決定部42の構成例を示す図である。監視モデル決定部42は、重み決定部44を備える。重み決定部44は、各学習済モデルについての重みを調整して、各学習済モデルについての重みを決定する。 FIG. 9 is a diagram illustrating a configuration example of the monitoring model determination unit 42 included in the control device 40 according to the third embodiment. The monitoring model determining section 42 includes a weight determining section 44 . The weight determination unit 44 adjusts the weight for each trained model and determines the weight for each trained model.

監視モデル決定部42は、学習済モデル保持部26から複数の学習済モデルを読み出す。図9に示す例では、学習済モデル保持部26には5つの学習済モデルが保持されており、監視モデル決定部42が5つの学習済モデルを読み出したとする。5つの学習済モデルのうちの2つは、学習部43によって追加された学習済モデルである。 The monitoring model determining unit 42 reads out a plurality of trained models from the trained model holding unit 26. In the example shown in FIG. 9, it is assumed that the learned model holding unit 26 holds five learned models, and the monitoring model determination unit 42 reads out the five learned models. Two of the five learned models are learned models added by the learning unit 43.

図9に示すv1、v2、v3、v4、およびv5は、各学習済モデルの出力値に対する重みを表す。重み決定部44は、v1、v2、v3、v4、およびv5の各々を調整する。図9に示す破線の矢印は、重み決定部44によりv1、v2、v3、v4、およびv5の各々を調整することを示している。 v1, v2, v3, v4, and v5 shown in FIG. 9 represent weights for the output values of each trained model. The weight determining unit 44 adjusts each of v1, v2, v3, v4, and v5. The broken line arrows shown in FIG. 9 indicate that the weight determination unit 44 adjusts each of v1, v2, v3, v4, and v5.

加工状態評価部23は、各学習済モデルについての重みが調整された複数の学習済モデルの組合せにより、レーザ加工機2による加工の状態を評価する。監視モデル決定部42は、加工状態評価部23にて出力された評価結果とワーク10の観察による評価結果との差が小さくなるように、v1、v2、v3、v4、およびv5の各々を調整する。これにより、監視モデル決定部42は、加工状態評価部23により出力された評価結果がワーク10の観察による評価結果に一致するように、v1、v2、v3、v4、およびv5の各々を調整する。 The machining state evaluation unit 23 evaluates the machining state of the laser beam machine 2 based on a combination of a plurality of learned models with adjusted weights for each learned model. The monitoring model determining unit 42 adjusts each of v1, v2, v3, v4, and v5 so that the difference between the evaluation result output by the machining state evaluation unit 23 and the evaluation result obtained by observing the workpiece 10 becomes small. do. Thereby, the monitoring model determining unit 42 adjusts each of v1, v2, v3, v4, and v5 so that the evaluation result output by the machining state evaluation unit 23 matches the evaluation result obtained by observing the workpiece 10. .

監視モデル決定部42は、加工状態評価部23にて出力された評価結果がワーク10の観察による評価結果に一致するように重みが調整された5つの学習済モデルの組合せを、監視モデルに決定する。または、監視モデル決定部42は、加工状態評価部23にて出力された評価結果がワーク10の観察による評価結果に最も近くなるように重みが調整された5つの学習済モデルの組合せを、監視モデルに決定する。このように、監視モデル決定部42は、各学習済モデルについての重みが調整された複数の学習済モデルの組合せを監視モデルに決定する。監視モデル決定部42は、決定された監視モデルを監視モデル保持部27に保存する。監視モデル保持部27は、監視モデルを保持する。 The monitoring model determination unit 42 determines, as the monitoring model, a combination of five learned models whose weights have been adjusted so that the evaluation results output by the machining state evaluation unit 23 match the evaluation results obtained by observing the workpiece 10. do. Alternatively, the monitoring model determining unit 42 monitors a combination of five learned models whose weights have been adjusted so that the evaluation result output by the machining state evaluation unit 23 is closest to the evaluation result obtained by observing the workpiece 10. Decide on the model. In this way, the monitoring model determination unit 42 determines, as the monitoring model, a combination of a plurality of trained models in which the weights of each trained model are adjusted. The monitoring model determining unit 42 stores the determined monitoring model in the monitoring model holding unit 27. The monitoring model holding unit 27 holds a monitoring model.

加工監視部20は、監視モデル決定部42により決定された監視モデルを用いて、レーザ加工機2による加工の状態を監視する。監視モデルは、特徴量が入力されることにより、重みが施された各学習済モデルの出力値の和を出力する。監視モデルは、特徴量が入力されることにより、各学習済モデルの出力値の重み付き平均を出力するものであっても良い。監視モデル決定部42は、重みと特徴量と加工の状態との関係を学習することによって、各学習済モデルの重みを決定しても良い。 The processing monitoring section 20 monitors the state of processing by the laser processing machine 2 using the monitoring model determined by the monitoring model determining section 42. The monitoring model outputs the sum of weighted output values of each trained model by inputting the feature amount. The monitoring model may output a weighted average of the output values of each trained model by inputting the feature amount. The monitoring model determination unit 42 may determine the weight of each learned model by learning the relationship between the weight, the feature amount, and the processing state.

学習部43は、実際にレーザ加工機2から得られたセンサデータを基に算出された特徴量を用いて、学習済モデルを生成する。制御装置40は、かかる学習済モデルを基に監視モデルを作成することで、レーザ加工機2の実際の状態に基づいた高精度な監視モデルを得ることができる。 The learning unit 43 generates a learned model using feature amounts calculated based on sensor data actually obtained from the laser processing machine 2. By creating a monitoring model based on the learned model, the control device 40 can obtain a highly accurate monitoring model based on the actual state of the laser processing machine 2.

学習部43は、特徴量と加工の状態を示す情報とを用いて新たな学習済モデルを生成する。または、学習部43は、過去に生成された学習済モデルの追加学習を行っても良い。学習部43によって学習済モデル保持部26に学習済モデルが追加されることによって、学習済モデル保持部26には追加された学習済モデルが蓄積されても良い。学習済モデル保持部26に追加された学習済モデルは、学習済モデル保持部26から適宜削除されても良い。 The learning unit 43 generates a new trained model using the feature amounts and information indicating the state of processing. Alternatively, the learning unit 43 may perform additional learning of a trained model generated in the past. When the learned model is added to the learned model holding unit 26 by the learning unit 43, the added learned model may be accumulated in the learned model holding unit 26. The trained model added to the trained model holding unit 26 may be deleted from the trained model holding unit 26 as appropriate.

制御装置40では、レーザ加工機2によって加工されるワーク10の材料が変更される際に、学習部43によって生成された学習済モデルが学習済モデル保持部26に追加されるか、または、学習部43によって生成され学習済モデル保持部26に追加された学習済モデルが学習済モデル保持部26から削除されても良い。制御装置40は、ワーク10の材料が変更される際に、学習済モデル保持部26に保持される学習済モデルが更新されることによって、ワーク10の材料に応じた高精度な監視モデルを得ることができる。 In the control device 40, when the material of the workpiece 10 processed by the laser processing machine 2 is changed, the learned model generated by the learning section 43 is added to the learned model holding section 26, or the learned model is added to the learned model holding section 26, or The trained model generated by the unit 43 and added to the trained model holding unit 26 may be deleted from the trained model holding unit 26. The control device 40 obtains a highly accurate monitoring model according to the material of the work 10 by updating the learned model held in the learned model holding unit 26 when the material of the work 10 is changed. be able to.

制御装置40では、レーザ加工機2による加工の状態が変化した際に、学習部43によって生成された学習済モデルが学習済モデル保持部26に追加されるか、または、学習部43によって生成され学習済モデル保持部26に追加された学習済モデルが学習済モデル保持部26から削除されても良い。加工の状態の変化とは、例えば、加工の状態が良好な状態から不良な状態へ変化することなどである。制御装置40は、加工の状態が変化した際に、学習済モデル保持部26に保持される学習済モデルが更新されることによって、加工の状態に応じた高精度な監視モデルを得ることができる。 In the control device 40, when the state of processing by the laser processing machine 2 changes, the learned model generated by the learning section 43 is added to the learned model holding section 26, or the learned model generated by the learning section 43 is added to the learned model holding section 26, or the learned model generated by the learning section 43 is The trained model added to the trained model holding unit 26 may be deleted from the trained model holding unit 26. A change in the machining state is, for example, a change in the machining state from a good state to a poor state. The control device 40 can obtain a highly accurate monitoring model according to the machining state by updating the learned model held in the learned model holding unit 26 when the machining state changes. .

学習部43による学習結果である学習済モデルは、特徴量が入力されることによって、加工の状態の評価結果と補正量との少なくとも一方を出力する学習済モデルであれば良い。加工パラメータ補正部25は、特徴量算出部22によって算出された特徴量を監視モデルへ入力することによって、補正量を算出しても良い。 The learned model that is the learning result by the learning unit 43 may be any learned model that outputs at least one of the processing state evaluation result and the correction amount by inputting the feature amount. The processing parameter correction section 25 may calculate the correction amount by inputting the feature amount calculated by the feature amount calculation section 22 to the monitoring model.

加工状態評価部23は、特徴量算出部22によって算出された特徴量以外の情報を複数の学習済モデルの各々へ入力することによって、レーザ加工機2による加工の状態を評価しても良い。複数の学習済モデルの各々へ入力される情報の例は、評価時における加工パラメータの値、評価時における加工光学系の温度、加工光学系の温度変化、ワーク10の厚さ、またはワーク10の材料などの情報である。この場合、学習部43は、かかる情報と特徴量と加工の状態との関係を学習することによって、学習済モデルを生成する。また、加工状態評価部23は、かかる情報と特徴量とを監視モデルへ入力することによって、レーザ加工機2による加工の状態を評価する。 The machining state evaluation unit 23 may evaluate the machining state by the laser beam machine 2 by inputting information other than the feature amount calculated by the feature amount calculation unit 22 to each of the plurality of learned models. Examples of information input to each of the plurality of trained models include values of processing parameters at the time of evaluation, temperature of the processing optical system at the time of evaluation, temperature change of the processing optical system, thickness of the workpiece 10, or This is information such as materials. In this case, the learning unit 43 generates a learned model by learning the relationship between the information, the feature amount, and the processing state. Further, the machining state evaluation unit 23 evaluates the machining state by the laser processing machine 2 by inputting such information and feature amounts to the monitoring model.

上記説明では、学習部43は、制御装置40の内部に備えられる。学習部43は、制御装置40の外部の装置によって実現されても良い。学習部43を実現する装置である学習装置は、ネットワークを介して制御装置40に接続可能な装置でも良い。学習装置は、クラウドサーバ上に存在する装置でも良い。 In the above description, the learning section 43 is provided inside the control device 40. The learning unit 43 may be realized by a device external to the control device 40. The learning device that implements the learning section 43 may be a device that can be connected to the control device 40 via a network. The learning device may be a device existing on a cloud server.

実施の形態3によると、制御装置40は、各学習済モデルについての重みが調整された複数の学習済モデルの組合せを監視モデルに決定する。制御装置40は、加工状態を正確に評価可能とする監視モデルを得ることができ、レーザ加工機2による良好な加工を継続させることができる。以上により、制御装置40は、レーザ加工機2による良好な加工を継続させることができるという効果を奏する。レーザ加工システム1は、比較的少ないデータに基づいて監視モデルを決定することができることによって、生産性を向上させることができる。制御装置40は、実際にレーザ加工機2から得られたセンサデータを基に算出された特徴量を用いて学習済モデルを生成することで、高精度な監視モデルを得ることができる。 According to the third embodiment, the control device 40 determines, as the monitoring model, a combination of a plurality of trained models in which the weights of each trained model are adjusted. The control device 40 can obtain a monitoring model that enables accurate evaluation of the machining state, and can allow the laser beam machine 2 to continue good machining. As described above, the control device 40 has the effect of allowing the laser processing machine 2 to continue good processing. The laser processing system 1 can improve productivity by being able to determine a monitoring model based on relatively little data. The control device 40 can obtain a highly accurate monitoring model by generating a learned model using feature amounts calculated based on sensor data actually obtained from the laser processing machine 2.

次に、実施の形態1から3にかかる制御装置3,40を実現するハードウェアについて説明する。制御装置3,40は、処理回路により実現される。処理回路は、プロセッサがソフトウェアを実行する回路であっても良いし、専用の回路であっても良い。 Next, hardware that realizes the control devices 3 and 40 according to the first to third embodiments will be explained. The control devices 3 and 40 are realized by processing circuits. The processing circuit may be a circuit on which a processor executes software, or may be a dedicated circuit.

処理回路がソフトウェアにより実現される場合、処理回路は、例えば、図10に示す制御回路50である。図10は、実施の形態1から3にかかる制御回路50の構成例を示す図である。制御回路50は、入力部51、プロセッサ52、メモリ53、および出力部54を備える。入力部51は、制御回路50の外部から入力されたデータを受信してプロセッサ52に与えるインターフェース回路である。出力部54は、プロセッサ52またはメモリ53からのデータを制御回路50の外部に送るインターフェース回路である。 When the processing circuit is implemented by software, the processing circuit is, for example, the control circuit 50 shown in FIG. FIG. 10 is a diagram showing a configuration example of the control circuit 50 according to the first to third embodiments. The control circuit 50 includes an input section 51, a processor 52, a memory 53, and an output section 54. The input unit 51 is an interface circuit that receives data input from outside the control circuit 50 and provides it to the processor 52. The output unit 54 is an interface circuit that sends data from the processor 52 or memory 53 to the outside of the control circuit 50.

処理回路が図10に示す制御回路50である場合、制御装置3,40は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ53に格納される。処理回路は、メモリ53に記憶されたプログラムをプロセッサ52が読み出して実行することにより、制御装置3,40の各機能を実現する。すなわち、処理回路は、制御装置3,40の処理が結果的に実行されることになるプログラムを格納するためのメモリ53を備える。また、これらのプログラムは、制御装置3,40の手順および方法をコンピュータに実行させるものであるともいえる。 When the processing circuit is the control circuit 50 shown in FIG. 10, the control devices 3 and 40 are realized by software, firmware, or a combination of software and firmware. Software or firmware is written as a program and stored in memory 53. The processing circuit realizes each function of the control devices 3 and 40 by having the processor 52 read and execute a program stored in the memory 53. That is, the processing circuit includes a memory 53 for storing a program by which the processing of the control devices 3 and 40 will be executed as a result. It can also be said that these programs cause the computer to execute the procedures and methods of the control devices 3 and 40.

プロセッサ52は、CPU(Central Processing Unit)である。プロセッサ52は、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、またはDSP(Digital Signal Processor)でも良い。メモリ53は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(登録商標)(Electrically Erasable Programmable Read Only Memory)等の、不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスクまたはDVD(Digital Versatile Disc)等が該当する。 The processor 52 is a CPU (Central Processing Unit). The processor 52 may be a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a processor, or a DSP (Digital Signal Processor). The memory 53 is a nonvolatile memory such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), and EEPROM (registered trademark) (Electrically Erasable Programmable Read Only Memory). Alternatively, volatile semiconductor memory, magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD (Digital Versatile Disc), etc. are applicable.

図10は、汎用のプロセッサ52およびメモリ53により制御装置3,40を実現する場合のハードウェアの例であるが、制御装置3,40は、専用のハードウェア回路により実現されても良い。図11は、実施の形態1から3にかかる専用のハードウェア回路55の構成例を示す図である。 Although FIG. 10 shows an example of hardware in which the control devices 3 and 40 are realized by a general-purpose processor 52 and a memory 53, the control devices 3 and 40 may also be realized by dedicated hardware circuits. FIG. 11 is a diagram showing a configuration example of the dedicated hardware circuit 55 according to the first to third embodiments.

専用のハードウェア回路55は、入力部51、出力部54、および処理回路56を備える。処理回路56は、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、またはこれらを組み合わせた回路である。制御装置3,40の各機能を機能別に処理回路56で実現しても良いし、各機能をまとめて処理回路56で実現しても良い。なお、制御装置3,40は、制御回路50とハードウェア回路55とが組み合わされて実現されても良い。 The dedicated hardware circuit 55 includes an input section 51, an output section 54, and a processing circuit 56. The processing circuit 56 is a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or a combination thereof. Each function of the control devices 3 and 40 may be realized by the processing circuit 56 for each function, or each function may be realized by the processing circuit 56 collectively. Note that the control devices 3 and 40 may be realized by combining the control circuit 50 and the hardware circuit 55.

学習部43が制御装置40の外部の装置である場合、かかる装置である学習装置は、制御装置3,40と同様に、処理回路により実現される。学習装置を実現する処理回路は、図10に示す制御回路50、または、図11に示す専用のハードウェア回路55である。 When the learning unit 43 is a device external to the control device 40, the learning device that is such a device is realized by a processing circuit similarly to the control devices 3 and 40. The processing circuit that realizes the learning device is the control circuit 50 shown in FIG. 10 or the dedicated hardware circuit 55 shown in FIG. 11.

以上の各実施の形態に示した構成は、本開示の内容の一例を示すものである。各実施の形態の構成は、別の公知の技術と組み合わせることが可能である。各実施の形態の構成同士が適宜組み合わせられても良い。本開示の要旨を逸脱しない範囲で、各実施の形態の構成の一部を省略または変更することが可能である。 The configurations shown in each of the embodiments above are examples of the contents of the present disclosure. The configuration of each embodiment can be combined with other known techniques. The configurations of each embodiment may be combined as appropriate. It is possible to omit or change a part of the configuration of each embodiment without departing from the gist of the present disclosure.

1 レーザ加工システム、2 レーザ加工機、3,40 制御装置、4 レーザ発振器、5 ケーブル、6 加工ヘッド、7 加工ノズル、8 音センサ、9 光センサ、10 ワーク、11 コリメート光学系、12 結像光学系、13 保護ガラス、14 加工ヘッド駆動部、15,16 移動機構、20,41 加工監視部、21 データ取得部、22 特徴量算出部、23 加工状態評価部、24,30,42 監視モデル決定部、25 加工パラメータ補正部、26 学習済モデル保持部、27 監視モデル保持部、28 加工制御部、31,44 重み決定部、43 学習部、50 制御回路、51 入力部、52 プロセッサ、53 メモリ、54 出力部、55 ハードウェア回路、56 処理回路。 1 Laser processing system, 2 Laser processing machine, 3, 40 Control device, 4 Laser oscillator, 5 Cable, 6 Processing head, 7 Processing nozzle, 8 Sound sensor, 9 Optical sensor, 10 Work, 11 Collimating optical system, 12 Imaging Optical system, 13 Protective glass, 14 Processing head drive unit, 15, 16 Movement mechanism, 20, 41 Processing monitoring unit, 21 Data acquisition unit, 22 Feature value calculation unit, 23 Processing state evaluation unit, 24, 30, 42 Monitoring model Determining unit, 25 Processing parameter correction unit, 26 Learned model holding unit, 27 Monitoring model holding unit, 28 Processing control unit, 31, 44 Weight determining unit, 43 Learning unit, 50 Control circuit, 51 Input unit, 52 Processor, 53 memory, 54 output section, 55 hardware circuit, 56 processing circuit.

Claims (10)

加工機による加工の状態を示す特徴量と前記加工機による加工の状態との関係を学習した結果である学習済モデルを複数保持する学習済モデル保持部と、
複数の前記学習済モデルの各々へ前記特徴量を入力することにより、または、複数の前記学習済モデルの組合せへ前記特徴量を入力することにより、前記加工機による加工の状態を評価する加工状態評価部と、
前記加工機によって加工されたワークの観察により加工の状態を評価した結果と前記加工状態評価部による評価結果とに基づいて、前記加工機による加工の状態の監視に用いる監視モデルである、前記学習済モデルまたは複数の前記学習済モデルの組合せを決定する監視モデル決定部と、
前記監視モデルを用いて前記加工機による加工の状態を監視した結果に基づいて前記加工機を制御する加工制御部と、を備える
ことを特徴とする制御装置。
a learned model holding unit that holds a plurality of learned models that are results of learning a relationship between a feature value indicating a state of processing by a processing machine and a state of processing by the processing machine;
a machining state in which the state of machining by the processing machine is evaluated by inputting the feature amounts to each of the plurality of trained models or by inputting the feature amounts to a combination of the plurality of trained models; Evaluation department and
The learning, which is a monitoring model used for monitoring the machining state by the processing machine, based on the result of evaluating the machining state by observing the workpiece machined by the processing machine and the evaluation result by the machining state evaluation unit. a monitoring model determining unit that determines a trained model or a combination of the trained models;
A control device comprising: a processing control unit that controls the processing machine based on a result of monitoring the state of processing by the processing machine using the monitoring model.
前記監視モデル決定部は、前記学習済モデル保持部にて保持されている複数の前記学習済モデルの1つを前記監視モデルに決定する
ことを特徴とする請求項1に記載の制御装置。
The control device according to claim 1, wherein the monitoring model determining unit determines one of the plurality of learned models held in the learned model holding unit as the monitoring model.
前記監視モデル決定部は、前記学習済モデル保持部にて保持されている複数の前記学習済モデルの組合せについて各前記学習済モデルの出力値に対する重みを調整し、各前記学習済モデルについての重みが調整された複数の前記学習済モデルの組合せを前記監視モデルに決定する
ことを特徴とする請求項1に記載の制御装置。
The monitoring model determining unit adjusts the weight for the output value of each trained model for the combination of the plurality of trained models held in the trained model holding unit, and determines the weight for each trained model. The control device according to claim 1, wherein a combination of the plurality of learned models, each of which has been adjusted, is determined as the monitoring model.
前記加工機は、レーザ光により前記ワークを加工するレーザ加工機であって、
前記レーザ加工機による加工の際に発生する光の検出結果を示すデータと前記レーザ加工機による加工の際に発生する音の検出結果を示すデータとを取得するデータ取得部と、
前記データ取得部によって取得されたデータから前記特徴量を算出する特徴量算出部と、を備える
ことを特徴とする請求項1から3のいずれか1つに記載の制御装置。
The processing machine is a laser processing machine that processes the workpiece with a laser beam,
a data acquisition unit that acquires data indicating a detection result of light generated during processing by the laser processing machine and data indicating a detection result of sound generated during processing by the laser processing machine;
The control device according to any one of claims 1 to 3, further comprising: a feature amount calculation unit that calculates the feature amount from data acquired by the data acquisition unit.
前記加工機は、レーザ光により前記ワークを加工するレーザ加工機であって、
前記学習済モデル保持部に保持される複数の前記学習済モデルの各々は、板状の前記ワークの厚さと前記レーザ加工機による加工の際における加工ガスの種類との少なくとも一方が互いに異なる複数のケースの各々における前記特徴量と加工の状態との関係を学習した結果である
ことを特徴とする請求項1からのいずれか1つに記載の制御装置。
The processing machine is a laser processing machine that processes the workpiece with a laser beam,
Each of the plurality of learned models held in the learned model holding section is a plurality of learned models that are different from each other in at least one of the thickness of the plate-shaped workpiece and the type of processing gas used during processing by the laser processing machine. The control device according to any one of claims 1 to 3 , wherein the control device is a result of learning the relationship between the feature amount and the machining state in each case.
前記特徴量と前記加工機による加工の状態との関係を学習することによって前記学習済モデルを生成し、生成された前記学習済モデルを前記学習済モデル保持部に追加する学習部を備える
ことを特徴とする請求項1からのいずれか1つに記載の制御装置。
A learning unit that generates the learned model by learning the relationship between the feature amount and the state of machining by the processing machine, and adds the generated learned model to the learned model holding unit. A control device according to any one of claims 1 to 3 .
前記加工機によって加工される前記ワークの材料が変更される際に、前記学習部によって生成された前記学習済モデルが前記学習済モデル保持部に追加されるか、または、前記学習部によって生成され前記学習済モデル保持部に追加された前記学習済モデルが前記学習済モデル保持部から削除される
ことを特徴とする請求項6に記載の制御装置。
When the material of the workpiece processed by the processing machine is changed, the learned model generated by the learning section is added to the learned model holding section, or the learned model generated by the learning section is added to the learned model holding section. The control device according to claim 6, wherein the learned model added to the learned model holding unit is deleted from the learned model holding unit.
前記加工機による加工の状態が変化した際に、前記学習部によって生成された前記学習済モデルが前記学習済モデル保持部に追加されるか、または、前記学習部によって生成され前記学習済モデル保持部に追加された前記学習済モデルが前記学習済モデル保持部から削除される
ことを特徴とする請求項6に記載の制御装置。
When the state of machining by the processing machine changes, the learned model generated by the learning section is added to the learned model holding section, or the learned model generated by the learning section and held is 7. The control device according to claim 6, wherein the learned model added to the learned model storage section is deleted from the learned model holding section.
レーザ光によりワークを加工するレーザ加工機と、
前記レーザ加工機を制御する制御装置と、を備え、
前記制御装置は、
前記レーザ加工機による加工の状態を示す特徴量と前記レーザ加工機による加工の状態との関係を学習した結果である学習済モデルを複数保持する学習済モデル保持部と、
複数の前記学習済モデルの各々へ前記特徴量を入力することにより、または、複数の前記学習済モデルの組合せへ前記特徴量を入力することにより、前記レーザ加工機による加工の状態を評価する加工状態評価部と、
前記レーザ加工機によって加工された前記ワークの観察により加工の状態を評価した結果と、前記加工状態評価部による評価結果とに基づいて、前記レーザ加工機による加工の状態の監視に用いる監視モデルである、前記学習済モデルまたは複数の前記学習済モデルの組合せを決定する監視モデル決定部と、
前記監視モデルを用いて前記レーザ加工機による加工の状態を監視した結果に基づいて前記レーザ加工機を制御する加工制御部と、を備える
ことを特徴とするレーザ加工システム。
A laser processing machine that processes a workpiece with laser light,
A control device that controls the laser processing machine,
The control device includes:
a learned model holding unit that holds a plurality of learned models that are results of learning a relationship between a feature amount indicating a state of processing by the laser processing machine and a state of processing by the laser processing machine;
Processing that evaluates the state of machining by the laser processing machine by inputting the feature amount to each of the plurality of trained models or by inputting the feature amount to a combination of the plurality of trained models. a condition evaluation section;
A monitoring model used for monitoring the processing state by the laser processing machine based on the result of evaluating the processing state by observing the workpiece processed by the laser processing machine and the evaluation result by the processing state evaluation unit. a monitoring model determining unit that determines the trained model or a combination of the trained models;
A laser processing system comprising: a processing control section that controls the laser processing machine based on a result of monitoring the processing state of the laser processing machine using the monitoring model.
レーザ光によりワークを加工するレーザ加工機による加工の状態を示す特徴量を取得するステップと、
前記レーザ加工機による加工の状態と前記特徴量との関係を学習した結果である複数の学習済モデルの各々へ取得された前記特徴量を入力することにより、または、複数の前記学習済モデルの組合せへ取得された前記特徴量を入力することにより、前記レーザ加工機による加工の状態を評価するステップと、
前記レーザ加工機によって加工された前記ワークの観察により加工の状態を評価した結果と、加工の状態を評価する前記ステップによる評価結果とに基づいて、前記レーザ加工機による加工の状態の監視に用いる監視モデルである、前記学習済モデルまたは複数の前記学習済モデルの組合せを決定するステップと、
前記監視モデルを用いて前記レーザ加工機による加工の状態を監視した結果に基づいて前記レーザ加工機を制御するステップと、を含む
ことを特徴とするレーザ加工方法。
a step of acquiring a feature amount indicating a processing state by a laser processing machine that processes a workpiece with a laser beam;
By inputting the acquired feature amount to each of a plurality of learned models that are the results of learning the relationship between the machining state by the laser processing machine and the feature amount, or by inputting the obtained feature amount to each of the plurality of learned models, evaluating the state of machining by the laser processing machine by inputting the acquired feature amounts into a combination;
Used to monitor the processing state by the laser processing machine based on the result of evaluating the processing state by observing the workpiece processed by the laser processing machine and the evaluation result from the step of evaluating the processing state. determining the trained model or a combination of the trained models, which is a monitoring model;
A laser processing method comprising: controlling the laser processing machine based on a result of monitoring the processing state of the laser processing machine using the monitoring model.
JP2023562788A 2023-06-20 2023-06-20 Control device, laser processing system, and laser processing method Active JP7415097B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023022679 2023-06-20

Publications (1)

Publication Number Publication Date
JP7415097B1 true JP7415097B1 (en) 2024-01-16

Family

ID=89534350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023562788A Active JP7415097B1 (en) 2023-06-20 2023-06-20 Control device, laser processing system, and laser processing method

Country Status (1)

Country Link
JP (1) JP7415097B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020138279A (en) 2019-02-28 2020-09-03 ファナック株式会社 Processing condition adjustment device and processing condition adjustment system
JP2021135679A (en) 2020-02-26 2021-09-13 コニカミノルタ株式会社 Process machine state estimation system, and process machine state estimation program
WO2022215169A1 (en) 2021-04-06 2022-10-13 三菱電機株式会社 Laser machining apparatus and laser machining method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020138279A (en) 2019-02-28 2020-09-03 ファナック株式会社 Processing condition adjustment device and processing condition adjustment system
JP2021135679A (en) 2020-02-26 2021-09-13 コニカミノルタ株式会社 Process machine state estimation system, and process machine state estimation program
WO2022215169A1 (en) 2021-04-06 2022-10-13 三菱電機株式会社 Laser machining apparatus and laser machining method

Similar Documents

Publication Publication Date Title
CN107199397B (en) Machine learning device, laser processing system, and machine learning method
US10643127B2 (en) Machine learning apparatus for learning condition for starting laser machining, laser apparatus, and machine learning method
US11167377B2 (en) Machining condition setting device and 3D laser machining system
US12013670B2 (en) Monitoring a laser machining process using deep folding neural networks
US10761037B2 (en) Laser processing device for determining the presence of contamination on a protective window
JP6659654B2 (en) Laser processing equipment that warns of external optical system abnormality before laser processing
US20060049158A1 (en) Method and apparatus for regulating an automatic treatment process
US10537964B2 (en) Laser machining apparatus and laser machining method for performing laser machining while controlling reflected light
WO2018000974A1 (en) Laser processing method and device for removing thin film or coating
JP6854984B1 (en) Laser machining system
US11565344B2 (en) Device and method for learning focal position offset of laser processing apparatus, and laser processing system correcting focal position offset
JP2005161361A (en) Laser beam machine control method and laser beam machine
JP2022519202A (en) Methods for automatically identifying the effects of laser machining parameters on laser machining and laser machining machine and computer program products
US11590579B2 (en) Method and apparatus for estimating depth of molten pool during printing process, and 3D printing system
WO2015118829A1 (en) Laser machining device
US20230234153A1 (en) Method for defining welding parameters for a welding process on a workpiece and welding device for carrying out a welding process on a workpiece with defined welding parameters
JP7415097B1 (en) Control device, laser processing system, and laser processing method
JP2019005775A (en) Manufacturing method of laser beam machined product, manufacturing method of battery, and laser beam machined product
JP2016155140A (en) Laser processing discrimination method and apparatus
JP6956329B2 (en) Alignment method
KR20160073785A (en) Laser processing system and laser processing method using the laser processing system
US20210370438A1 (en) Laser processing device
WO2023199409A1 (en) Laser processing device, control device, laser processing system, and laser processing method
US20220379404A1 (en) Laser welding system and laser welding control method
CN116329740B (en) Method and device for in-situ monitoring and process control of laser fusion welding

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231012

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231012

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231228

R150 Certificate of patent or registration of utility model

Ref document number: 7415097

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150