JP7415097B1 - Control device, laser processing system, and laser processing method - Google Patents
Control device, laser processing system, and laser processing method Download PDFInfo
- Publication number
- JP7415097B1 JP7415097B1 JP2023562788A JP2023562788A JP7415097B1 JP 7415097 B1 JP7415097 B1 JP 7415097B1 JP 2023562788 A JP2023562788 A JP 2023562788A JP 2023562788 A JP2023562788 A JP 2023562788A JP 7415097 B1 JP7415097 B1 JP 7415097B1
- Authority
- JP
- Japan
- Prior art keywords
- processing
- model
- state
- processing machine
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims abstract description 489
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000003754 machining Methods 0.000 claims abstract description 262
- 238000011156 evaluation Methods 0.000 claims abstract description 251
- 238000012544 monitoring process Methods 0.000 claims abstract description 244
- 238000004364 calculation method Methods 0.000 claims description 30
- 238000000034 method Methods 0.000 claims description 24
- 239000000463 material Substances 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 7
- 238000001514 detection method Methods 0.000 claims description 4
- 238000003860 storage Methods 0.000 claims description 2
- 230000003287 optical effect Effects 0.000 description 70
- 238000012937 correction Methods 0.000 description 65
- 238000003384 imaging method Methods 0.000 description 21
- 239000007789 gas Substances 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 230000007246 mechanism Effects 0.000 description 13
- 230000008859 change Effects 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 11
- 230000007547 defect Effects 0.000 description 7
- 210000002569 neuron Anatomy 0.000 description 7
- 239000011521 glass Substances 0.000 description 5
- 230000001681 protective effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 3
- 239000001301 oxygen Substances 0.000 description 3
- 229910052760 oxygen Inorganic materials 0.000 description 3
- IJGRMHOSHXDMSA-UHFFFAOYSA-N Atomic nitrogen Chemical compound N#N IJGRMHOSHXDMSA-UHFFFAOYSA-N 0.000 description 2
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 2
- JNDMLEXHDPKVFC-UHFFFAOYSA-N aluminum;oxygen(2-);yttrium(3+) Chemical compound [O-2].[O-2].[O-2].[Al+3].[Y+3] JNDMLEXHDPKVFC-UHFFFAOYSA-N 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000003475 lamination Methods 0.000 description 2
- 238000002844 melting Methods 0.000 description 2
- 230000008018 melting Effects 0.000 description 2
- 238000003466 welding Methods 0.000 description 2
- 229910019901 yttrium aluminum garnet Inorganic materials 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 229910002092 carbon dioxide Inorganic materials 0.000 description 1
- 239000001569 carbon dioxide Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000002845 discoloration Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000005357 flat glass Substances 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 150000002500 ions Chemical class 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910052757 nitrogen Inorganic materials 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Laser Beam Processing (AREA)
Abstract
制御装置(3)は、加工機による加工の状態を示す特徴量と加工機による加工の状態との関係を学習した結果である学習済モデルを複数保持する学習済モデル保持部(26)と、複数の学習済モデルの各々へ特徴量を入力することにより、または、複数の学習済モデルの組合せへ特徴量を入力することにより、加工機による加工の状態を評価する加工状態評価部(23)と、加工機によって加工されたワークの観察により加工の状態を評価した結果と加工状態評価部(23)による評価結果とに基づいて、加工機による加工の状態の監視に用いる監視モデルである、学習済モデルまたは複数の学習済モデルの組合せを決定する監視モデル決定部(24)と、監視モデルを用いて加工機による加工の状態を監視した結果に基づいて加工機を制御する加工制御部(28)と、を備える。The control device (3) includes a learned model holding unit (26) that holds a plurality of learned models that are the results of learning the relationship between the feature amount indicating the state of processing by the processing machine and the state of processing by the processing machine; A machining state evaluation unit (23) that evaluates the state of machining by the processing machine by inputting feature quantities to each of the plurality of trained models or by inputting feature quantities to a combination of the plurality of learned models. and a monitoring model used to monitor the machining state by the processing machine based on the results of evaluating the machining state by observing the workpiece machined by the processing machine and the evaluation results by the machining state evaluation unit (23). A monitoring model determination unit (24) that determines a trained model or a combination of a plurality of trained models; and a processing control unit (24) that controls the processing machine based on the result of monitoring the state of processing by the processing machine using the monitoring model. 28) and.
Description
本開示は、レーザ加工機を制御する制御装置、レーザ加工システム、およびレーザ加工方法に関する。 The present disclosure relates to a control device that controls a laser processing machine, a laser processing system, and a laser processing method.
レーザ加工機を制御する制御装置は、あらかじめ設定された加工条件を読み出して、読み出された加工条件に従ってレーザ加工機を制御する。制御装置には、ワークの材料、ワークの厚さ、または加工ガスの種別などに対応付けられた複数の加工条件があらかじめ設定されており、複数の加工条件から加工に適した加工条件が選択される。 A control device that controls a laser beam machine reads out machining conditions set in advance, and controls the laser beam machine in accordance with the read machining conditions. The control device is preset with multiple machining conditions that are associated with the workpiece material, workpiece thickness, type of machining gas, etc., and the machining conditions suitable for the machining are selected from the multiple machining conditions. Ru.
レーザ加工機による良好な加工を可能とする加工条件は、ワークの製造元によるワークの個体差、またはワークのロットによるワークの個体差などに起因して、あらかじめ設定された加工条件から変化することがある。そこで、制御装置は、レーザ加工機による加工の状態を監視し、監視の結果に基づいて、加工に使用される加工パラメータを調整することがある。レーザ加工機は、加工パラメータを適切に調整することによって、良好な加工を行い得る。 The processing conditions that enable good processing with a laser processing machine may vary from the preset processing conditions due to individual differences in workpieces depending on the workpiece manufacturer or workpiece lots. be. Therefore, the control device may monitor the state of machining by the laser beam machine, and adjust machining parameters used for machining based on the monitoring results. A laser processing machine can perform good processing by appropriately adjusting processing parameters.
特許文献1には、ワークの加工点付近から放射する光を検出し、検出される光強度分布を基にワークの加工状態の良否を評価する数値制御装置が開示されている。特許文献1に開示されている数値制御装置は、検出される光強度分布と加工状態の良否との関係を学習することによって学習済モデルを生成し、学習済モデルを用いてワークの加工状態の良否を評価する。 Patent Document 1 discloses a numerical control device that detects light emitted from the vicinity of a processing point of a workpiece and evaluates the quality of the processing state of the workpiece based on the detected light intensity distribution. The numerical control device disclosed in Patent Document 1 generates a learned model by learning the relationship between the detected light intensity distribution and the quality of the machining state, and uses the learned model to determine the machining state of the workpiece. Evaluate the quality.
加工状態が良好であるときにおけるワークの加工点付近から放射する光の状態は、レーザ加工機の状態、または、ワークの含有成分のばらつきなどによって、変化することがある。このように光の状態が変化することがある一方、特許文献1に開示されている従来の技術の場合、加工状態の良否の評価にはあらかじめ生成された学習済モデルが用いられることから、加工状態の良否を正確に評価できないことがある。特許文献1に開示されている従来の技術によると、加工状態の良否を正確に評価できないことがあるため、レーザ加工機による良好な加工を継続できない場合があるという問題があった。 The state of light emitted from the vicinity of the processing point of the workpiece when the processing state is good may change depending on the state of the laser processing machine or variations in the components contained in the workpiece. While the state of light may change in this way, in the case of the conventional technology disclosed in Patent Document 1, a learned model generated in advance is used to evaluate the quality of the machining state. It may not be possible to accurately assess the quality of the condition. According to the conventional technique disclosed in Patent Document 1, there is a problem in that it may not be possible to accurately evaluate the quality of the machining state, and therefore it may not be possible to continue good machining using a laser beam machine.
本開示は、上記に鑑みてなされたものであって、レーザ加工機による良好な加工を継続させることができる制御装置を得ることを目的とする。 The present disclosure has been made in view of the above, and an object of the present disclosure is to obtain a control device that can continue good processing by a laser processing machine.
上述した課題を解決し、目的を達成するために、本開示にかかる制御装置は、加工機による加工の状態を示す特徴量と加工機による加工の状態との関係を学習した結果である学習済モデルを複数保持する学習済モデル保持部と、複数の学習済モデルの各々へ特徴量を入力することにより、または、複数の学習済モデルの組合せへ特徴量を入力することにより、加工機による加工の状態を評価する加工状態評価部と、加工機によって加工されたワークの観察により加工の状態を評価した結果と加工状態評価部による評価結果とに基づいて、加工機による加工の状態の監視に用いる監視モデルである、学習済モデルまたは複数の学習済モデルの組合せを決定する監視モデル決定部と、監視モデルを用いて加工機による加工の状態を監視した結果に基づいて加工機を制御する加工制御部と、を備える。 In order to solve the above-mentioned problems and achieve the purpose, a control device according to the present disclosure provides a learned control device that is a result of learning the relationship between a feature value indicating the state of processing by a processing machine and the state of processing by the processing machine. A trained model holding unit that holds multiple models, and processing by a processing machine by inputting feature quantities to each of the multiple trained models, or by inputting feature quantities to a combination of multiple trained models. A machining state evaluation unit that evaluates the state of the workpiece, and a machining state evaluation unit that evaluates the machining state by the processing machine based on the results of evaluating the machining state by observing the workpiece machined by the processing machine and the evaluation results by the machining state evaluation unit. A monitoring model determination unit that determines a trained model or a combination of multiple trained models as the monitoring model to be used, and a processing unit that controls the processing machine based on the result of monitoring the processing state of the processing machine using the monitoring model. A control unit.
本開示にかかる制御装置は、レーザ加工機による良好な加工を継続させることができる、という効果を奏する。 The control device according to the present disclosure has the effect of allowing the laser processing machine to continue good processing.
以下に、実施の形態にかかる制御装置、レーザ加工システム、およびレーザ加工方法を図面に基づいて詳細に説明する。 Below, a control device, a laser processing system, and a laser processing method according to an embodiment will be described in detail based on the drawings.
実施の形態1.
図1は、実施の形態1にかかるレーザ加工システム1の構成例を示す図である。レーザ加工システム1は、レーザ加工機2と制御装置3とを備える。レーザ加工機2は、レーザ光によりワーク10を加工する加工機である。レーザ加工機2は、レーザ光の照射によりワーク10を局所的に溶融させてワーク10を加工する。レーザ加工機2は、切断、溶接、積層加工、または熱処理といったレーザ加工を行う。図1に示す例では、ワーク10は、金属の板である。また、レーザ加工機2は、ワーク10を切断するレーザ加工を行うものとする。制御装置3は、レーザ加工機2を制御する。Embodiment 1.
FIG. 1 is a diagram showing a configuration example of a laser processing system 1 according to the first embodiment. The laser processing system 1 includes a
レーザ加工機2は、レーザ光を出力する光源であるレーザ発振器4と、加工ヘッド6と、レーザ発振器4から加工ヘッド6へのレーザ光の伝送路であるケーブル5と、ワーク10が載せられるテーブルとを備える。テーブルの図示は省略する。ケーブル5は、例えば光ファイバを備える。ケーブル5の出射端は、加工ヘッド6の内部に入れられている。
The
図1では、加工ヘッド6の内部の構成を模式的に示している。加工ヘッド6の内部には、コリメート光学系11と、結像光学系12と、保護ガラス13とが設けられている。コリメート光学系11には、ケーブル5の出射端から発散したレーザ光が入射する。コリメート光学系11は、平行光を出射する。結像光学系12は、ケーブル5の出射端の像を形成する。保護ガラス13は、ガラスの平板である。保護ガラス13は、加工ヘッド6の内部の構成を保護するための光学部品である。なお、図1では、単レンズであるコリメート光学系11と単レンズである結像光学系12とを示している。コリメート光学系11と結像光学系12との少なくとも一方は、複数のレンズで構成されても良い。
FIG. 1 schematically shows the internal configuration of the processing head 6. As shown in FIG. Inside the processing head 6, a collimating
加工ヘッド6は、ワーク10に照射させるレーザ光とワーク10へ噴射される加工ガスとが通る加工ノズル7を有する。コリメート光学系11、結像光学系12、および保護ガラス13を通過したレーザ光は、加工ノズル7を通過する。加工ガスは、加工ヘッド6の外部にガス供給源から加工ヘッド6の内部へ供給される。レーザ加工機2は、加工ヘッド6から加工ノズル7を経てワーク10へ加工ガスを噴射する。ガス供給源の図示は省略する。
The processing head 6 has a
レーザ加工機2は、加工ヘッド6を駆動する加工ヘッド駆動部14を備える。レーザ加工機2は、加工ヘッド駆動部14により、テーブルに対して加工ヘッド6を移動させることによって、レーザ光とワーク10とを相対移動させる。レーザ加工機2は、ワーク10におけるレーザ光の入射位置を制御することによって、レーザ光とワーク10とを相対移動させる。なお、レーザ加工機2は、加工ヘッド6を移動させず、加工ヘッド6に対してテーブルを移動させることによって、レーザ光とワーク10とを相対移動させるものでも良い。
The
加工ヘッド6の内部には、コリメート光学系11を移動させる移動機構15と、結像光学系12を移動させる移動機構16とが設けられている。移動機構16は、結像光学系12を光軸方向に移動させることによって、結像位置を変化させる。レーザ加工機2は、結像位置を変化させることによって、加工ノズル7とワーク10との位置関係を変化させずに、結像位置とワーク10との位置関係を変更させる。移動機構15は、結像光学系12の移動に伴って、コリメート光学系11を光軸方向に移動させることによって、コリメート光学系11の位置を調整する。または、移動機構15は、コリメート光学系11を光軸方向に移動させることによって、結像光学系12に入射するレーザ光の発散角を調整しても良い。なお、上記説明における光軸方向とは、コリメート光学系11および結像光学系12の各々の光軸の方向とする。コリメート光学系11の光軸と結像光学系12の光軸とは、互いに一致する。これらの光軸は、ワーク10へ入射するレーザ光の中心軸に一致する。
Inside the processing head 6, a
加工ヘッド6の内部には、コリメート光学系11および結像光学系12以外の光学系が設けられても良い。加工ヘッド6の内部には、光軸方向に移動することによって結像の大きさを変化させるズーム光学系が設けられても良い。レーザ加工機2は、加工ヘッド6の内部に備えられる複数の光学系のうちの少なくとも1つを光軸方向へ移動させる。結像位置は、ビームウェスト上の位置でも、ビームウェストからずれた位置でも良い。加工ヘッド6の内部には、結像光学系12の代わりに集光光学系が設けられても良い。なお、以下の説明では、加工ヘッド6の内部に設けられる光学系をまとめて、加工光学系と称することがある。
Optical systems other than the collimating
レーザ発振器4の一例は、ファイバレーザ発振器である。レーザ発振器4は、ダイレクトダイオードレーザ、炭酸ガスレーザ、銅蒸気レーザ、または各種イオンレーザでも良い。あるいは、レーザ発振器4は、励起媒体であるYAG(Yttrium Aluminum Garnet)結晶等を有する固体レーザでも良い。レーザ加工機2は、レーザ発振器4から出力されたレーザ光の波長変換を実施する波長変換部を備えても良い。
An example of the
制御装置3は、レーザ発振器4と、加工ヘッド駆動部14と、移動機構15と、移動機構16との各々へ制御信号を出力することによって、レーザ発振器4と、加工ヘッド駆動部14と、移動機構15と、移動機構16との各々を制御する。
The control device 3 outputs control signals to each of the
レーザ加工システム1は、音センサ8と光センサ9とを有する。音センサ8と光センサ9との各々は、レーザ加工機2による加工の状態を検出するセンサである。音センサ8は、加工点付近から発生する音を検出し、検出された音の大きさを示す信号を制御装置3へ出力する。光センサ9は、加工点付近から放射する光を検出し、検出された光の強度を示す信号を制御装置3へ出力する。加工点とは、ワーク10のうち加工が行われている位置であって、レーザ光が入射する位置とする。
The laser processing system 1 includes a
以下の説明では、音センサ8と光センサ9との各々によって得られるデータを、センサデータと称する。音センサ8によって得られるセンサデータは、加工時に発生する音の大きさを示すデータである。光センサ9によって得られるセンサデータは、加工時に放射される光の強度を示すデータである。音センサ8によって得られるセンサデータと光センサ9によって得られるセンサデータとの各々は、レーザ加工機2による加工の状態を示すデータである。
In the following description, data obtained by each of the
なお、レーザ加工システム1は、音センサ8および光センサ9以外のセンサを有しても良い。レーザ加工システム1は、例えば、加工点付近から発生する振動を検出する振動センサ、または、加工点付近を撮影するカメラを有しても良い。振動センサによって得られるセンサデータは、加工時に発生する振動の大きさを示すデータである。制御装置3は、カメラによって撮影された画像を処理することによって、加工が行われた部分の寸法を示すデータ、または、ワーク10の溶融状態を示すデータなどを取得する。カメラによって得られるセンサデータは、加工点付近を撮影した画像の処理によって得られるデータである。レーザ加工システム1は、音センサ8、光センサ9、振動センサ、およびカメラのうちの少なくとも1つを有する。レーザ加工システム1は、音センサ8、光センサ9、振動センサ、およびカメラのうちの2つ以上を有しても良い。レーザ加工システム1が有するセンサは、レーザ加工機2による加工の状態を検出可能なセンサであれば良く、実施の形態1にて説明するセンサに限られない。
Note that the laser processing system 1 may include sensors other than the
図1に示す例では、光センサ9は、加工ヘッド6の外部に配置されている。光センサ9は、加工ヘッド6の内部に配置されても良い。光センサ9は応答時間が短いことから、レーザ加工システム1は、光センサ9が設けられることによって、加工の状態を高速に検出することができる。音センサ8は、広範囲において音を検出可能であることから、設置位置を容易に決定できるという利点がある。
In the example shown in FIG. 1, the
次に、制御装置3の構成について説明する。図2は、実施の形態1にかかるレーザ加工システム1が有する制御装置3の構成例を示す図である。制御装置3は、レーザ加工機2による加工の状態を監視する加工監視部20と、レーザ加工機2を制御する加工制御部28とを備える。
Next, the configuration of the control device 3 will be explained. FIG. 2 is a diagram showing a configuration example of the control device 3 included in the laser processing system 1 according to the first embodiment. The control device 3 includes a
レーザ加工機2は、連続加工を行う場合に、加工ヘッド6を構成する部品の蓄熱、またはワーク10の蓄熱などによる加工不良を生じ得る。加工監視部20は、レーザ加工機2の加工状態を評価することによって、加工不良を監視する。
When the
図1に示すレーザ加工システム1では、制御装置3はレーザ加工機2の外部の装置である。レーザ加工機2と制御装置3とは、互いに通信可能に接続され、レーザ加工機2と制御装置3との間で情報の送受信を行う。制御装置3は、レーザ加工機2に包含される装置であっても良い。または、制御装置3のうち加工制御部28がレーザ加工機2に包含される装置により実現され、制御装置3のうち加工監視部20がレーザ加工機2の外部の装置により実現されても良い。レーザ加工機2の外部の装置により加工監視部20が実現される場合、加工監視部20を実現する装置と加工制御部28を実現する装置とは、互いに通信可能に接続される。
In the laser processing system 1 shown in FIG. 1, the control device 3 is a device external to the
加工監視部20は、データ取得部21と、特徴量算出部22と、加工状態評価部23と、監視モデル決定部24と、加工パラメータ補正部25と、学習済モデル保持部26と、監視モデル保持部27とを備える。
The
データ取得部21は、音センサ8および光センサ9の各々から出力されるセンサデータを取得する。すなわち、データ取得部21は、レーザ加工機2による加工の際に発生する光の検出結果であるセンサデータとレーザ加工機2による加工の際に発生する音の検出結果であるセンサデータとを取得する。音センサ8および光センサ9の各々から継続してセンサデータが入力されることによって、データ取得部21は、時系列データであるセンサデータを取得する。データ取得部21は、取得されたセンサデータを特徴量算出部22へ出力する。
The
特徴量算出部22は、データ取得部21によって取得されたセンサデータから特徴量を算出する。実施の形態1において、特徴量は、レーザ加工機2による加工の状態を示す。特徴量算出部22は、算出された特徴量を加工状態評価部23へ出力する。
The feature
特徴量は、センサデータの処理によって得られる値であって、例えば、平均値または標準偏差などの統計量である。特徴量は、周波数解析、フィルタバンク、またはウェーブレット変換といった処理によって得られる値であっても良い。特徴量算出部22は、複数の値の組合せを特徴量として算出しても良い。
The feature quantity is a value obtained by processing sensor data, and is, for example, a statistical quantity such as an average value or a standard deviation. The feature amount may be a value obtained by processing such as frequency analysis, filter bank, or wavelet transform. The feature
なお、特徴量算出部22によって算出される特徴量は、ここで例示するものに限られない。特徴量は、時系列データの一般的な解析手法である任意の手法によって算出可能な特徴量であれば良いものとする。また、特徴量算出部22は、センサデータの値をそのまま特徴量として出力しても良い。特徴量算出部22は、加工開始時における特徴量を示す特徴ベクトルの、特徴空間における位置を記憶し、加工開始後における特徴ベクトルの位置の変化量を特徴量として出力しても良い。データ取得部21が複数のセンサのセンサデータを取得する場合、特徴量算出部22は、センサごとの出力が反映された特徴量を算出しても良く、複数のセンサの出力の組合せが反映された特徴量を算出しても良い。
Note that the feature amounts calculated by the feature
学習済モデル保持部26は、複数の学習済モデルを保持する。複数の学習済モデルの各々は、レーザ加工機2による加工の状態を示す特徴量とレーザ加工機2による加工の状態との関係を学習した結果である。学習済モデル保持部26に保持される複数の学習済モデルの各々は、板状のワーク10の厚さとレーザ加工機2による加工の際における加工ガスの種類との少なくとも一方が互いに異なる複数のケースの各々における特徴量と加工の状態との関係を学習した結果である。これにより、制御装置3は、ワーク10の厚さまたは加工ガスの種類が互いに異なる複数のケースについての学習済モデルを学習済モデル保持部26に保持する。
The trained model holding unit 26 holds a plurality of trained models. Each of the plurality of learned models is a result of learning the relationship between the feature amount indicating the state of machining by the
加工状態評価部23は、学習済モデル保持部26から複数の学習済モデルを読み出す。加工状態評価部23は、特徴量算出部22によって算出された特徴量を複数の学習済モデルの各々へ入力することによって、レーザ加工機2による加工の状態を評価する。加工状態評価部23は、加工の状態の良否を判定することによって、加工の状態を評価する。すなわち、加工状態評価部23は、レーザ加工機2による加工の状態が良好と不良とのいずれに該当するかを判定する。加工状態評価部23は、加工の状態の評価結果を監視モデル決定部24へ出力する。
The machining
監視モデル決定部24には、加工状態評価部23による評価結果が入力される。また、加工状態評価部23による評価結果とは別に、レーザ加工機2によって加工されたワーク10の観察による評価結果が監視モデル決定部24へ入力される。監視モデル決定部24は、レーザ加工機2によって加工されたワーク10の観察により加工の状態を評価した結果と、加工状態評価部23による評価結果とに基づいて、監視モデルである学習済モデルを決定する。ここで説明する例では、レーザ加工機2によって加工されたワーク10をユーザが観察することによって、加工の状態をユーザが評価する。監視モデル決定部24は、学習済モデル保持部26にて保持されている複数の学習済モデルのうち、加工状態評価部23により出力された評価結果が、ユーザによる評価結果に一致する学習済モデルを、監視モデルに決定する。
The evaluation results by the machining
監視モデルに決定される学習済モデルは、ユーザによって選択されても良く、監視モデル決定部24によって選択されても良い。監視モデルに決定される学習済モデルがユーザによって選択される場合、ユーザは、複数の学習済モデルの各々について、加工状態評価部23にて出力された評価結果を確認し、加工状態評価部23にて出力された評価結果がユーザによる評価結果に一致する1つの学習済モデルを選択する。または、ユーザは、加工状態評価部23にて出力された評価結果がユーザによる評価結果に最も近い1つの学習済モデルを選択する。
The trained model determined as the monitoring model may be selected by the user or may be selected by the monitoring
ユーザは、例えば制御装置3に備えられている入力機器を操作することによって、選択した学習済モデルを示す情報を監視モデル決定部24へ入力する。図2では、入力機器の図示を省略する。監視モデル決定部24は、ユーザによって選択された学習済モデルを、監視モデルに決定する。なお、レーザ加工システム1には、加工状態評価部23による評価結果を表示する表示機器が設けられていても良い。ユーザは、表示機器に表示される評価結果を確認することにより、学習済モデルを選択することができる。図2では、表示機器の図示を省略する。
The user inputs information indicating the selected trained model to the monitoring
監視モデルに決定される学習済モデルが監視モデル決定部24によって選択される場合、ユーザは、レーザ加工機2による加工の状態を評価した結果を監視モデル決定部24へ入力する。ユーザは、例えば制御装置3に備えられている入力機器を操作することによって、加工の状態を評価した結果を監視モデル決定部24へ入力する。監視モデル決定部24は、複数の学習済モデルのうち、加工状態評価部23にて出力された評価結果がユーザによる評価結果に一致する1つの学習済モデルを選択する。または、監視モデル決定部24は、複数の学習済モデルのうち、加工状態評価部23にて出力された評価結果がユーザによる評価結果に最も近い1つの学習済モデルを選択する。監視モデル決定部24は、監視モデル決定部24によって選択された学習済モデルを、監視モデルに決定する。
When the trained model determined as the monitoring model is selected by the monitoring
監視モデル決定部24は、決定された監視モデルを監視モデル保持部27に保存する。監視モデル保持部27は、監視モデルを保持する。制御装置3は、ユーザによる評価結果と加工状態評価部23にて出力された評価結果との比較により監視モデルを決定することにより、ユーザによる評価と同様の評価を行い得る監視モデルを得ることができる。
The monitoring
加工監視部20は、監視モデル決定部24により決定された監視モデルを用いて、レーザ加工機2による加工の状態を監視する。レーザ加工機2による加工の状態を加工監視部20が監視する際に、データ取得部21は、音センサ8および光センサ9の各々から出力されるセンサデータを取得する。特徴量算出部22は、データ取得部21によって取得されたセンサデータから特徴量を算出する。
The
レーザ加工機2による加工の状態を加工監視部20が監視する際に、加工状態評価部23は、監視モデル保持部27から監視モデルを読み出す。加工状態評価部23は、特徴量算出部22によって算出された特徴量を監視モデルへ入力することによって、レーザ加工機2による加工の状態を評価する。加工状態評価部23は、加工の状態の評価結果を加工パラメータ補正部25へ出力する。
When the
加工パラメータ補正部25は、加工状態評価部23による評価結果に基づいて、加工パラメータの補正量を算出する。実施の形態1において、加工パラメータは、レーザ加工機2による加工に使用されるパラメータである。加工パラメータ補正部25は、算出された補正量の情報を加工制御部28へ出力する。
The machining
加工制御部28は、加工条件に応じて加工パラメータを調整する。加工制御部28は、補正量の情報を取得すると、補正量に基づいて加工パラメータを補正する。加工制御部28は、補正された加工パラメータに従って、レーザ発振器4と、加工ヘッド駆動部14と、移動機構15と、移動機構16との各々を制御する。
The processing control unit 28 adjusts processing parameters according to processing conditions. Upon acquiring the information on the correction amount, the processing control unit 28 corrects the processing parameters based on the correction amount. The processing control unit 28 controls each of the
上記説明では、加工状態評価部23は、レーザ加工機2による加工の状態が良好と不良とのいずれに該当するかを判定することとした。この場合、加工状態評価部23は、加工の状態が良好と不良とのいずれに該当するかを示す情報を出力する。良好と不良とのいずれに該当するかは、2値によって表される。加工状態評価部23は、判定結果を示す値を出力する。なお、加工状態評価部23による評価は、加工の状態が良好と不良とのいずれに該当するかを判定することに限られない。加工状態評価部23は、加工の状態が良好であることの度合いを示す評価値を算出することによって、加工の状態を評価しても良い。評価値の一例は、0%から100%までの範囲内の値である。評価値は、例えば、加工の状態が良好であるほど高い値であるものとする。評価値は、0から10までの範囲内の値などであっても良い。加工状態評価部23は、算出された評価値を出力する。
In the above description, the machining
加工状態評価部23は、加工の状態についての複数の項目を設定し、項目ごとの評価結果を出力しても良い。例えば、加工状態評価部23は、加工の状態が良好と不良とのいずれに該当するかを判定する場合に、項目ごとに良好と不良とのいずれに該当するかを判定する。加工状態評価部23は、項目ごとの判定結果を出力する。
The machining
加工の状態についての項目の例は、ドロスの発生、または切断面の荒れなどである。ドロスは、ワーク10を切断する際にワーク10に付着する溶融物である。ドロスは、ワーク10のうち切断面の下端付近に付着する。ドロスが少ないほど、加工の状態は良好といえる。切断面の荒れは、切断面のうちの上部に生じる周期的な凹凸である。切断面に荒れが発生すると、荒れが発生しない場合に比べて、切断面に発生する条痕の深さが深くなる。切断面の荒れが少ないほど、加工の状態は良好といえる。
Examples of items regarding processing conditions include generation of dross or roughness of cut surfaces. Dross is a molten substance that adheres to the
レーザ加工に使用される加工ガスが酸素である場合、切断面には酸化膜が生じる。レーザ加工に使用される加工ガスが酸素である場合は、切断面に生じる酸化膜の剥離が、加工の状態についての項目に含められても良い。切断面に生じる酸化膜の剥離が少ないほど、加工の状態は良好といえる。 When the processing gas used in laser processing is oxygen, an oxide film is formed on the cut surface. When the processing gas used in laser processing is oxygen, peeling of the oxide film that occurs on the cut surface may be included in the item regarding the processing state. The less peeling of the oxide film that occurs on the cut surface, the better the processing condition.
加工の状態についての項目は、上記の項目に限られない。加工の状態についての項目には、ワーク10の変色、またはワーク10の面における振動の有無などの項目が含められても良い。加工状態評価部23は、実施の形態1にて説明する複数の項目のうち任意の1つ以上の項目についての評価結果を出力することができる。加工状態評価部23は、加工条件等に応じて評価の対象とする項目を変更しても良い。例えば、加工状態評価部23は、レーザ出力、加工速度、およびワーク10の厚さの組合せに応じて、評価の対象とする項目を変更しても良い。ワーク10の厚さとは、ワーク10へ入射するレーザ光の中心軸の方向における厚さとする。
Items regarding processing conditions are not limited to the above items. Items regarding the state of machining may include items such as discoloration of the
または、加工状態評価部23は、加工ガスの種類に応じて、評価の対象とする項目を変更しても良い。例えば、加工状態評価部23は、レーザ加工に使用される加工ガスが酸素である場合は、評価の対象とする項目に酸化膜の剥離を含める。一方、レーザ加工に使用される加工ガスが窒素である場合は、切断面に酸化膜が生じないため、加工状態評価部23は、酸化膜の剥離を、評価の対象とする項目から省く。溶接加工を行うレーザ加工機2については、加工の状態についての項目には、スパッタの発生などの項目が含められても良い。積層加工を行うレーザ加工機2については、加工の状態についての項目には、造形物の高さ、または造形物の過剰溶融などの項目が含められても良い。
Alternatively, the machining
加工状態評価部23は、2つ以上の項目について加工の状態を判定し、項目ごとの判定を総括した結果を、加工状態の判定結果として出力しても良い。加工状態評価部23は、例えば、あらかじめ設定された数以上の項目について加工の状態が不良と判定された場合に、加工の状態が不良であることを示す判定結果を出力しても良い。または、加工状態評価部23は、加工の状態が不良であると判定された場合に、項目ごとの良否を分析することとしても良い。
The machining
上記するように、レーザ加工システム1は、加工状態評価部23による評価結果を表示する表示機器を有しても良い。表示機器は、レーザ加工機2に設けられても良く、レーザ加工機2の外部の装置に設けられても良い。例えば、表示機器は、加工の状態の良否を示す情報を表示する。表示機器は、加工状態評価部23により加工の状態が不良と判定された場合にのみ、加工状態評価部23による評価結果を表示しても良い。この場合、表示機器は、加工の状態が不良であることを示す情報を表示する一方、加工の状態が良好であることを示す情報を表示しない。
As described above, the laser processing system 1 may include a display device that displays the evaluation results by the processing
上記説明では、加工状態評価部23は、特徴量算出部22によって算出された特徴量を複数の学習済モデルの各々へ入力することによって、レーザ加工機2による加工の状態を評価することとした。加工状態評価部23は、特徴量算出部22によって算出された特徴量以外の情報を複数の学習済モデルの各々へ入力することによって、レーザ加工機2による加工の状態を評価しても良い。複数の学習済モデルの各々へ入力される情報の例は、評価時における加工パラメータの値、評価時における加工光学系の温度、加工光学系の温度変化、ワーク10の厚さ、またはワーク10の材料などの情報である。この場合、複数の学習済モデルの各々は、かかる情報と特徴量と加工の状態との関係を学習した結果である。また、加工状態評価部23は、かかる情報と特徴量とを監視モデルへ入力することによって、レーザ加工機2による加工の状態を評価する。
In the above description, the machining
加工パラメータ補正部25は、加工状態評価部23による評価結果に基づいて、加工パラメータの補正量を算出する。加工パラメータ補正部25は、例えば、レーザ加工機2による加工の状態が不良であることを示す判定結果が加工パラメータ補正部25へ入力された場合に、加工パラメータの補正量を算出する。加工制御部28は、加工パラメータ補正部25によって算出された補正量を用いて加工パラメータを補正する。加工監視部20は、加工の状態が良好であることを示す判定結果が得られるまで、加工パラメータ補正部25による補正量の算出と加工制御部28による加工パラメータの補正とを繰り返す。
The machining
加工パラメータ補正部25は、加工制御部28に設定されている加工パラメータの値と加工状態評価部23による判定結果とに基づいて補正量を算出しても良い。この場合、加工パラメータ補正部25は、加工制御部28に設定されている加工パラメータの値を加工制御部28から取得する。
The machining
加工パラメータ補正部25は、加工状態評価部23による評価結果を基に加工不良の予兆の有無を判断し、加工不良の予兆が確認された場合に補正量を算出しても良い。加工監視部20は、加工不良の予兆が確認されなくなるまで、加工パラメータ補正部25による補正量の算出と、加工制御部28による加工パラメータの補正とを繰り返しても良い。
The machining
加工パラメータ補正部25によって算出された補正量により補正される加工パラメータは、例えば、レーザ出力、レーザ光のビーム品質、加工ガスの圧力、加工速度、結像光学系12の焦点距離、結像光学系12により形成される像の径、レーザ発振器4のパルス周波数、レーザ発振器4のパルスのデューティー比、結像光学系12の倍率、ノズル径、ワーク10と加工ノズル7との距離、またはレーザ光のモードの種類などを示すパラメータである。ノズル径は、加工ノズル7におけるレーザ光が通る孔の径である。加工パラメータ補正部25によって算出された補正量により補正される加工パラメータは、加工ノズル7におけるレーザ光が通る孔の中心位置とレーザ光の中心軸との位置関係を示すパラメータでも良い。
The processing parameters corrected by the correction amount calculated by the processing
加工パラメータ補正部25は、複数の項目の各々についての判定結果が加工パラメータ補正部25へ入力される場合、項目ごとの判定結果の組合せに基づいて、補正の対象とする加工パラメータと、補正の対象とする加工パラメータの補正量とを決定しても良い。
When the determination results for each of a plurality of items are input to the machining
ここで、加工の状態が良好であることを示す情報を「1」、および、加工の状態が不良であることを示す情報を「0」とする。また、加工状態評価部23が、ドロスの発生、切断面の荒れ、および、切断面に生じる酸化膜の剥離の各項目についての判定結果を出力するものとする。ドロスの発生については「1」、切断面の荒れについては「0」、および、切断面に生じる酸化膜の剥離については「0」が加工パラメータ補正部25へ入力された場合に、加工パラメータ補正部25は、入力された値の組合せである「1,0,0」に基づいて、補正の対象とする加工パラメータと補正量とを決定する。加工パラメータ補正部25は、かかる組み合わせに基づいて、例えば、レーザ出力、および加工ガスの圧力の各パラメータを、補正の対象とする加工パラメータに決定する。また、加工パラメータ補正部25は、かかる組み合わせに基づいて、レーザ出力、および加工ガスの圧力の各々についての補正量を決定する。例えば、加工パラメータ補正部25は、レーザ出力を増加させるための補正量と、加工ガスの圧力を低下させるための補正量とを算出する。
Here, information indicating that the processing state is good is set to "1", and information indicating that the processing state is poor is set to "0". Further, it is assumed that the machining
加工パラメータ補正部25には、項目ごとの判定結果の複数の組合せについて、組合せごとに、補正の対象とする加工パラメータと補正量との関係があらかじめ定められている。加工パラメータ補正部25は、あらかじめ定められている関係と、項目ごとの判定結果の組合せとに基づいて、補正の対象とする加工パラメータと補正量とを決定することができる。
In the machining
上記説明では、加工パラメータ補正部25は、加工状態評価部23による評価結果に基づいて補正量を算出することとしたが、特徴量に基づいて補正量を算出しても良い。加工パラメータ補正部25は、特徴量算出部22によって算出された特徴量を監視モデルへ入力することによって、補正量を算出しても良い。学習済モデル保持部26により保持される複数の学習済モデルの各々は、特徴量が入力されることによって、加工の状態の評価結果と補正量との少なくとも一方を出力する学習済モデルであれば良い。学習済モデルが補正量を出力する場合、学習済モデルによる加工状態の評価が行われた上で、補正量が算出される。
In the above description, the machining
上記説明では、加工監視部20は、加工の状態が良好であることを示す判定結果が得られるまで、加工パラメータ補正部25による補正量の算出と加工制御部28による加工パラメータの補正とを繰り返すこととした。レーザ加工システム1は、加工の状態が良好であることを示す判定結果が得られない状況が続く場合は、レーザ加工機2によるレーザ加工を停止しても良い。
In the above description, the
上記するように、監視モデル決定部24は、レーザ加工機2による加工の状態をユーザが評価した結果と加工状態評価部23による評価結果とに基づいて、監視モデルを決定する。ユーザは、例えば、ワーク10の切断面を目視することによって、加工の良否を判定しても良い。加工の状態をユーザが評価した結果は、3次元測定器または粗さ測定器といった測定器を用いて切断面の粗さを測定した結果でも良い。監視モデル決定部24は、加工の状態をユーザが評価した結果を示す情報を受け付けても良い。ユーザは、例えば制御装置3に備えられている入力機器を操作することによって、加工の状態を評価した結果を監視モデル決定部24へ入力する。
As described above, the monitoring
上記説明では、レーザ加工機2によって加工されたワーク10の観察により加工の状態を評価した結果として、ユーザによる評価結果が監視モデル決定部24へ入力されることとした。監視モデル決定部24へ入力される評価結果は、ユーザによる評価結果に限られない。すなわち、ワーク10の観察により加工の状態を評価した結果は、ユーザによる評価結果に限られない。監視モデル決定部24には、ワーク10の観察により加工の状態を判定する判定装置から、加工の良否を判定した結果が監視モデル決定部24へ入力されても良い。判定装置は、例えば、カメラによって撮影された画像を基に加工の状態を自動で判定する。このように、監視モデル決定部24には、加工の状態をユーザが評価した結果と、加工の状態を判定装置が評価した結果とのどちらが入力されても良い。監視モデル決定部24は、複数の学習済モデルのうち、加工状態評価部23にて出力された評価結果が、ワーク10の観察により加工の状態を評価した結果に最も近い1つの学習済モデルを選択することができる。なお、判定装置の図示は省略する。
In the above description, the evaluation result by the user is input to the monitoring
ユーザまたは判定装置による評価結果が監視モデル決定部24へ入力される場合において、加工の状態が良好と不良とのいずれに該当するかを加工状態評価部23が判定する場合、加工の状態が良好と不良とのいずれに該当するかをユーザまたは判定装置が判定した結果が監視モデル決定部24へ入力される。加工状態評価部23の判定結果とユーザまたは判定装置の判定結果が一致する場合に、監視モデル決定部24は、加工状態評価部23の当該判定結果を出力した学習済モデルを、監視モデルに決定する。
When the evaluation result by the user or the determination device is input to the monitoring
ユーザまたは判定装置による評価結果が監視モデル決定部24へ入力される場合において、加工状態評価部23が複数の項目の各々の評価結果を出力する場合、複数の項目の各々について加工の状態をユーザまたは判定装置が判定した結果が監視モデル決定部24へ入力される。加工状態評価部23による各項目についての判定結果とユーザまたは判定装置による各項目についての判定結果が一致する場合に、監視モデル決定部24は、加工状態評価部23の当該判定結果を出力した学習済モデルを、監視モデルに決定する。
When the evaluation results by the user or the determination device are input to the monitoring
ユーザまたは判定装置による評価結果が監視モデル決定部24へ入力される場合において、加工の状態についての評価値を加工状態評価部23が出力する場合、加工の状態についてユーザまたは判定装置が求めた評価値が監視モデル決定部24へ入力される。加工状態評価部23が出力した評価値が、ユーザまたは判定装置が求めた評価値を含む許容範囲に含まれる場合に、監視モデル決定部24は、加工状態評価部23の当該評価値を出力した学習済モデルを、監視モデルに決定する。許容範囲は、ユーザまたは判定装置が求めた評価値を基準とする範囲であって、あらかじめ設定された数値幅の範囲とする。
When the evaluation result by the user or the determination device is input to the monitoring
上記説明では、監視モデル決定部24は、複数の学習済モデルのうち、加工状態評価部23にて出力された評価結果が、ワーク10の観察により加工の状態を評価した結果に一致する学習済モデルを、監視モデルに決定することとした。複数の学習済モデルの各々が、補正量を出力する学習済モデルである場合、監視モデル決定部24は、複数の学習済モデルの各々から出力される補正量に基づいて、監視モデルとする学習済モデルを決定しても良い。例えば、監視モデル決定部24は、学習済モデルから出力された補正量を基に補正された加工パラメータと、ユーザによって調整された加工条件に基づく加工パラメータとを比較する。監視モデル決定部24は、かかる比較によって、監視モデルとする学習済モデルを決定しても良い。
In the above description, the monitoring
学習済モデル保持部26は、例えば、レーザ加工機2のメーカによって生成された複数の学習済モデルを保持する。学習済モデル保持部26に保持される複数の学習済モデルには、メーカによって生成された学習済モデルのほかに、ユーザによって生成された学習済モデルが含まれても良い。
The learned model holding unit 26 holds a plurality of learned models generated by the manufacturer of the
ここで、実施の形態1における学習済モデルの例を説明する。レーザ加工システム1が用いる学習アルゴリズムには、教師あり学習、教師なし学習、または強化学習等の公知のアルゴリズムを用いることができる。一例として、ニューラルネットワークを適用するケースについて説明する。 Here, an example of a learned model in the first embodiment will be explained. As a learning algorithm used by the laser processing system 1, a known algorithm such as supervised learning, unsupervised learning, or reinforcement learning can be used. As an example, a case where a neural network is applied will be explained.
実施の形態1における学習済モデルは、教師あり学習によって、特徴量と加工の状態との関係を学習した結果である。ここで、教師あり学習とは、入力および結果のデータの組を学習装置に与えることで、学習用データにある特徴を学習し、入力から結果を推論する手法である。学習用データは、入力と、入力に対応する結果であるラベルとを含む。特徴量は、入力に相当する。加工の状態は、教師データであって、ラベルに相当する。ニューラルネットワークは、複数のニューロンからなる入力層と、複数のニューロンからなる中間層である隠れ層と、複数のニューロンからなる出力層とで構成される。中間層は、1層、または2層以上でも良い。 The learned model in the first embodiment is the result of learning the relationship between the feature amount and the processing state by supervised learning. Here, supervised learning is a method in which a set of input and result data is given to a learning device to learn features in the learning data and infer results from the input. The learning data includes an input and a label that is a result corresponding to the input. The feature amount corresponds to the input. The processing state is training data and corresponds to a label. A neural network is composed of an input layer consisting of a plurality of neurons, a hidden layer which is an intermediate layer consisting of a plurality of neurons, and an output layer consisting of a plurality of neurons. The intermediate layer may be one layer or two or more layers.
図3は、実施の形態1における学習済モデルの構成例を示す図である。図3には、ニューラルネットワークの構成例を示す。図3に示すニューラルネットワークは、3層のニューラルネットワークである。入力層は、ニューロンX1,X2,X3を含む。中間層は、ニューロンY1,Y2を含む。出力層は、ニューロンZ1,Z2,Z3を含む。なお、各層のニューロンの数は任意とする。入力層へ入力された複数の値は、重みW1であるw11,w12,w13,w14,w15,w16が乗算されて、中間層へ入力される。中間層へ入力された複数の値は、重みW2であるw21,w22,w23,w24,w25,w26が乗算されて、出力層から出力される。出力層から出力される出力結果は、重みW1,W2の値に従って変化する。ニューラルネットワークは、特徴量を入力層に入力して出力層から出力された結果が加工の状態に近づくように重みW1,W2を調整することによって生成される。 FIG. 3 is a diagram illustrating a configuration example of a learned model in the first embodiment. FIG. 3 shows an example of the configuration of a neural network. The neural network shown in FIG. 3 is a three-layer neural network. The input layer includes neurons X1, X2, and X3. The middle layer includes neurons Y1 and Y2. The output layer includes neurons Z1, Z2, Z3. Note that the number of neurons in each layer is arbitrary. The plurality of values input to the input layer are multiplied by weights W1, w11, w12, w13, w14, w15, and w16, and then input to the intermediate layer. The plurality of values input to the intermediate layer are multiplied by weights W2, w21, w22, w23, w24, w25, and w26, and output from the output layer. The output result output from the output layer changes according to the values of weights W1 and W2. The neural network is generated by inputting feature amounts into an input layer and adjusting weights W1 and W2 so that the result output from the output layer approaches the processed state.
次に、レーザ加工システム1が実行する処理の手順について説明する。ここでは、監視モデルを決定する際における処理の手順の3つの例を説明する。 Next, the procedure of processing executed by the laser processing system 1 will be explained. Here, three examples of processing procedures when determining a monitoring model will be described.
図4は、実施の形態1にかかるレーザ加工システム1が実行する処理の手順の第1の例を示すフローチャートである。第1の例では、レーザ加工システム1は、レーザ加工機2に試し加工を行わせることにより監視モデルを決定する。第1の例では、監視モデル決定部24は、加工の状態をユーザが評価した結果と、加工状態評価部23による評価結果とに基づいて、監視モデルを決定するものとする。
FIG. 4 is a flowchart showing a first example of a processing procedure executed by the laser processing system 1 according to the first embodiment. In the first example, the laser processing system 1 determines a monitoring model by causing the
ステップS1において、レーザ加工機2は、試し加工を開始する。試し加工が開始されると、音センサ8および光センサ9の各々は、加工の状態を検出し、センサデータを出力する。ステップS2において、データ取得部21は、音センサ8および光センサ9の各々から出力されるセンサデータを取得する。データ取得部21は、取得されたセンサデータを特徴量算出部22へ出力する。
In step S1, the
ステップS3において、特徴量算出部22は、センサデータを基に特徴量を算出する。特徴量算出部22は、算出された特徴量を加工状態評価部23へ出力する。ステップS4において、加工状態評価部23は、学習済モデルに基づいて加工状態を評価する。加工状態評価部23は、学習済モデル保持部26に保持されている複数の学習済モデルの1つへ特徴量を入力することによって、加工の状態の評価結果を求める。加工状態評価部23は、求めた評価結果を監視モデル決定部24へ出力する。
In step S3, the feature
ステップS5において、監視モデル決定部24は、ステップS4における加工状態の評価結果が、ユーザによる評価結果と一致しているか否かを判定する。図4に示す第1の例では、ユーザによる評価結果が監視モデル決定部24へ入力されるものとする。監視モデル決定部24は、ステップS4における加工状態の評価結果と、ユーザによる評価結果とを比較することによって、ユーザによる評価結果と一致する評価結果が得られたか否かを判定する。
In step S5, the monitoring
ステップS4における加工状態の評価結果がユーザによる評価結果と一致している場合(ステップS5,Yes)、ステップS6において、監視モデル決定部24は、監視モデルを決定する。監視モデル決定部24は、ステップS4における加工状態の評価に用いられた学習済モデルを、監視モデルに決定する。
If the evaluation result of the machining state in step S4 matches the evaluation result by the user (step S5, Yes), the monitoring
一方、ステップS4における加工状態の評価結果がユーザによる評価結果と一致していない場合(ステップS5,No)、ステップS7において、加工状態評価部23は、加工状態の評価に用いる学習済モデルを選択する。加工状態評価部23は、学習済モデル保持部26に保持されている複数の学習済モデルのうち、ステップS4における加工状態の評価に用いられた学習済モデル以外の1つを選択する。その後、レーザ加工システム1は、手順をステップS4へ戻し、ステップS7において選択された学習済モデルについてのステップS4,S5の処理を行う。
On the other hand, if the evaluation result of the machining state in step S4 does not match the evaluation result by the user (step S5, No), in step S7, the machining
レーザ加工システム1は、ステップS6を終えることによって、図4に示す手順による処理を終了する。レーザ加工システム1は、レーザ加工機2が製品を加工している際における加工状態を、監視モデルを用いて監視する。なお、ワーク10の観察による加工状態の判定を判定装置が行う場合、監視モデル決定部24は、ステップS5において、加工の状態を判定装置が評価した結果と、加工状態評価部23による評価結果とに基づいて、監視モデルを決定する。
The laser processing system 1 ends the processing according to the procedure shown in FIG. 4 by completing step S6. The laser processing system 1 uses a monitoring model to monitor the processing state when the
加工状態評価部23による加工状態の評価結果がユーザによる評価結果と一致しているか否かは、ユーザによって判定されても良い。ユーザは、複数の学習済モデルの各々について、加工状態評価部23にて出力された評価結果を確認し、加工状態評価部23にて出力された評価結果がユーザによる評価結果に一致する1つの学習済モデルを選択する。この場合、監視モデル決定部24は、ユーザによって選択された学習済モデルを、監視モデルに決定する。第2の例では、監視モデル決定部24は、加工の状態をユーザが評価した結果と、加工状態評価部23による評価結果とに基づいて、監視モデルを決定するものとする。
The user may determine whether the evaluation result of the machining state by the machining
図5は、実施の形態1にかかるレーザ加工システム1が実行する処理の手順の第2の例を示すフローチャートである。上記の第1の例では、レーザ加工システム1は、複数の学習済モデルの1つずつから評価結果を得て、得られた評価結果とユーザによる評価結果とを比較した。第2の例では、レーザ加工システム1は、複数の学習済モデルの全てから評価結果を得て、得られた各評価結果とユーザによる評価結果とを比較する。また、第2の例においても、レーザ加工システム1は、レーザ加工機2に試し加工を行わせることにより監視モデルを決定する。
FIG. 5 is a flowchart illustrating a second example of the processing procedure executed by the laser processing system 1 according to the first embodiment. In the first example described above, the laser processing system 1 obtained evaluation results from each of the plurality of trained models, and compared the obtained evaluation results with the evaluation results by the user. In the second example, the laser processing system 1 obtains evaluation results from all of the plurality of trained models, and compares each obtained evaluation result with the evaluation result by the user. Also in the second example, the laser processing system 1 determines the monitoring model by causing the
ステップS11において、レーザ加工機2は、試し加工を開始する。ステップS12において、データ取得部21は、センサデータを取得する。ステップS13において、特徴量算出部22は、センサデータを基に特徴量を算出する。ステップS11からステップS13は、図4に示すステップS1からステップS3と同様である。
In step S11, the
ステップS14において、加工状態評価部23は、複数の学習済モデルの各々に基づいて加工状態を評価する。加工状態評価部23は、学習済モデル保持部26に保持されている複数の学習済モデルの全てへ特徴量を入力することによって、複数の学習済モデルの各々による評価結果を求める。加工状態評価部23は、求めた評価結果を監視モデル決定部24へ出力する。
In step S14, the machining
ステップS15において、監視モデル決定部24は、複数の学習済モデルの中から、加工状態の評価結果がユーザによる評価結果に最も近い学習済モデルを選択する。図5に示す第2の例では、ユーザによる評価結果が監視モデル決定部24へ入力されるものとする。監視モデル決定部24は、複数の学習済モデルの各々による評価結果をユーザによる評価結果と比較することによって、ユーザによる評価結果に最も近い評価結果が得られた1つの学習済モデルを選択する。
In step S15, the monitoring
ステップS16において、監視モデル決定部24は、監視モデルを決定する。監視モデル決定部24は、ステップS15において選択された学習済モデルを、監視モデルに決定する。レーザ加工システム1は、ステップS16を終えることによって、図5に示す手順による処理を終了する。レーザ加工システム1は、レーザ加工機2が製品を加工している際における加工状態を、監視モデルを用いて監視する。
In step S16, the monitoring
加工状態の評価結果がユーザによる評価結果に最も近い学習済モデルは、ユーザによって選択されても良い。ユーザは、複数の学習済モデルの各々による評価結果を確認し、ユーザによる評価結果に最も近い評価結果が得られた1つの学習済モデルを選択する。この場合、監視モデル決定部24は、ユーザによって選択された学習済モデルを、監視モデルに決定する。なお、ワーク10の観察による加工状態の判定を判定装置が行う場合、監視モデル決定部24は、ステップS15において、複数の学習済モデルの中から、加工状態の評価結果が判定装置による評価結果に最も近い学習済モデルを選択する。
The learned model whose processing state evaluation result is closest to the evaluation result by the user may be selected by the user. The user checks the evaluation results of each of the plurality of trained models, and selects the one trained model that has obtained the evaluation result closest to the user's evaluation result. In this case, the monitoring
図6は、実施の形態1にかかるレーザ加工システム1が実行する処理の手順の第3の例を示すフローチャートである。第3の例では、レーザ加工システム1は、レーザ加工機2が製品加工を行っている際に監視モデルを決定する。レーザ加工システム1は、第1の例または第2の例のように試し加工によって監視モデルを決定しても良く、第3の例のように製品加工が行われている際に監視モデルを決定しても良い。第3の例では、監視モデル決定部24は、加工の状態をユーザが評価した結果と、加工状態評価部23による評価結果とに基づいて、監視モデルを決定するものとする。
FIG. 6 is a flowchart showing a third example of the processing procedure executed by the laser processing system 1 according to the first embodiment. In the third example, the laser processing system 1 determines the monitoring model while the
ステップS21において、レーザ加工機2は、製品の加工を開始する。ステップS22において、データ取得部21は、センサデータを取得する。ステップS23において、特徴量算出部22は、センサデータを基に特徴量を算出する。ステップS24において、加工状態評価部23は、複数の学習済モデルの各々に基づいて加工状態を評価する。ステップS25において、監視モデル決定部24は、複数の学習済モデルの中から、加工状態の評価結果がユーザによる評価結果に最も近い学習済モデルを選択する。ステップS26において、監視モデル決定部24は、監視モデルを決定する。ステップS22からステップS26は、図5に示すステップS12からステップS16と同様である。
In step S21, the
レーザ加工システム1は、ステップS26を終えることによって、図6に示す手順による処理を終了する。レーザ加工システム1は、レーザ加工機2による製品加工を継続し、監視モデルを用いて加工状態を監視する。レーザ加工システム1は、製品加工において加工不良がある程度許容可能である場合に、第3の例のように、製品加工が行われている際に監視モデルを決定しても良い。なお、ワーク10の観察による加工状態の判定を判定装置が行う場合、監視モデル決定部24は、ステップS25において、複数の学習済モデルの中から、加工状態の評価結果が判定装置による評価結果に最も近い学習済モデルを選択する。
The laser processing system 1 ends the processing according to the procedure shown in FIG. 6 by completing step S26. The laser processing system 1 continues the product processing by the
製品加工が行われている際において、監視モデルを決定するための処理を実行するタイミングは、任意であるものとする。レーザ加工システム1は、例えば、製品加工のためのレーザ加工機2の稼働を終了する際に、監視モデルを決定するための処理を実行する。レーザ加工システム1は、ある決められた数の製品についての加工を終えた後に、監視モデルを決定するための処理を実行しても良い。レーザ加工システム1は、1つの製品の加工を行うごとに、監視モデルを決定するための処理を実行しても良い。レーザ加工システム1は、加工不良が生じた際に、監視モデルを決定するための処理を実行しても良い。レーザ加工システム1は、製品加工のためのレーザ加工機2の稼働を開始する際に、監視モデルを決定するための処理を実行しても良い。
It is assumed that the timing of executing the processing for determining the monitoring model is arbitrary when the product is being processed. For example, the laser processing system 1 executes processing for determining a monitoring model when terminating the operation of the
レーザ加工システム1は、製品加工が行われている際に監視モデルを決定することで、監視モデルとする学習済モデルを多くのデータに基づいて決定することができる。レーザ加工システム1は、製品加工が行われている際に監視モデルを随時決定することによって、レーザ加工機2の経年変化が反映された監視モデルを用いて加工状態を評価することができる。
By determining a monitoring model while product processing is being performed, the laser processing system 1 can determine a trained model to be used as a monitoring model based on a large amount of data. The laser processing system 1 can evaluate the processing state using the monitoring model that reflects aging of the
実施の形態1によると、制御装置3は、レーザ加工機2によって加工されたワーク10の観察により加工の状態を評価した結果と加工状態評価部23による評価結果とに基づいて、レーザ加工機2による加工の状態の監視に用いる監視モデルである学習済モデルを決定する。制御装置3は、センサによって計測される加工の状態が、レーザ加工機2の状態またはワーク10の含有成分のばらつきなどによって変化した場合でも、加工状態を正確に評価可能とする監視モデルを得ることができる。制御装置3は、加工状態の良否を正確に評価することができることによって、レーザ加工機2による良好な加工を継続させることができる。以上により、制御装置3は、レーザ加工機2による良好な加工を継続させることができるという効果を奏する。
According to the first embodiment, the control device 3 controls the
実施の形態2.
実施の形態1では、監視モデル決定部24が、複数の学習済モデルのうち、加工状態評価部23にて出力された評価結果がワーク10の観察による評価結果に一致する学習済モデルを、監視モデルに決定することとした。実施の形態2では、複数の学習済モデルの組合せを監視モデルに決定する例について説明する。実施の形態2では、実施の形態1と同一の構成要素には同一の符号を付し、実施の形態1とは異なる構成について主に説明する。
In the first embodiment, the monitoring
図7は、実施の形態2にかかる制御装置3が有する監視モデル決定部30の構成例を示す図である。実施の形態2にかかる制御装置3は、図2に示す監視モデル決定部24の代わりに、図7に示す監視モデル決定部30を備える。監視モデル決定部30は、学習済モデル保持部26にて保持されている複数の学習済モデルの組合せについて各学習済モデルの出力値に対する重みを調整し、各学習済モデルについての重みが調整された複数の学習済モデルの組合せを監視モデルに決定する。
FIG. 7 is a diagram showing a configuration example of the monitoring model determination unit 30 included in the control device 3 according to the second embodiment. The control device 3 according to the second embodiment includes a monitoring model determining section 30 shown in FIG. 7 instead of the monitoring
監視モデル決定部30は、重み決定部31を備える。重み決定部31は、各学習済モデルについての重みを調整して、各学習済モデルについての重みを決定する。
The monitoring model determining section 30 includes a
監視モデル決定部30は、学習済モデル保持部26から複数の学習済モデルを読み出す。図7に示す例では、学習済モデル保持部26には3つの学習済モデルが保持されており、監視モデル決定部30が3つの学習済モデルを読み出したとする。 The monitoring model determining unit 30 reads out a plurality of trained models from the trained model holding unit 26. In the example shown in FIG. 7, it is assumed that the learned model holding unit 26 holds three learned models, and the monitoring model determination unit 30 reads out the three learned models.
図7に示すv1、v2、およびv3は、各学習済モデルの出力値に対する重みを表す。重み決定部31は、v1、v2、およびv3の各々を調整する。図7に示す破線の矢印は、重み決定部31によりv1、v2、およびv3の各々を調整することを示している。各学習済モデルは、例えば図3に示すニューラルネットワークである。
v1, v2, and v3 shown in FIG. 7 represent weights for the output values of each learned model. The
加工状態評価部23は、各学習済モデルについての重みが調整された複数の学習済モデルの組合せにより、レーザ加工機2による加工の状態を評価する。監視モデル決定部30は、加工状態評価部23にて出力された評価結果とワーク10の観察による評価結果との差が小さくなるように、v1、v2、およびv3の各々を調整する。これにより、監視モデル決定部30は、加工状態評価部23により出力された評価結果がワーク10の観察による評価結果に一致するように、v1、v2、およびv3の各々を調整する。なお、ワーク10の観察による評価結果とは、レーザ加工機2によって加工されたワーク10の観察により加工の状態を評価した結果のことである。ワーク10の観察による評価結果とは、加工されたワーク10をユーザが観察することによって加工の状態をユーザが評価した結果、または、ワーク10の観察により加工の状態を判定する判定装置による評価結果である。
The machining
監視モデル決定部30は、加工状態評価部23にて出力された評価結果がワーク10の観察による評価結果に一致するように重みが調整された3つの学習済モデルの組合せを、監視モデルに決定する。または、監視モデル決定部30は、加工状態評価部23にて出力された評価結果がワーク10の観察による評価結果に最も近くなるように重みが調整された3つの学習済モデルの組合せを、監視モデルに決定する。このように、監視モデル決定部30は、各学習済モデルについての重みが調整された複数の学習済モデルの組合せを監視モデルに決定する。監視モデル決定部30は、決定された監視モデルを監視モデル保持部27に保存する。監視モデル保持部27は、監視モデルを保持する。
The monitoring model determining unit 30 determines, as the monitoring model, a combination of three learned models whose weights have been adjusted so that the evaluation results output by the machining
加工監視部20は、監視モデル決定部30により決定された監視モデルを用いて、レーザ加工機2による加工の状態を監視する。監視モデルは、特徴量が入力されることにより、重みが施された各学習済モデルの出力値の和を出力する。監視モデルは、特徴量が入力されることにより、各学習済モデルの出力値の重み付き平均を出力するものであっても良い。監視モデル決定部30は、重みと特徴量と加工の状態との関係を学習することによって、各学習済モデルの重みを決定しても良い。
The
各学習済モデルがニューラルネットワークである場合、監視モデル決定部30では、ニューラルネットワーク内に設定される重み、すなわち図3に示すw11-w16,w21-w26は変更されない。監視モデル決定部30は、ニューラルネットワーク内に設定される重みを変更せずに、各学習済モデルの出力値に対する重みを調整することによって、監視モデルを決定する。加工監視部20は、監視モデル決定部30により、各学習済モデルの出力値に対する重みを調整することによって、複数の学習済モデルの組合せを監視モデルとして用いることができる。
When each learned model is a neural network, the monitoring model determination unit 30 does not change the weights set in the neural network, that is, w11-w16 and w21-w26 shown in FIG. 3. The monitoring model determining unit 30 determines a monitoring model by adjusting the weight for the output value of each learned model without changing the weight set in the neural network. The
制御装置3は、各学習済モデルについての重みを調整することによって、レーザ加工機2による加工の状態を評価するための監視モデルを得る。学習済モデル保持部26に保持される複数の学習済モデルの各々は、監視モデルの基本とされるモデルとすることができる。監視モデルの基本とされるモデルとは、例えば、ワーク10の製造元ごとに設定されたモデル、または、ワーク10の材料ごとに設定されたモデルである。制御装置3は、複数の学習済モデルの中から監視モデルとする学習済モデルを選択する場合に比べて、あらかじめ設定される学習済モデルの数を少なくすることができる。制御装置3は、比較的少ないデータに基づいて、監視モデルを決定することができる。
The control device 3 obtains a monitoring model for evaluating the state of machining by the
実施の形態2によると、制御装置3は、各学習済モデルについての重みが調整された複数の学習済モデルの組合せを監視モデルに決定する。制御装置3は、加工状態を正確に評価可能とする監視モデルを得ることができ、レーザ加工機2による良好な加工を継続させることができる。以上により、制御装置3は、レーザ加工機2による良好な加工を継続させることができるという効果を奏する。レーザ加工システム1は、比較的少ないデータに基づいて監視モデルを決定することができることによって、生産性を向上させることができる。
According to the second embodiment, the control device 3 determines, as the monitoring model, a combination of a plurality of trained models in which the weights of each trained model are adjusted. The control device 3 can obtain a monitoring model that enables accurate evaluation of the machining state, and can allow the
実施の形態3.
実施の形態1および2では、あらかじめ複数の学習済モデルが設定される例を説明した。実施の形態3では、レーザ加工システム1での学習によって学習済モデルを追加する例について説明する。実施の形態3では、実施の形態1または2と同一の構成要素には同一の符号を付し、実施の形態1または2とは異なる構成について主に説明する。Embodiment 3.
In the first and second embodiments, an example has been described in which a plurality of trained models are set in advance. In Embodiment 3, an example will be described in which a learned model is added through learning in the laser processing system 1. In Embodiment 3, the same components as in
図8は、実施の形態3にかかるレーザ加工システム1が有する制御装置40の構成例を示す図である。実施の形態3にかかるレーザ加工システム1は、レーザ加工機2と制御装置40とを備える。制御装置40は、加工制御部28と加工監視部41とを備える。制御装置40は、レーザ加工機2の外部の装置であっても良く、レーザ加工機2に包含される装置であっても良い。または、制御装置40のうち加工制御部28がレーザ加工機2に包含される装置により実現され、制御装置40のうち加工監視部41がレーザ加工機2の外部の装置により実現されても良い。
FIG. 8 is a diagram showing a configuration example of the control device 40 included in the laser processing system 1 according to the third embodiment. A laser processing system 1 according to the third embodiment includes a
加工監視部41は、データ取得部21と、特徴量算出部22と、加工状態評価部23と、加工パラメータ補正部25と、学習済モデル保持部26と、監視モデル保持部27と、監視モデル決定部42と、学習部43とを備える。
The machining monitoring unit 41 includes a
学習部43は、特徴量算出部22によって算出された特徴量を特徴量算出部22から取得する。学習部43は、レーザ加工機2による加工の状態を示す情報を取得する。学習部43は、特徴量とレーザ加工機2による加工の状態との関係を学習することによって学習済モデルを生成し、生成された学習済モデルを学習済モデル保持部26に追加する。
The learning section 43 acquires the feature amount calculated by the feature
監視モデル決定部42は、学習済モデル保持部26にて保持されている複数の学習済モデルの組合せについて各学習済モデルの出力値に対する重みを調整し、各学習済モデルについての重みが調整された複数の学習済モデルの組合せを監視モデルに決定する。学習済モデル保持部26にて保持されている複数の学習済モデルには、学習部43によって追加された学習済モデルが含まれる。
The monitoring
複数の学習済モデルの各々は、例えば図3に示すニューラルネットワークである。学習部43は、教師あり学習によって特徴量と加工の状態との関係を学習し、学習済モデルを生成する。 Each of the plurality of trained models is, for example, a neural network shown in FIG. 3. The learning unit 43 learns the relationship between the feature amount and the processing state by supervised learning, and generates a learned model.
図9は、実施の形態3にかかる制御装置40が有する監視モデル決定部42の構成例を示す図である。監視モデル決定部42は、重み決定部44を備える。重み決定部44は、各学習済モデルについての重みを調整して、各学習済モデルについての重みを決定する。
FIG. 9 is a diagram illustrating a configuration example of the monitoring
監視モデル決定部42は、学習済モデル保持部26から複数の学習済モデルを読み出す。図9に示す例では、学習済モデル保持部26には5つの学習済モデルが保持されており、監視モデル決定部42が5つの学習済モデルを読み出したとする。5つの学習済モデルのうちの2つは、学習部43によって追加された学習済モデルである。
The monitoring
図9に示すv1、v2、v3、v4、およびv5は、各学習済モデルの出力値に対する重みを表す。重み決定部44は、v1、v2、v3、v4、およびv5の各々を調整する。図9に示す破線の矢印は、重み決定部44によりv1、v2、v3、v4、およびv5の各々を調整することを示している。
v1, v2, v3, v4, and v5 shown in FIG. 9 represent weights for the output values of each trained model. The
加工状態評価部23は、各学習済モデルについての重みが調整された複数の学習済モデルの組合せにより、レーザ加工機2による加工の状態を評価する。監視モデル決定部42は、加工状態評価部23にて出力された評価結果とワーク10の観察による評価結果との差が小さくなるように、v1、v2、v3、v4、およびv5の各々を調整する。これにより、監視モデル決定部42は、加工状態評価部23により出力された評価結果がワーク10の観察による評価結果に一致するように、v1、v2、v3、v4、およびv5の各々を調整する。
The machining
監視モデル決定部42は、加工状態評価部23にて出力された評価結果がワーク10の観察による評価結果に一致するように重みが調整された5つの学習済モデルの組合せを、監視モデルに決定する。または、監視モデル決定部42は、加工状態評価部23にて出力された評価結果がワーク10の観察による評価結果に最も近くなるように重みが調整された5つの学習済モデルの組合せを、監視モデルに決定する。このように、監視モデル決定部42は、各学習済モデルについての重みが調整された複数の学習済モデルの組合せを監視モデルに決定する。監視モデル決定部42は、決定された監視モデルを監視モデル保持部27に保存する。監視モデル保持部27は、監視モデルを保持する。
The monitoring
加工監視部20は、監視モデル決定部42により決定された監視モデルを用いて、レーザ加工機2による加工の状態を監視する。監視モデルは、特徴量が入力されることにより、重みが施された各学習済モデルの出力値の和を出力する。監視モデルは、特徴量が入力されることにより、各学習済モデルの出力値の重み付き平均を出力するものであっても良い。監視モデル決定部42は、重みと特徴量と加工の状態との関係を学習することによって、各学習済モデルの重みを決定しても良い。
The
学習部43は、実際にレーザ加工機2から得られたセンサデータを基に算出された特徴量を用いて、学習済モデルを生成する。制御装置40は、かかる学習済モデルを基に監視モデルを作成することで、レーザ加工機2の実際の状態に基づいた高精度な監視モデルを得ることができる。
The learning unit 43 generates a learned model using feature amounts calculated based on sensor data actually obtained from the
学習部43は、特徴量と加工の状態を示す情報とを用いて新たな学習済モデルを生成する。または、学習部43は、過去に生成された学習済モデルの追加学習を行っても良い。学習部43によって学習済モデル保持部26に学習済モデルが追加されることによって、学習済モデル保持部26には追加された学習済モデルが蓄積されても良い。学習済モデル保持部26に追加された学習済モデルは、学習済モデル保持部26から適宜削除されても良い。 The learning unit 43 generates a new trained model using the feature amounts and information indicating the state of processing. Alternatively, the learning unit 43 may perform additional learning of a trained model generated in the past. When the learned model is added to the learned model holding unit 26 by the learning unit 43, the added learned model may be accumulated in the learned model holding unit 26. The trained model added to the trained model holding unit 26 may be deleted from the trained model holding unit 26 as appropriate.
制御装置40では、レーザ加工機2によって加工されるワーク10の材料が変更される際に、学習部43によって生成された学習済モデルが学習済モデル保持部26に追加されるか、または、学習部43によって生成され学習済モデル保持部26に追加された学習済モデルが学習済モデル保持部26から削除されても良い。制御装置40は、ワーク10の材料が変更される際に、学習済モデル保持部26に保持される学習済モデルが更新されることによって、ワーク10の材料に応じた高精度な監視モデルを得ることができる。
In the control device 40, when the material of the
制御装置40では、レーザ加工機2による加工の状態が変化した際に、学習部43によって生成された学習済モデルが学習済モデル保持部26に追加されるか、または、学習部43によって生成され学習済モデル保持部26に追加された学習済モデルが学習済モデル保持部26から削除されても良い。加工の状態の変化とは、例えば、加工の状態が良好な状態から不良な状態へ変化することなどである。制御装置40は、加工の状態が変化した際に、学習済モデル保持部26に保持される学習済モデルが更新されることによって、加工の状態に応じた高精度な監視モデルを得ることができる。
In the control device 40, when the state of processing by the
学習部43による学習結果である学習済モデルは、特徴量が入力されることによって、加工の状態の評価結果と補正量との少なくとも一方を出力する学習済モデルであれば良い。加工パラメータ補正部25は、特徴量算出部22によって算出された特徴量を監視モデルへ入力することによって、補正量を算出しても良い。
The learned model that is the learning result by the learning unit 43 may be any learned model that outputs at least one of the processing state evaluation result and the correction amount by inputting the feature amount. The processing
加工状態評価部23は、特徴量算出部22によって算出された特徴量以外の情報を複数の学習済モデルの各々へ入力することによって、レーザ加工機2による加工の状態を評価しても良い。複数の学習済モデルの各々へ入力される情報の例は、評価時における加工パラメータの値、評価時における加工光学系の温度、加工光学系の温度変化、ワーク10の厚さ、またはワーク10の材料などの情報である。この場合、学習部43は、かかる情報と特徴量と加工の状態との関係を学習することによって、学習済モデルを生成する。また、加工状態評価部23は、かかる情報と特徴量とを監視モデルへ入力することによって、レーザ加工機2による加工の状態を評価する。
The machining
上記説明では、学習部43は、制御装置40の内部に備えられる。学習部43は、制御装置40の外部の装置によって実現されても良い。学習部43を実現する装置である学習装置は、ネットワークを介して制御装置40に接続可能な装置でも良い。学習装置は、クラウドサーバ上に存在する装置でも良い。 In the above description, the learning section 43 is provided inside the control device 40. The learning unit 43 may be realized by a device external to the control device 40. The learning device that implements the learning section 43 may be a device that can be connected to the control device 40 via a network. The learning device may be a device existing on a cloud server.
実施の形態3によると、制御装置40は、各学習済モデルについての重みが調整された複数の学習済モデルの組合せを監視モデルに決定する。制御装置40は、加工状態を正確に評価可能とする監視モデルを得ることができ、レーザ加工機2による良好な加工を継続させることができる。以上により、制御装置40は、レーザ加工機2による良好な加工を継続させることができるという効果を奏する。レーザ加工システム1は、比較的少ないデータに基づいて監視モデルを決定することができることによって、生産性を向上させることができる。制御装置40は、実際にレーザ加工機2から得られたセンサデータを基に算出された特徴量を用いて学習済モデルを生成することで、高精度な監視モデルを得ることができる。
According to the third embodiment, the control device 40 determines, as the monitoring model, a combination of a plurality of trained models in which the weights of each trained model are adjusted. The control device 40 can obtain a monitoring model that enables accurate evaluation of the machining state, and can allow the
次に、実施の形態1から3にかかる制御装置3,40を実現するハードウェアについて説明する。制御装置3,40は、処理回路により実現される。処理回路は、プロセッサがソフトウェアを実行する回路であっても良いし、専用の回路であっても良い。 Next, hardware that realizes the control devices 3 and 40 according to the first to third embodiments will be explained. The control devices 3 and 40 are realized by processing circuits. The processing circuit may be a circuit on which a processor executes software, or may be a dedicated circuit.
処理回路がソフトウェアにより実現される場合、処理回路は、例えば、図10に示す制御回路50である。図10は、実施の形態1から3にかかる制御回路50の構成例を示す図である。制御回路50は、入力部51、プロセッサ52、メモリ53、および出力部54を備える。入力部51は、制御回路50の外部から入力されたデータを受信してプロセッサ52に与えるインターフェース回路である。出力部54は、プロセッサ52またはメモリ53からのデータを制御回路50の外部に送るインターフェース回路である。
When the processing circuit is implemented by software, the processing circuit is, for example, the
処理回路が図10に示す制御回路50である場合、制御装置3,40は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ53に格納される。処理回路は、メモリ53に記憶されたプログラムをプロセッサ52が読み出して実行することにより、制御装置3,40の各機能を実現する。すなわち、処理回路は、制御装置3,40の処理が結果的に実行されることになるプログラムを格納するためのメモリ53を備える。また、これらのプログラムは、制御装置3,40の手順および方法をコンピュータに実行させるものであるともいえる。
When the processing circuit is the
プロセッサ52は、CPU(Central Processing Unit)である。プロセッサ52は、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、またはDSP(Digital Signal Processor)でも良い。メモリ53は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(登録商標)(Electrically Erasable Programmable Read Only Memory)等の、不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスクまたはDVD(Digital Versatile Disc)等が該当する。
The
図10は、汎用のプロセッサ52およびメモリ53により制御装置3,40を実現する場合のハードウェアの例であるが、制御装置3,40は、専用のハードウェア回路により実現されても良い。図11は、実施の形態1から3にかかる専用のハードウェア回路55の構成例を示す図である。
Although FIG. 10 shows an example of hardware in which the control devices 3 and 40 are realized by a general-
専用のハードウェア回路55は、入力部51、出力部54、および処理回路56を備える。処理回路56は、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、またはこれらを組み合わせた回路である。制御装置3,40の各機能を機能別に処理回路56で実現しても良いし、各機能をまとめて処理回路56で実現しても良い。なお、制御装置3,40は、制御回路50とハードウェア回路55とが組み合わされて実現されても良い。
The
学習部43が制御装置40の外部の装置である場合、かかる装置である学習装置は、制御装置3,40と同様に、処理回路により実現される。学習装置を実現する処理回路は、図10に示す制御回路50、または、図11に示す専用のハードウェア回路55である。
When the learning unit 43 is a device external to the control device 40, the learning device that is such a device is realized by a processing circuit similarly to the control devices 3 and 40. The processing circuit that realizes the learning device is the
以上の各実施の形態に示した構成は、本開示の内容の一例を示すものである。各実施の形態の構成は、別の公知の技術と組み合わせることが可能である。各実施の形態の構成同士が適宜組み合わせられても良い。本開示の要旨を逸脱しない範囲で、各実施の形態の構成の一部を省略または変更することが可能である。 The configurations shown in each of the embodiments above are examples of the contents of the present disclosure. The configuration of each embodiment can be combined with other known techniques. The configurations of each embodiment may be combined as appropriate. It is possible to omit or change a part of the configuration of each embodiment without departing from the gist of the present disclosure.
1 レーザ加工システム、2 レーザ加工機、3,40 制御装置、4 レーザ発振器、5 ケーブル、6 加工ヘッド、7 加工ノズル、8 音センサ、9 光センサ、10 ワーク、11 コリメート光学系、12 結像光学系、13 保護ガラス、14 加工ヘッド駆動部、15,16 移動機構、20,41 加工監視部、21 データ取得部、22 特徴量算出部、23 加工状態評価部、24,30,42 監視モデル決定部、25 加工パラメータ補正部、26 学習済モデル保持部、27 監視モデル保持部、28 加工制御部、31,44 重み決定部、43 学習部、50 制御回路、51 入力部、52 プロセッサ、53 メモリ、54 出力部、55 ハードウェア回路、56 処理回路。 1 Laser processing system, 2 Laser processing machine, 3, 40 Control device, 4 Laser oscillator, 5 Cable, 6 Processing head, 7 Processing nozzle, 8 Sound sensor, 9 Optical sensor, 10 Work, 11 Collimating optical system, 12 Imaging Optical system, 13 Protective glass, 14 Processing head drive unit, 15, 16 Movement mechanism, 20, 41 Processing monitoring unit, 21 Data acquisition unit, 22 Feature value calculation unit, 23 Processing state evaluation unit, 24, 30, 42 Monitoring model Determining unit, 25 Processing parameter correction unit, 26 Learned model holding unit, 27 Monitoring model holding unit, 28 Processing control unit, 31, 44 Weight determining unit, 43 Learning unit, 50 Control circuit, 51 Input unit, 52 Processor, 53 memory, 54 output section, 55 hardware circuit, 56 processing circuit.
Claims (10)
複数の前記学習済モデルの各々へ前記特徴量を入力することにより、または、複数の前記学習済モデルの組合せへ前記特徴量を入力することにより、前記加工機による加工の状態を評価する加工状態評価部と、
前記加工機によって加工されたワークの観察により加工の状態を評価した結果と前記加工状態評価部による評価結果とに基づいて、前記加工機による加工の状態の監視に用いる監視モデルである、前記学習済モデルまたは複数の前記学習済モデルの組合せを決定する監視モデル決定部と、
前記監視モデルを用いて前記加工機による加工の状態を監視した結果に基づいて前記加工機を制御する加工制御部と、を備える
ことを特徴とする制御装置。 a learned model holding unit that holds a plurality of learned models that are results of learning a relationship between a feature value indicating a state of processing by a processing machine and a state of processing by the processing machine;
a machining state in which the state of machining by the processing machine is evaluated by inputting the feature amounts to each of the plurality of trained models or by inputting the feature amounts to a combination of the plurality of trained models; Evaluation department and
The learning, which is a monitoring model used for monitoring the machining state by the processing machine, based on the result of evaluating the machining state by observing the workpiece machined by the processing machine and the evaluation result by the machining state evaluation unit. a monitoring model determining unit that determines a trained model or a combination of the trained models;
A control device comprising: a processing control unit that controls the processing machine based on a result of monitoring the state of processing by the processing machine using the monitoring model.
ことを特徴とする請求項1に記載の制御装置。 The control device according to claim 1, wherein the monitoring model determining unit determines one of the plurality of learned models held in the learned model holding unit as the monitoring model.
ことを特徴とする請求項1に記載の制御装置。 The monitoring model determining unit adjusts the weight for the output value of each trained model for the combination of the plurality of trained models held in the trained model holding unit, and determines the weight for each trained model. The control device according to claim 1, wherein a combination of the plurality of learned models, each of which has been adjusted, is determined as the monitoring model.
前記レーザ加工機による加工の際に発生する光の検出結果を示すデータと前記レーザ加工機による加工の際に発生する音の検出結果を示すデータとを取得するデータ取得部と、
前記データ取得部によって取得されたデータから前記特徴量を算出する特徴量算出部と、を備える
ことを特徴とする請求項1から3のいずれか1つに記載の制御装置。 The processing machine is a laser processing machine that processes the workpiece with a laser beam,
a data acquisition unit that acquires data indicating a detection result of light generated during processing by the laser processing machine and data indicating a detection result of sound generated during processing by the laser processing machine;
The control device according to any one of claims 1 to 3, further comprising: a feature amount calculation unit that calculates the feature amount from data acquired by the data acquisition unit.
前記学習済モデル保持部に保持される複数の前記学習済モデルの各々は、板状の前記ワークの厚さと前記レーザ加工機による加工の際における加工ガスの種類との少なくとも一方が互いに異なる複数のケースの各々における前記特徴量と加工の状態との関係を学習した結果である
ことを特徴とする請求項1から3のいずれか1つに記載の制御装置。 The processing machine is a laser processing machine that processes the workpiece with a laser beam,
Each of the plurality of learned models held in the learned model holding section is a plurality of learned models that are different from each other in at least one of the thickness of the plate-shaped workpiece and the type of processing gas used during processing by the laser processing machine. The control device according to any one of claims 1 to 3 , wherein the control device is a result of learning the relationship between the feature amount and the machining state in each case.
ことを特徴とする請求項1から3のいずれか1つに記載の制御装置。 A learning unit that generates the learned model by learning the relationship between the feature amount and the state of machining by the processing machine, and adds the generated learned model to the learned model holding unit. A control device according to any one of claims 1 to 3 .
ことを特徴とする請求項6に記載の制御装置。 When the material of the workpiece processed by the processing machine is changed, the learned model generated by the learning section is added to the learned model holding section, or the learned model generated by the learning section is added to the learned model holding section. The control device according to claim 6, wherein the learned model added to the learned model holding unit is deleted from the learned model holding unit.
ことを特徴とする請求項6に記載の制御装置。 When the state of machining by the processing machine changes, the learned model generated by the learning section is added to the learned model holding section, or the learned model generated by the learning section and held is 7. The control device according to claim 6, wherein the learned model added to the learned model storage section is deleted from the learned model holding section.
前記レーザ加工機を制御する制御装置と、を備え、
前記制御装置は、
前記レーザ加工機による加工の状態を示す特徴量と前記レーザ加工機による加工の状態との関係を学習した結果である学習済モデルを複数保持する学習済モデル保持部と、
複数の前記学習済モデルの各々へ前記特徴量を入力することにより、または、複数の前記学習済モデルの組合せへ前記特徴量を入力することにより、前記レーザ加工機による加工の状態を評価する加工状態評価部と、
前記レーザ加工機によって加工された前記ワークの観察により加工の状態を評価した結果と、前記加工状態評価部による評価結果とに基づいて、前記レーザ加工機による加工の状態の監視に用いる監視モデルである、前記学習済モデルまたは複数の前記学習済モデルの組合せを決定する監視モデル決定部と、
前記監視モデルを用いて前記レーザ加工機による加工の状態を監視した結果に基づいて前記レーザ加工機を制御する加工制御部と、を備える
ことを特徴とするレーザ加工システム。 A laser processing machine that processes a workpiece with laser light,
A control device that controls the laser processing machine,
The control device includes:
a learned model holding unit that holds a plurality of learned models that are results of learning a relationship between a feature amount indicating a state of processing by the laser processing machine and a state of processing by the laser processing machine;
Processing that evaluates the state of machining by the laser processing machine by inputting the feature amount to each of the plurality of trained models or by inputting the feature amount to a combination of the plurality of trained models. a condition evaluation section;
A monitoring model used for monitoring the processing state by the laser processing machine based on the result of evaluating the processing state by observing the workpiece processed by the laser processing machine and the evaluation result by the processing state evaluation unit. a monitoring model determining unit that determines the trained model or a combination of the trained models;
A laser processing system comprising: a processing control section that controls the laser processing machine based on a result of monitoring the processing state of the laser processing machine using the monitoring model.
前記レーザ加工機による加工の状態と前記特徴量との関係を学習した結果である複数の学習済モデルの各々へ取得された前記特徴量を入力することにより、または、複数の前記学習済モデルの組合せへ取得された前記特徴量を入力することにより、前記レーザ加工機による加工の状態を評価するステップと、
前記レーザ加工機によって加工された前記ワークの観察により加工の状態を評価した結果と、加工の状態を評価する前記ステップによる評価結果とに基づいて、前記レーザ加工機による加工の状態の監視に用いる監視モデルである、前記学習済モデルまたは複数の前記学習済モデルの組合せを決定するステップと、
前記監視モデルを用いて前記レーザ加工機による加工の状態を監視した結果に基づいて前記レーザ加工機を制御するステップと、を含む
ことを特徴とするレーザ加工方法。 a step of acquiring a feature amount indicating a processing state by a laser processing machine that processes a workpiece with a laser beam;
By inputting the acquired feature amount to each of a plurality of learned models that are the results of learning the relationship between the machining state by the laser processing machine and the feature amount, or by inputting the obtained feature amount to each of the plurality of learned models, evaluating the state of machining by the laser processing machine by inputting the acquired feature amounts into a combination;
Used to monitor the processing state by the laser processing machine based on the result of evaluating the processing state by observing the workpiece processed by the laser processing machine and the evaluation result from the step of evaluating the processing state. determining the trained model or a combination of the trained models, which is a monitoring model;
A laser processing method comprising: controlling the laser processing machine based on a result of monitoring the processing state of the laser processing machine using the monitoring model.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023022679 | 2023-06-20 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7415097B1 true JP7415097B1 (en) | 2024-01-16 |
Family
ID=89534350
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023562788A Active JP7415097B1 (en) | 2023-06-20 | 2023-06-20 | Control device, laser processing system, and laser processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7415097B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020138279A (en) | 2019-02-28 | 2020-09-03 | ファナック株式会社 | Processing condition adjustment device and processing condition adjustment system |
JP2021135679A (en) | 2020-02-26 | 2021-09-13 | コニカミノルタ株式会社 | Process machine state estimation system, and process machine state estimation program |
WO2022215169A1 (en) | 2021-04-06 | 2022-10-13 | 三菱電機株式会社 | Laser machining apparatus and laser machining method |
-
2023
- 2023-06-20 JP JP2023562788A patent/JP7415097B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020138279A (en) | 2019-02-28 | 2020-09-03 | ファナック株式会社 | Processing condition adjustment device and processing condition adjustment system |
JP2021135679A (en) | 2020-02-26 | 2021-09-13 | コニカミノルタ株式会社 | Process machine state estimation system, and process machine state estimation program |
WO2022215169A1 (en) | 2021-04-06 | 2022-10-13 | 三菱電機株式会社 | Laser machining apparatus and laser machining method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107199397B (en) | Machine learning device, laser processing system, and machine learning method | |
US11167377B2 (en) | Machining condition setting device and 3D laser machining system | |
US10643127B2 (en) | Machine learning apparatus for learning condition for starting laser machining, laser apparatus, and machine learning method | |
US12013670B2 (en) | Monitoring a laser machining process using deep folding neural networks | |
US10761037B2 (en) | Laser processing device for determining the presence of contamination on a protective window | |
US10537964B2 (en) | Laser machining apparatus and laser machining method for performing laser machining while controlling reflected light | |
JP6854984B1 (en) | Laser machining system | |
CN109834387B (en) | Laser processing device for alarming abnormality of external optical system before laser processing | |
US20060049158A1 (en) | Method and apparatus for regulating an automatic treatment process | |
WO2018000974A1 (en) | Laser processing method and device for removing thin film or coating | |
JP2005161361A (en) | Laser beam machine control method and laser beam machine | |
US20200331096A1 (en) | Device and method for learning focal position offset of laser processing apparatus, and laser processing system correcting focal position offset | |
JP2022519202A (en) | Methods for automatically identifying the effects of laser machining parameters on laser machining and laser machining machine and computer program products | |
WO2015118829A1 (en) | Laser machining device | |
US11590579B2 (en) | Method and apparatus for estimating depth of molten pool during printing process, and 3D printing system | |
JP2016155140A (en) | Laser processing discrimination method and apparatus | |
US20230234153A1 (en) | Method for defining welding parameters for a welding process on a workpiece and welding device for carrying out a welding process on a workpiece with defined welding parameters | |
JP7415097B1 (en) | Control device, laser processing system, and laser processing method | |
JP2019005775A (en) | Manufacturing method of laser beam machined product, manufacturing method of battery, and laser beam machined product | |
JP6956329B2 (en) | Alignment method | |
WO2023199409A1 (en) | Laser processing device, control device, laser processing system, and laser processing method | |
KR20160073785A (en) | Laser processing system and laser processing method using the laser processing system | |
US20210370438A1 (en) | Laser processing device | |
CN114514082A (en) | Techniques for analyzing sensor data in powder bed additive manufacturing | |
CN116329740B (en) | Method and device for in-situ monitoring and process control of laser fusion welding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231012 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231012 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20231012 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7415097 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |