JP7271295B2 - Machine learning method, information processing device, and program - Google Patents

Machine learning method, information processing device, and program Download PDF

Info

Publication number
JP7271295B2
JP7271295B2 JP2019084263A JP2019084263A JP7271295B2 JP 7271295 B2 JP7271295 B2 JP 7271295B2 JP 2019084263 A JP2019084263 A JP 2019084263A JP 2019084263 A JP2019084263 A JP 2019084263A JP 7271295 B2 JP7271295 B2 JP 7271295B2
Authority
JP
Japan
Prior art keywords
information
unit
input
input information
output information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019084263A
Other languages
Japanese (ja)
Other versions
JP2020181384A (en
Inventor
健太郎 石橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shibaura Machine Co Ltd
Original Assignee
Shibaura Machine Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shibaura Machine Co Ltd filed Critical Shibaura Machine Co Ltd
Priority to JP2019084263A priority Critical patent/JP7271295B2/en
Priority to US16/852,846 priority patent/US11776072B2/en
Priority to DE102020111128.2A priority patent/DE102020111128A1/en
Publication of JP2020181384A publication Critical patent/JP2020181384A/en
Application granted granted Critical
Publication of JP7271295B2 publication Critical patent/JP7271295B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明の実施形態は、機械学習方法、情報処理装置、及びプログラムに関する。 TECHNICAL FIELD Embodiments of the present invention relate to a machine learning method, an information processing apparatus, and a program.

例えば、画像認識、音声認識、及び自然言語処理の分野に、機械学習の技術が適用されている。機械学習では、例えば、学習データからの演算結果と、当該学習データに対応するラベルと、の比較を反復することで、演算結果の精度が向上する。 For example, machine learning techniques are applied in the fields of image recognition, speech recognition, and natural language processing. In machine learning, for example, the accuracy of the calculation result is improved by repeatedly comparing the calculation result from the learning data and the label corresponding to the learning data.

特開2018-1184号公報JP 2018-1184 A

一般的に、反復回数の増加に従って、演算結果の精度が向上する。所望の精度を得るまでの反復回数を少なくできれば、機械学習の有用性が向上する。 Generally, as the number of iterations increases, the accuracy of the computation results improves. The usefulness of machine learning increases when the number of iterations to achieve the desired accuracy can be reduced.

一つの実施形態に係る機械学習方法は、コンピュータにより実行される機械学習方法であって、演算部に、複数の入力情報のそれぞれから出力情報を算出させることと、前記出力情報と、前記複数の入力情報に対して設定された正解情報と、に基づき、前記出力情報が正解か不正解かを判定することと、前記演算部に、前記複数の入力情報に含まれるとともに不正解と判定された前記出力情報に対応する少なくとも一つの第1の入力情報と、前記複数の入力情報に含まれる少なくとも一つの第2の入力情報と、のそれぞれから前記出力情報を算出させることと、前記出力情報に基づき、前記演算部を変更することと、正解と判定された前記出力情報の割合に基づき、前記演算部に入力される前記第1の入力情報及び前記第2の入力情報の割合を変更することと、を備える。 A machine learning method according to one embodiment is a machine learning method executed by a computer, comprising: causing a calculation unit to calculate output information from each of a plurality of pieces of input information; determining whether the output information is correct or incorrect based on correct information set for the input information; calculating the output information from each of at least one first input information corresponding to the output information and at least one second input information included in the plurality of input information; and changing the ratio of the first input information and the second input information input to the calculation unit based on the ratio of the output information determined to be correct. And prepare.

図1は、第1の実施形態に係る積層造形システムを模式的に示す例示的な斜視図である。FIG. 1 is an exemplary perspective view schematically showing the layered manufacturing system according to the first embodiment. 図2は、第1の実施形態の積層造形システムの一部及び造形物を模式的に示す例示的な断面図である。FIG. 2 is an exemplary cross-sectional view schematically showing a part of the laminate manufacturing system and the modeled object of the first embodiment. 図3は、第1の実施形態の積層造形システムの構成を機能的に示す例示的なブロック図である。FIG. 3 is an exemplary block diagram functionally showing the configuration of the laminate manufacturing system of the first embodiment. 図4は、第1の実施形態の画像の三つの例を示す図である。FIG. 4 is a diagram showing three examples of images of the first embodiment. 図5は、第1の実施形態のCNNの構成の一例を概略的に示す例示的な図である。FIG. 5 is an exemplary diagram schematically showing an example of the configuration of the CNN of the first embodiment. 図6は、第1の実施形態の学習部の構成を機能的に示す例示的なブロック図である。FIG. 6 is an exemplary block diagram functionally showing the configuration of the learning unit of the first embodiment. 図7は、第1の実施形態の機械学習方法の一例を示すフローチャートである。FIG. 7 is a flow chart showing an example of the machine learning method of the first embodiment. 図8は、第1の実施形態の第1の評価部及び第2の評価部の評価結果における出力値の正答率の一例を示すグラフである。FIG. 8 is a graph showing an example of correct answer rate of output values in the evaluation results of the first evaluation unit and the second evaluation unit according to the first embodiment. 図9は、比較例としての第1の評価部及び第2の評価部の評価結果における出力値の正答率の一例を示すグラフである。FIG. 9 is a graph showing an example of correct answer rates of output values in the evaluation results of the first evaluation section and the second evaluation section as a comparative example. 図10は、第1の実施形態の推定部の構成を機能的に示す例示的なブロック図である。FIG. 10 is an exemplary block diagram functionally showing the configuration of an estimating unit according to the first embodiment. 図11は、第1の実施形態の積層造形監視方法の一例を示すフローチャートである。FIG. 11 is a flow chart showing an example of the layered manufacturing monitoring method of the first embodiment. 図12は、第2の実施形態に係る積層造形監視方法の一例を示すフローチャートである。FIG. 12 is a flow chart showing an example of the layered manufacturing monitoring method according to the second embodiment.

(第1の実施形態)
以下に、第1の実施形態について、図1乃至図11を参照して説明する。なお、本明細書においては基本的に、鉛直上方を上方向、鉛直下方を下方向と定義する。また、本明細書において、実施形態に係る構成要素及び当該要素の説明が、複数の表現で記載されることがある。構成要素及びその説明は、一例であり、本明細書の表現によって限定されない。構成要素は、本明細書におけるものとは異なる名称で特定され得る。また、構成要素は、本明細書の表現とは異なる表現によって説明され得る。
(First embodiment)
A first embodiment will be described below with reference to FIGS. 1 to 11. FIG. In this specification, basically, the vertically upward direction is defined as the upward direction, and the vertically downward direction is defined as the downward direction. In addition, in this specification, a component according to the embodiment and description of the component may be described with a plurality of expressions. The components and their descriptions are examples and are not limited by the expressions herein. Components may be identified by names different from those herein. Also, components may be described in terms that differ from those herein.

図1は、第1の実施形態に係る積層造形システム1を模式的に示す例示的な斜視図である。積層造形システム1は、積層造形監視システムとも称され得る。積層造形システム1は、いわゆるレーザーマテリアルデポジション方式の三次元プリンタを含むシステムである。なお、積層造形システム1はこの例に限らない。 FIG. 1 is an exemplary perspective view schematically showing a layered manufacturing system 1 according to the first embodiment. The additive manufacturing system 1 may also be referred to as an additive manufacturing monitoring system. The laminate manufacturing system 1 is a system including a so-called laser material deposition three-dimensional printer. Note that the layered manufacturing system 1 is not limited to this example.

各図面に示されるように、本明細書において、X軸、Y軸及びZ軸が定義される。X軸とY軸とZ軸とは、互いに直交する。Z軸は、例えば鉛直方向に延びる。X軸及びY軸は、例えば水平方向に延びる。なお、積層造形システム1は、Z軸が鉛直方向と斜めに交差するように配置されても良い。 An X-axis, a Y-axis and a Z-axis are defined herein as indicated in each drawing. The X-axis, Y-axis and Z-axis are orthogonal to each other. The Z-axis extends, for example, in the vertical direction. The X-axis and Y-axis extend horizontally, for example. Note that the layered manufacturing system 1 may be arranged so that the Z-axis obliquely crosses the vertical direction.

図2は、第1の実施形態の積層造形システム1の一部及び造形物3を模式的に示す例示的な断面図である。積層造形システム1は、例えば、粉末状の材料Mを層状に積み重ねることにより、所定の形状の造形物3を積層造形(付加製造)する。造形物3は、積層造形される物体の一例である。 FIG. 2 is an exemplary cross-sectional view schematically showing part of the laminate manufacturing system 1 and the modeled object 3 of the first embodiment. The layered manufacturing system 1 laminates (additionally manufactures) a modeled object 3 having a predetermined shape, for example, by stacking powdery materials M in layers. The modeled object 3 is an example of an object to be laminate-molded.

図1に示すように、積層造形システム1は、テーブル11と、造形部12と、撮像部13と、制御部14と、複数の信号線16とを有する。制御部14は、情報処理装置又はコンピュータとも称され得る。テーブル11、造形部12、撮像部13、及び制御部14は、例えば、積層造形システム1の筐体の内部、又は造形のための部屋の内部に設けられた、チャンバCに配置される。チャンバCは、例えば、密閉可能な空間である。 As shown in FIG. 1 , the layered manufacturing system 1 has a table 11 , a modeling section 12 , an imaging section 13 , a control section 14 and a plurality of signal lines 16 . The control unit 14 may also be called an information processing device or computer. The table 11, the modeling unit 12, the imaging unit 13, and the control unit 14 are arranged, for example, in a chamber C provided inside the housing of the layered manufacturing system 1 or inside a room for modeling. Chamber C is, for example, a space that can be sealed.

テーブル11は、支持面11aを有する。支持面11aは、略平坦に形成され、Z軸の正方向(Z軸の矢印が示す方向、上方向)に向く。支持面11aは、積層造形された造形物3や、造形物3の仕掛品や、材料Mを積層させるためのベースを支持する。以下の説明において、造形物3は、積層造形が完了した造形物3、造形物3の仕掛品、及びベースを含む。テーブル11は、当該テーブル11の少なくとも一部が回転することにより、支持面11aに支持された造形物3をZ軸に平行な回転中心まわりに回転させることが可能である。 The table 11 has a support surface 11a. The support surface 11a is formed substantially flat and faces the positive direction of the Z-axis (the direction indicated by the arrow of the Z-axis, upward). The support surface 11a supports the modeled object 3 that has been laminate-modeled, the in-process product of the modeled object 3, and the base for laminating the material M. In the following description, the modeled object 3 includes the modeled object 3 for which layered manufacturing has been completed, the in-process product of the modeled object 3, and the base. By rotating at least part of the table 11, the table 11 can rotate the modeled object 3 supported on the support surface 11a around the center of rotation parallel to the Z-axis.

テーブル11は、造形物3をX軸方向、Y軸方向、及びZ軸方向に移動させても良い。また、テーブル11は造形物3を、Y軸に平行な回転中心や、X軸に平行な回転中心まわりにさらに回転させても良い。 The table 11 may move the modeled object 3 in the X-axis direction, the Y-axis direction, and the Z-axis direction. Further, the table 11 may further rotate the modeled object 3 around a rotation center parallel to the Y-axis or a rotation center parallel to the X-axis.

造形部12は、材料Mを供給し、支持面11a、又は支持面11aに支持されたベースの上に積み重ねる。材料Mは、例えば、粉末状のチタンである。なお、材料Mはこれに限られず、他の金属、合成樹脂、及びセラミックスのような他の材料であっても良い。積層造形システム1は、複数種類の材料Mにより、造形物3を積層造形しても良い。 The modeling unit 12 supplies the material M and stacks it on the support surface 11a or a base supported by the support surface 11a. Material M is, for example, powdered titanium. Note that the material M is not limited to this, and may be other materials such as other metals, synthetic resins, and ceramics. The layered manufacturing system 1 may laminately manufacture the modeled object 3 using a plurality of types of materials M. FIG.

造形部12は、ノズル21と、供給装置22と、移動装置23と、調整装置24とを有する。ノズル21は、テーブル11の支持面11a、又は支持面11aの上の造形物3に材料Mを吐出する。また、図2に示すように、エネルギー線Eが、ノズル21から、吐出された材料Mや支持面11aの上の造形物3に照射される。エネルギー線Eは、例えば、レーザ光である。 The modeling section 12 has a nozzle 21 , a supply device 22 , a moving device 23 and an adjusting device 24 . The nozzle 21 ejects the material M onto the support surface 11a of the table 11 or onto the modeled object 3 on the support surface 11a. Further, as shown in FIG. 2, energy rays E are emitted from the nozzle 21 to the ejected material M and the modeled object 3 on the support surface 11a. The energy ray E is, for example, laser light.

エネルギー線Eとしてのレーザ光が、材料Mの供給と並行してノズル21から照射される。ノズル21から、レーザ光に限らず、他のエネルギー線Eが照射されても良い。エネルギー線Eは、レーザ光のように材料Mを溶融又は焼結できるものであれば良く、例えば、電子ビームや、マイクロ波乃至紫外線領域の電磁波であっても良い。 A laser beam as the energy beam E is emitted from the nozzle 21 in parallel with the material M being supplied. Other energy beams E may be emitted from the nozzle 21 in addition to the laser beam. The energy beam E may be any beam that can melt or sinter the material M, such as a laser beam, and may be, for example, an electron beam or an electromagnetic wave in the microwave or ultraviolet region.

造形部12は、ベースや吐出された材料Mをエネルギー線Eにより加熱し、溶融領域(ビード)3aを形成する。ノズル21は、溶融領域3aにおいて、材料Mにエネルギー線Eを照射して溶融又は焼結させ、材料Mを集合させる。このように、溶融領域3aは、供給された材料Mのみならず、エネルギー線Eを照射されたベースや造形物3の一部を含み得る。また、溶融領域3aは、完全に溶融した材料Mのみならず、部分的に溶融した材料M同士が結合したものであっても良い。 The modeling unit 12 heats the base and the discharged material M with the energy beam E to form a melted region (bead) 3a. The nozzle 21 irradiates the material M with the energy beam E to melt or sinter the material M in the melting region 3a, thereby gathering the material M. As shown in FIG. Thus, the melting region 3a can include not only the supplied material M, but also a part of the base and the modeled object 3 irradiated with the energy rays E. As shown in FIG. Further, the melted region 3a may be not only a completely melted material M but also partially melted materials M joined together.

溶融領域3aが固化することで、ベースや造形物3の上に、層状又は薄膜状等の材料Mの集合としての層3bが形成される。なお、材料Mは、材料Mの集合への伝熱によって冷却されることにより、粒状で積層され、粒状の集合(層)となっても良い。 By solidifying the melted region 3a, a layer 3b is formed on the base and the modeled object 3 as a set of layers or thin films of the material M. As shown in FIG. It should be noted that the material M may be laminated in a granular state by being cooled by heat transfer to the aggregate of the material M to form a granular aggregate (layer).

造形部12は、ノズル21から、材料Mの集合にエネルギー線Eを照射することで、アニール処理を行っても良い。材料Mの集合は、エネルギー線Eにより再溶融又は再焼結され、固化することにより層3bになる。 The modeling unit 12 may perform the annealing process by irradiating the set of materials M with energy rays E from the nozzle 21 . The assembly of material M is re-melted or re-sintered by energy beam E and solidified to form layer 3b.

造形部12は、層3bを反復的に積み重ねることにより、造形物3を積層造形する。このように、造形部12のノズル21は、エネルギー線Eを照射して材料Mを溶融又は焼結させて層3bを造形し、層3bの造形を繰り返し行うことで、支持面11aに支持された造形物3を積層造形する。 The modeling unit 12 laminate-models the modeled object 3 by repeatedly stacking the layers 3b. In this way, the nozzle 21 of the modeling unit 12 is supported by the support surface 11a by irradiating the energy beam E to melt or sinter the material M to shape the layer 3b, and by repeating the shaping of the layer 3b. The modeled object 3 is laminate-molded.

ノズル21は、ノズルヘッド31を有する。ノズルヘッド31の先端31aは、間隔を介して造形物3に向く。ノズルヘッド31に、出射路32、吐出路33、及び供給路34が設けられる。出射路32、吐出路33、及び供給路34は、例えば、先端31aに開口する。 The nozzle 21 has a nozzle head 31 . A tip 31a of the nozzle head 31 faces the object 3 with a gap therebetween. The nozzle head 31 is provided with an exit path 32 , a discharge path 33 and a supply path 34 . The output path 32, the discharge path 33, and the supply path 34 are opened at the tip 31a, for example.

出射路32は、略円形の断面を有する孔である。エネルギー線Eが、出射路32を通り、ノズルヘッド31の外部に出射される。吐出路33は、略円環状の断面を有する孔であり、出射路32を囲むように設けられる。キャリアガス及び材料Mが、吐出路33を通り、ノズルヘッド31の外部に吐出される。供給路34は、略円環状の断面を有する孔であり、吐出路33を囲むように設けられる。シールドガスGが、供給路34を通り、ノズルヘッド31の外部に吐出される。シールドガスGは、例えば、窒素やアルゴンのような不活性ガスである。 The exit path 32 is a hole having a substantially circular cross section. The energy ray E passes through the emission path 32 and is emitted to the outside of the nozzle head 31 . The discharge path 33 is a hole having a substantially annular cross section and is provided so as to surround the output path 32 . A carrier gas and material M are discharged outside the nozzle head 31 through the discharge passage 33 . The supply path 34 is a hole having a substantially annular cross section and is provided so as to surround the discharge path 33 . A shielding gas G is discharged to the outside of the nozzle head 31 through the supply path 34 . Shield gas G is, for example, an inert gas such as nitrogen or argon.

図1に示すように、供給装置22は、光学装置41と、材料供給装置42と、ガス供給装置43とを有する。光学装置41は、例えば、光源及び光学系を有する。光源は、発振素子を有し、発振素子の発振によりエネルギー線Eとしてのレーザ光を出射する。光源は、出射されるエネルギー線Eの出力(パワー)を変更可能である。 As shown in FIG. 1 , the supply device 22 has an optical device 41 , a material supply device 42 and a gas supply device 43 . The optical device 41 has, for example, a light source and an optical system. The light source has an oscillating element, and emits laser light as energy rays E by oscillation of the oscillating element. The light source can change the output (power) of the energy ray E to be emitted.

光源は、出射されたエネルギー線Eを光学系に入射させる。エネルギー線Eは、光学系を経てノズル21に入る。光学系は、エネルギー線Eの焦点径を変更可能である。光学装置41は、ノズル21の出射路32にエネルギー線Eを供給し、出射路32からエネルギー線Eを出射させる。 The light source causes the emitted energy ray E to enter the optical system. The energy ray E enters the nozzle 21 through the optical system. The optical system can change the focal diameter of the energy beam E. FIG. The optical device 41 supplies the energy ray E to the emission path 32 of the nozzle 21 and causes the energy ray E to be emitted from the emission path 32 .

ノズル21は、エネルギー線Eの照射によって、吐出された材料Mを加熱することにより、材料Mの層3bを形成するとともにアニール処理を行うことができる。また、ノズル21は、造形物3の不要な部位をエネルギー線Eの照射によって除去することができる。 The nozzle 21 heats the ejected material M by irradiating the energy beam E, thereby forming the layer 3b of the material M and performing an annealing treatment. Further, the nozzle 21 can remove an unnecessary portion of the modeled object 3 by irradiating the energy beam E. FIG.

材料供給装置42は、材料供給部42aと、タンク42bとを有する。タンク42bは、材料Mを収容する。材料供給装置42は、互いに異なる種類の材料Mを収容する複数のタンク42bを有しても良い。 The material supply device 42 has a material supply section 42a and a tank 42b. The tank 42b contains the material M. The material supply device 42 may have a plurality of tanks 42b containing different kinds of materials M from each other.

材料供給部42aは、タンク42bの材料Mを、供給管21aを介してノズル21へ供給する。材料供給部42aは、例えば、キャリアガスにより材料Mをノズル21へ供給する。キャリアガスは、例えば、窒素やアルゴンのような不活性ガスである。 The material supply unit 42a supplies the material M in the tank 42b to the nozzle 21 through the supply pipe 21a. The material supply part 42a supplies the material M to the nozzle 21 by carrier gas, for example. A carrier gas is, for example, an inert gas such as nitrogen or argon.

材料供給部42aは、供給管21aを介して、ノズルヘッド31の吐出路33にキャリアガスと材料Mとを供給する。これにより、ノズル21は、吐出路33からキャリアガス及び材料Mを吐出する。材料供給部42aは、単位時間あたりにノズル21から吐出される材料Mの量と、吐出される材料Mの速度と、を変更可能である。 The material supply part 42a supplies the carrier gas and the material M to the ejection path 33 of the nozzle head 31 via the supply pipe 21a. Thereby, the nozzle 21 ejects the carrier gas and the material M from the ejection path 33 . The material supply unit 42a can change the amount of the material M ejected from the nozzle 21 per unit time and the speed of the material M ejected.

材料供給部42aは、例えば、キャリアガスを収容するタンクと、当該タンクのキャリアガスを供給管21aへ流す圧縮機と、キャリアガスの流れにタンク42bの材料Mを供給する装置と、を有する。なお、材料供給部42aは、他の手段により材料Mをノズル21へ供給しても良い。 The material supply unit 42a has, for example, a tank containing a carrier gas, a compressor for causing the carrier gas in the tank to flow to the supply pipe 21a, and a device for supplying the material M in the tank 42b to the flow of the carrier gas. Note that the material supply unit 42a may supply the material M to the nozzle 21 by other means.

ガス供給装置43は、ガス供給部43aと、タンク43bとを有する。タンク43bは、シールドガスGを収容する。ガス供給部43aは、タンク43bのシールドガスGを、供給管21aを介してノズル21へ供給する。供給管21aは、キャリアガス及び材料Mが通る管、シールドガスGが通る管、及びエネルギー線Eが通るケーブルを包含している。ガス供給部43aは、単位時間あたりにノズル21から吐出されるシールドガスGの量と、吐出されるシールドガスGの速度と、を変更可能である。 The gas supply device 43 has a gas supply portion 43a and a tank 43b. The tank 43b accommodates the shielding gas G. The gas supply unit 43a supplies the shielding gas G in the tank 43b to the nozzle 21 through the supply pipe 21a. The supply tube 21a includes a tube through which the carrier gas and material M passes, a tube through which the shielding gas G passes, and a cable through which the energy line E passes. The gas supply unit 43a can change the amount of the shielding gas G discharged from the nozzle 21 per unit time and the speed of the shielding gas G discharged.

移動装置23は、ノズル21を移動及び回動させる。例えば、移動装置23は、ノズル21を、X軸方向、Y軸方向、及びZ軸方向に平行移動させるとともに、X軸に平行な回転中心まわりに回転させることが可能である。 The moving device 23 moves and rotates the nozzle 21 . For example, the moving device 23 can move the nozzle 21 parallel in the X-axis direction, the Y-axis direction, and the Z-axis direction, and rotate it around the center of rotation parallel to the X-axis.

移動装置23は、ノズル21を支持面11aに対して相対的に移動させ、ノズル21の向きを変化させることが可能である。移動装置23は、支持面11aに対するノズル21の移動速度を変更可能である。なお、テーブル11が移動及び回動することで、ノズル21が支持面11aに対して相対的に移動し、支持面11aに対するノズル21の向きが変化しても良い。 The moving device 23 can move the nozzle 21 relative to the support surface 11 a to change the orientation of the nozzle 21 . The moving device 23 can change the moving speed of the nozzle 21 with respect to the support surface 11a. The table 11 may move and rotate to move the nozzle 21 relative to the support surface 11a, thereby changing the orientation of the nozzle 21 with respect to the support surface 11a.

調整装置24は、チャンバCの酸素濃度を調整する。例えば、調整装置24は、チャンバCの空気を排出したり、チャンバCに不活性ガスを供給したりすることで、ノズル21及び造形物3の周りの酸素濃度を調整する。 The adjuster 24 adjusts the oxygen concentration in chamber C. For example, the adjusting device 24 adjusts the oxygen concentration around the nozzle 21 and the modeled object 3 by exhausting air from the chamber C or supplying an inert gas to the chamber C.

撮像部13は、撮像装置13aを有する。撮像装置13aは、例えば、動画を撮影可能であるとともに、当該動画を制御部14に転送可能なビデオカメラである。なお、撮像装置13aは、静止画を撮影可能なスチルカメラのような他の撮像装置であっても良い。撮像装置13aは、ノズル21及び造形物3を撮影する。撮像装置13aは、ノズル21に追従して移動可能であっても良い。 The imaging unit 13 has an imaging device 13a. The imaging device 13 a is, for example, a video camera capable of capturing moving images and transferring the moving images to the control unit 14 . Note that the imaging device 13a may be another imaging device such as a still camera capable of capturing still images. The imaging device 13a photographs the nozzle 21 and the modeled object 3 . The imaging device 13 a may be movable following the nozzle 21 .

制御部14は、テーブル11、造形部12、及び撮像装置13aに、信号線16を介して電気的に接続される。制御部14は、例えば、造形部12と一体的に設けられた制御部であっても良いし、造形部12とは別に設けられたコンピュータであっても良い。 The control unit 14 is electrically connected to the table 11, the modeling unit 12, and the imaging device 13a via signal lines 16. FIG. The control unit 14 may be, for example, a control unit provided integrally with the modeling unit 12 or a computer provided separately from the modeling unit 12 .

制御部14は、例えば、CPU(Central Processing Unit)14aのような制御装置と、ROM(Read Only Memorry)14bと、RAM(Random Access Memorry)14cと、外部記憶装置14dと、出力装置14eと、入力装置14fとを有し、通常のコンピュータを利用したハードウェア構成となっている。CPU14a、ROM14b、RAM14c、外部記憶装置14d、出力装置14e、及び入力装置14fは、バスにより、又はインターフェースを介して、互いに接続されている。 The control unit 14 includes, for example, a control device such as a CPU (Central Processing Unit) 14a, a ROM (Read Only Memory) 14b, a RAM (Random Access Memory) 14c, an external storage device 14d, an output device 14e, It has an input device 14f and has a hardware configuration using a normal computer. The CPU 14a, ROM 14b, RAM 14c, external storage device 14d, output device 14e, and input device 14f are connected to each other via a bus or an interface.

CPU14aがROM14b又は外部記憶装置14dに組み込まれたプログラムを実行することで、制御部14は、積層造形システム1の各部を制御する。例えば、制御部14は、テーブル11と、造形部12のノズル21、移動装置23、調整装置24、光学装置41、材料供給装置42、及びガス供給装置43とを制御する。 The control unit 14 controls each unit of the laminate manufacturing system 1 by the CPU 14a executing a program incorporated in the ROM 14b or the external storage device 14d. For example, the control unit 14 controls the table 11 , the nozzle 21 of the modeling unit 12 , the moving device 23 , the adjusting device 24 , the optical device 41 , the material supplying device 42 , and the gas supplying device 43 .

ROM14bは、プログラム及びプログラムの実行に必要なデータを格納している。RAM14cは、プログラムの実行時に作業領域として機能する。外部記憶装置14dは、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)のような、データを記憶、変更、削除可能な装置である。出力装置14eは、例えば、ディスプレイやスピーカである。入力装置14fは、例えば、キーボードやマウスである。 The ROM 14b stores programs and data necessary for executing the programs. The RAM 14c functions as a work area during program execution. The external storage device 14d is, for example, a device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive) that can store, change, and delete data. The output device 14e is, for example, a display or a speaker. The input device 14f is, for example, a keyboard or mouse.

図3は、第1の実施形態の積層造形システム1の構成を機能的に示す例示的なブロック図である。制御部14は、例えば、CPU14aがROM14b又は外部記憶装置14dに格納されたプログラムを読み出し実行することで、図3に示す各部を実現する。図3に示すように、制御部14は、例えば、記憶部61と、造形制御部62と、画像処理部63と、学習部64と、推定部65と、出力制御部66とを備える。 FIG. 3 is an exemplary block diagram functionally showing the configuration of the laminate manufacturing system 1 of the first embodiment. The control unit 14 realizes each unit shown in FIG. 3 by reading and executing a program stored in the ROM 14b or the external storage device 14d by the CPU 14a, for example. As shown in FIG. 3, the control unit 14 includes, for example, a storage unit 61, a modeling control unit 62, an image processing unit 63, a learning unit 64, an estimation unit 65, and an output control unit 66.

例えば、CPU14aが、造形制御部62、画像処理部63、学習部64、推定部65、出力制御部66として機能する。また、RAM14cや外部記憶装置14dが、記憶部61として機能する。 For example, the CPU 14 a functions as a shaping control section 62 , an image processing section 63 , a learning section 64 , an estimation section 65 and an output control section 66 . Also, the RAM 14 c and the external storage device 14 d function as the storage unit 61 .

記憶部61は、NCプログラム71と、複数のデータセット72と、畳み込みニューラルネットワーク(Convolutional Neural Network;CNN)73と、不正解リスト74とを含む、種々の情報を格納する。CNN73は、演算部又は学習結果とも称され得る。 The storage unit 61 stores various information including an NC program 71 , a plurality of data sets 72 , a convolutional neural network (CNN) 73 and an incorrect answer list 74 . CNN 73 may also be referred to as a computing unit or learning result.

NCプログラム71は、複数の層3bと、当該層3bを含む造形物3と、の造形のための情報である。NCプログラム71は、例えば、造形物3及び層3bの形状と、ノズル21の移動経路と、移動経路の各位置における、積層造形のパラメータの情報を含む。積層造形のパラメータは、例えば、ノズル21の移動速度、ノズル21の向き、吐出される材料Mの単位時間あたりの量、吐出される材料Mの速度、照射されるエネルギー線Eの出力、及び供給されるシールドガスGの流量を含む。NCプログラム71は、他の情報をさらに含んでも良い。 The NC program 71 is information for modeling a plurality of layers 3b and a modeled object 3 including the layers 3b. The NC program 71 includes, for example, the shape of the object 3 and the layer 3b, the movement path of the nozzle 21, and the parameter information of the layered manufacturing at each position of the movement path. The parameters of the layered manufacturing are, for example, the moving speed of the nozzle 21, the direction of the nozzle 21, the amount of the discharged material M per unit time, the speed of the discharged material M, the output of the irradiated energy ray E, and the supply including the flow rate of the shielding gas G applied. The NC program 71 may further contain other information.

造形制御部62は、NCプログラム71に基づいて、移動装置23、調整装置24、光学装置41、材料供給装置42、及びガス供給装置43を含む造形部12を制御し、複数の層3b(造形物3)を積層造形する。また、造形制御部62は、造形部12による積層造形のパラメータを変更すること、及び造形部12を停止させることが可能である。 Based on the NC program 71, the modeling control unit 62 controls the modeling unit 12 including the moving device 23, the adjusting device 24, the optical device 41, the material supply device 42, and the gas supply device 43 to form a plurality of layers 3b (modeling Item 3) is laminate-molded. Further, the modeling control unit 62 can change the parameters of the layered modeling by the modeling unit 12 and stop the modeling unit 12 .

画像処理部63は、撮像装置13aが撮影した動画を取得し、当該動画を複数の静止画(画像)に変換する。例えば、撮像装置13aが30fpsの動画を撮影した場合、画像処理部63は、1秒当たりの当該動画から30枚の静止画を生成することができる。 The image processing unit 63 acquires a moving image captured by the imaging device 13a and converts the moving image into a plurality of still images (images). For example, when the imaging device 13a captures a moving image at 30 fps, the image processing unit 63 can generate 30 still images per second from the moving image.

画像処理部63が生成した画像には、ノズル21及び造形物3が映されている。画像処理部63が生成する画像は、第1の画像、第2の画像、又は入力情報とも称され得る。画像処理部63は、撮像装置13aとともに、画像を生成する撮像部13として機能する。なお、撮像部13はこの例に限られず、例えば、撮像装置13aが単体で画像を生成しても良い。 The image generated by the image processing unit 63 shows the nozzle 21 and the modeled object 3 . The image generated by the image processing unit 63 can also be called a first image, a second image, or input information. The image processing unit 63 functions as the imaging unit 13 that generates an image together with the imaging device 13a. Note that the imaging unit 13 is not limited to this example, and for example, the imaging device 13a alone may generate an image.

学習部64は、記憶部61に記憶されたデータセット72に基づき機械学習し、学習結果としてCNN73を生成する。推定部65は、撮像部13が生成した画像と、CNN73とに基づき、当該画像に火花が映っているか否かを推定する。 The learning unit 64 performs machine learning based on the data set 72 stored in the storage unit 61, and generates a CNN 73 as a learning result. Based on the image generated by the imaging unit 13 and the CNN 73, the estimation unit 65 estimates whether or not sparks are reflected in the image.

出力制御部66は、出力装置14eを制御する。例えば、出力制御部66は、出力装置14eに、学習部64による機械学習の結果や、推定部65による推定の結果を表示させる。 The output control unit 66 controls the output device 14e. For example, the output control unit 66 causes the output device 14e to display the result of machine learning by the learning unit 64 and the result of estimation by the estimation unit 65. FIG.

以下、学習部64による機械学習について詳しく説明する。学習部64による学習には、記憶部61に記憶された複数のデータセット72、CNN73、及び不正解リスト74が用いられる。例えば、記憶部61には、数百乃至数万のデータセット72が記憶されている。 Machine learning by the learning unit 64 will be described in detail below. For learning by the learning unit 64, a plurality of data sets 72, the CNN 73, and the incorrect answer list 74 stored in the storage unit 61 are used. For example, the storage unit 61 stores hundreds to tens of thousands of data sets 72 .

データセット72はそれぞれ、画像Pと、ラベルLとを含む。画像Pは、第1の画像又は入力情報とも称され得る。ラベルLは、火花情報又は正解情報とも称され得る。すなわち、記憶部61は、複数の画像Pと、当該画像Pに対応する複数のラベルLとを記憶する。 Data sets 72 each include an image P and a label L; The image P may also be referred to as the first image or input information. Label L may also be referred to as spark information or correct answer information. That is, the storage unit 61 stores a plurality of images P and a plurality of labels L corresponding to the images P. FIG.

図4は、第1の実施形態の画像Pの三つの例を示す図である。図4に示すように、画像Pには、ノズル21が映されている。なお、画像Pは、撮像部13が撮影したものでも良いし、他の装置が撮影したものでも良い。 FIG. 4 shows three examples of images P according to the first embodiment. As shown in FIG. 4, the image P shows the nozzles 21 . The image P may be captured by the imaging unit 13 or may be captured by another device.

複数の画像Pは、図4における左側の非造形画像P1と、中央の正常造形画像P2と、右側の異常造形画像P3とを含む。なお、これらの名称は便宜的なものであり、正常造形画像P2に映されるノズル21が正常な積層造形を行っているとは限らず、また、異常造形画像P3に映されるノズル21が異常な積層造形を行っているとは限らない。 The plurality of images P includes a non-shaped image P1 on the left side in FIG. 4, a normal shaped image P2 on the center, and an abnormal shaped image P3 on the right side. Note that these names are for convenience, and the nozzles 21 shown in the normal modeled image P2 are not necessarily performing normal layered modeling, and the nozzles 21 shown in the abnormally modeled image P3 are It doesn't necessarily mean that you are doing abnormal additive manufacturing.

非造形画像P1には、積層造形を行っていないノズル21が映されている。当該ノズル21は、材料Mの吐出及びエネルギー線Eの出射を停止している。正常造形画像P2及び異常造形画像P3には、積層造形を行っているノズル21が映されている。当該ノズル21は、材料Mを吐出し、エネルギー線Eを出射している。なお、正常造形画像P2及び異常造形画像P3に映されたノズル21が、エネルギー線Eを出射する一方で、材料Mの吐出を停止していても良い。 The non-modeling image P1 shows the nozzles 21 that are not subjected to layered modeling. The nozzle 21 stops discharging the material M and emitting the energy ray E. As shown in FIG. The nozzles 21 that are performing layered manufacturing are shown in the normal modeling image P2 and the abnormal modeling image P3. The nozzle 21 ejects the material M and emits the energy ray E. As shown in FIG. It should be noted that the nozzles 21 shown in the normal shaped image P2 and the abnormal shaped image P3 may emit the energy beam E while stopping the ejection of the material M.

異常造形画像P3には、火花が映っている。例えば、材料Mであるチタンが酸化している場合、異常造形画像P3に映るように火花が発生する。材料Mが酸化すると、造形物3が脆弱化してしまう虞がある。一方、正常造形画像P2では、エネルギー線E及び溶融又は焼結している材料Mが発光しているが、大きな火花は発生していない。 A spark is reflected in the abnormally shaped image P3. For example, when titanium, which is the material M, is oxidized, sparks are generated as reflected in the abnormally shaped image P3. If the material M oxidizes, there is a risk that the modeled object 3 will become brittle. On the other hand, in the normal modeled image P2, the energy rays E and the molten or sintered material M emit light, but no large sparks are generated.

ラベルLは、画像Pに対し、当該画像Pの状態(特徴)に応じて予め設定される。ラベルLは、[l,l,l]と表現される行列(matrix)である。非造形画像P1、正常造形画像P2、及び異常造形画像P3にそれぞれ異なるラベルLが設定される。 The label L is set in advance for the image P according to the state (feature) of the image P. A label L is a matrix expressed as [l 0 , l 1 , l 2 ]. Different labels L are set for the non-printed image P1, the normal printed image P2, and the abnormal printed image P3.

例えば、非造形画像P1に対応するラベルLは、[1,0,0]と設定される。正常造形画像P2に対応するラベルLは、[0,1,0]と設定される。異常造形画像P3に対応するラベルLは、[0,0,1]と設定される。以上より、ラベルLのlは、画像Pに火花が映っているか否かを示している。なお、ラベルLは、この例に限られない。 For example, the label L corresponding to the non-printed image P1 is set to [1,0,0]. A label L corresponding to the normal shaped image P2 is set to [0, 1, 0]. A label L corresponding to the abnormally shaped image P3 is set to [0, 0, 1]. As described above, l2 of the label L indicates whether or not the spark is reflected in the image P. Note that the label L is not limited to this example.

図5は、第1の実施形態のCNN73の構成の一例を概略的に示す例示的な図である。図5の例において、CNN73は、畳み込み層、活性化関数、プーリング、全結合、ソフトマックス関数の5種類の層を組み合わせた全11層で構成される。 FIG. 5 is an exemplary diagram schematically showing an example of the configuration of the CNN 73 of the first embodiment. In the example of FIG. 5, the CNN 73 is composed of a total of 11 layers combining five types of layers: convolution layer, activation function, pooling, full connection, and softmax function.

図5の例において、CNN73は、2つの畳み込み層と、3つの全結合層とを含む。畳み込み層は行列[FW,FB],[FW,FB]を有する。全結合層は行列[W,B],[W,B],[W,B]を有する。以下、行列[FW,FB],[FW,FB],[W,B],[W,B],[W,B]をネットワークモデルと称する。 In the example of FIG. 5, CNN 73 includes two convolutional layers and three fully connected layers. The convolutional layer has matrices [FW 1 , FB 1 ], [FW 2 , FB 2 ]. A fully connected layer has matrices [W 1 , B 1 ], [W 2 , B 2 ], [W 3 , B 3 ]. The matrices [FW 1 , FB 1 ], [FW 2 , FB 2 ], [W 1 , B 1 ], [W 2 , B 2 ], [W 3 , B 3 ] are hereinafter referred to as network models.

順伝搬は、入力から出力への演算である。入力は、例えば、画像Pである。出力はCNN73により演算された結果(出力値)Yである。順伝搬の出力値Yは、[y,y,y]と表現される行列である。すなわち、CNN73は、順伝搬により、画像Pから出力値Yを算出する。出力値Yは、出力情報とも称され得る。 Forward propagation is an operation from input to output. The input is the image P, for example. The output is the result (output value) Y calculated by the CNN 73 . The forward propagation output value Y is a matrix expressed as [y 0 , y 1 , y 2 ]. That is, the CNN 73 calculates the output value Y from the image P by forward propagation. The output value Y may also be referred to as output information.

逆伝搬は、出力から入力への演算である。ソフトマックス関数を経て演算された出力値YとラベルLとの差は、勾配値となる。当該勾配値を出力から入力へ伝搬することで、CNN73の各層の勾配値が演算される。 Backpropagation is an operation from output to input. The difference between the output value Y calculated through the softmax function and the label L is the gradient value. By propagating the gradient value from the output to the input, the gradient value of each layer of the CNN 73 is calculated.

以上のCNN73は一例であり、CNN73は他の構成を有しても良い。また、積層造形システム1は、CNN73と異なる他のニューラルネットワークや、他の深層学習(機械学習)の学習モデルを有しても良い。 The above CNN 73 is an example, and the CNN 73 may have other configurations. Moreover, the laminate manufacturing system 1 may have another neural network different from the CNN 73 and another learning model of deep learning (machine learning).

図6は、第1の実施形態の学習部64の構成を機能的に示す例示的なブロック図である。図6に示すように、学習部64は、選択部81と、順伝搬部82と、逆伝搬部83と、更新部84と、第1の評価部85と、第2の評価部86と、評価出力部87とを備えている。順伝搬部82及び逆伝搬部83は、算出部とも称され得る。更新部84は、変更部とも称され得る。第1の評価部85は、第1の判定部とも称され得る。第2の評価部86は、第2の判定部又は判定部とも称され得る。評価出力部87は、出力部とも称され得る。 FIG. 6 is an exemplary block diagram functionally showing the configuration of the learning unit 64 of the first embodiment. As shown in FIG. 6, the learning unit 64 includes a selection unit 81, a forward propagation unit 82, a back propagation unit 83, an update unit 84, a first evaluation unit 85, a second evaluation unit 86, and an evaluation output unit 87 . The forward propagation unit 82 and the backward propagation unit 83 may also be referred to as calculation units. Update unit 84 may also be referred to as a change unit. The first evaluator 85 may also be referred to as a first determiner. The second evaluator 86 may also be referred to as a second determiner or determiner. The evaluation output section 87 may also be referred to as an output section.

選択部81は、複数のデータセット72から、機械学習に用いる所定の数のデータセット72を選択する。順伝搬部82は、画像Pを入力とし、CNN73の順伝搬を行う。逆伝搬部83は、出力値Yを入力とし、CNN73の逆伝搬を行う。更新部84は、順伝搬部82及び逆伝搬部83の演算結果に基づき、CNN73を更新する。 The selection unit 81 selects a predetermined number of data sets 72 to be used for machine learning from a plurality of data sets 72 . The forward propagation unit 82 receives the image P and carries out forward propagation of the CNN 73 . The back-propagation unit 83 receives the output value Y and performs back-propagation of the CNN 73 . The update unit 84 updates the CNN 73 based on the calculation results of the forward propagation unit 82 and the backward propagation unit 83 .

第1の評価部85は、データセット72に含まれる評価用データ72aに基づき、CNN73を評価する。第2の評価部86は、データセット72に含まれる学習用データ72bに基づき、CNN73を評価する。評価出力部87は、第1の評価部85及び第2の評価部86の評価結果を出力する。 The first evaluation unit 85 evaluates the CNN 73 based on evaluation data 72 a included in the data set 72 . The second evaluation unit 86 evaluates the CNN 73 based on the learning data 72b included in the data set 72. FIG. The evaluation output section 87 outputs evaluation results of the first evaluation section 85 and the second evaluation section 86 .

上記のように、複数のデータセット72は、複数の評価用データ72aと、複数の学習用データ72bとを含む。例えば、評価用データ72aは、複数のデータセット72のうち数十乃至数万のデータセット72であり、学習用データ72bは、残りのデータセット72である。 As described above, the multiple data sets 72 include multiple evaluation data 72a and multiple learning data 72b. For example, the evaluation data 72a are tens to tens of thousands of data sets 72 among the plurality of data sets 72, and the learning data 72b are the remaining data sets 72. FIG.

評価用データ72a及び学習用データ72bはそれぞれ、画像P及びラベルLを有する。評価用データ72aの画像Pは、評価用画像とも称され得る。学習用データ72bの画像Pは、学習用画像とも称され得る。学習用データ72bの画像P及び評価用データ72aの画像Pは、複数の画像Pに含まれており、互いに異なる。 The evaluation data 72a and the learning data 72b have images P and labels L, respectively. The image P of the evaluation data 72a can also be called an evaluation image. The image P of the learning data 72b can also be called a learning image. The image P of the learning data 72b and the image P of the evaluation data 72a are included in a plurality of images P and are different from each other.

図7は、第1の実施形態の機械学習方法の一例を示すフローチャートである。なお、図7を参照して以下に説明する機械学習方法はあくまで一例であり、学習部64は、他の方法により機械学習を行っても良い。 FIG. 7 is a flow chart showing an example of the machine learning method of the first embodiment. Note that the machine learning method described below with reference to FIG. 7 is merely an example, and the learning unit 64 may perform machine learning by other methods.

学習部64による機械学習では、まず、初期化が行われる(S11)。例えば、更新部84が、未更新のCNN73を生成する。なお、学習部64の他の部分が、未更新のCNN73を生成しても良い。 In machine learning by the learning unit 64, initialization is first performed (S11). For example, the updating unit 84 generates an unupdated CNN 73 . Note that another part of the learning unit 64 may generate the unupdated CNN 73 .

例えば、CNN73におけるネットワークモデル(行列)のサイズは、画像Pと隠れ層のノード数とから決定される。このため、行列のサイズは、プログラム上で指定される。行列における数値は、例えば、ランダムに生成される。 For example, the size of the network model (matrix) in CNN 73 is determined from the image P and the number of nodes in the hidden layer. Therefore, the size of the matrix is specified programmatically. The numbers in the matrix are generated randomly, for example.

更新部84は、例えば、生成した未更新のCNN73を記憶部61に記憶させる。なお、初期化において、予め記憶部61に記憶された未更新のCNN73が、学習部64によって読み出されても良い。 The update unit 84 stores the generated non-updated CNN 73 in the storage unit 61, for example. In the initialization, the learning unit 64 may read out the unupdated CNN 73 stored in advance in the storage unit 61 .

次に、選択部81が、記憶部61に記憶された複数の学習用データ72bのうち一つの学習用データ72bを選択し、取得する(S12)。選択部81は、例えば、複数の学習用データ72bから無作為に一つの学習用データ72bを選択する。 Next, the selection unit 81 selects and acquires one learning data 72b from the plurality of learning data 72b stored in the storage unit 61 (S12). The selection unit 81, for example, randomly selects one learning data 72b from a plurality of learning data 72b.

次に、順伝搬部82が、選択された学習用データ72bの画像Pから、CNN73に順伝搬によって出力値Yを算出させる(S13)。次に、逆伝搬部83が、出力値YとラベルLとの差に基づき、勾配値を算出する(S14)。 Next, the forward propagation unit 82 causes the CNN 73 to calculate the output value Y by forward propagation from the selected image P of the learning data 72b (S13). Next, the back propagation unit 83 calculates a gradient value based on the difference between the output value Y and the label L (S14).

次に、更新部84が、勾配値に基づき、勾配降下法により記憶部61に記憶されたCNN73を更新(変更)する(S15)。言い換えると、更新部84は、学習用データ72bの画像Pから順伝搬部82が算出した出力値Yに基づき、CNN73を変更する。なお、更新部84は、他の方法によってCNN73を変更しても良い。また、更新部84によるCNN73の更新は、更新部84による新たなCNN73の生成とも表現され得る。 Next, the updating unit 84 updates (changes) the CNN 73 stored in the storage unit 61 by the gradient descent method based on the gradient values (S15). In other words, the update unit 84 changes the CNN 73 based on the output value Y calculated by the forward propagation unit 82 from the image P of the learning data 72b. Note that the update unit 84 may change the CNN 73 by other methods. Further, updating of the CNN 73 by the updating unit 84 can also be expressed as generation of a new CNN 73 by the updating unit 84 .

以上のS12~S15は、学習工程と称され得る。次に、更新部84は、所定の数の学習用データ72bを用いて学習工程を実行したか否かを判定する(S16)。学習した学習用データ72bの数が所定の数に達していない場合(S16:No)、S12に戻り、S12~S16を繰り返す。 The above S12-S15 can be called a learning process. Next, the update unit 84 determines whether or not the learning process has been performed using a predetermined number of learning data 72b (S16). If the number of learned learning data 72b has not reached the predetermined number (S16: No), the process returns to S12, and repeats S12 to S16.

S16において、学習した学習用データ72bの数が所定の数に達している場合(S16:Yes)、第1の評価部85は、無作為に選択した評価用データ72aの画像Pから、CNN73の順伝搬により出力値Yを算出する(S17)。そして、第1の評価部85は、評価用データ72aの画像Pから算出された出力値Yと、当該出力値Yに対応する評価用データ72aのラベルLとに基づき、当該出力値Yが正解か不正解かを評価(判定)する(S18)。 In S16, when the number of learned learning data 72b has reached a predetermined number (S16: Yes), the first evaluation unit 85, from the randomly selected image P of the evaluation data 72a, CNN73 An output value Y is calculated by forward propagation (S17). Then, the first evaluation unit 85 determines that the output value Y is correct based on the output value Y calculated from the image P of the evaluation data 72a and the label L of the evaluation data 72a corresponding to the output value Y. or incorrect (S18).

出力値Yのy,y,yは、ラベルLのl,l,lに対応する。このため、異常造形画像P3から学習済みのCNN73が算出したyは、0~1のうち、1に近い値となる。一方、非造形画像P1又は正常造形画像P2から学習済みのCNN73が算出したyは、0~1のうち、0に近い値となる。すなわち、yは、画像Pに火花が映っている確率に連動する。以下、yを、火花確認強度と称する。火花確認強度yは、例えば、上述のように0~1で示されても良いし、0~100%で示されても良い。CNN73は、順伝搬により、画像Pから火花確認強度yを含む出力値Yを算出する。 Output values Y y 0 , y 1 , y 2 correspond to labels L l 0 , l 1 , l 2 . Therefore, y2 calculated by the learned CNN 73 from the abnormally shaped image P3 is a value close to 1 between 0 and 1. On the other hand, y2 calculated by the learned CNN 73 from the non-printed image P1 or the normal printed image P2 is a value close to 0 between 0 and 1. That is, y2 is linked to the probability that the spark is reflected in the image P. Hereinafter, y2 is referred to as the spark confirmation intensity. The spark confirmation intensity y 2 may be indicated, for example, from 0 to 1 as described above, or may be indicated from 0 to 100%. The CNN 73 calculates the output value Y including the spark confirmation intensity y2 from the image P by forward propagation.

第1の評価部85は、例えば、出力値YとラベルLとの最大インデックスを比較することで、出力値Yが正解か不正解かを判定する。例えば、ラベルL[1,0,0]は、l=1、l=0、l=0であるため、最大インデックスは「0」(l)である。同様に、出力値Y[0.1,0.1,0.8]の最大インデックスは、y=0.1、y=0.1、y=0.8であるため、「2」(y)である。ラベルLと出力値Yとの最大インデックスは「0」と「2」で異なるため、第1の評価部85は、出力値Yを不正答と判定する。 The first evaluation unit 85 determines whether the output value Y is correct or incorrect by comparing the maximum index of the output value Y and the label L, for example. For example, the label L[1,0,0] has l 0 =1, l 1 =0, l 2 =0, so the maximum index is "0" (l 0 ). Similarly, the maximum index of the output value Y[0.1, 0.1, 0.8] is y 0 =0.1, y 1 =0.1, y 2 =0.8, so "2 '(y 2 ). Since the maximum index between the label L and the output value Y is different between "0" and "2", the first evaluation unit 85 determines the output value Y as an incorrect answer.

ラベルL[1,0,0]と出力値Y[0.8,0.1,0.1]とを比較した場合、ラベルLの最大インデックスは「0」(l)、出力値Yの最大インデックスは「0」(y)である。ラベルLと出力値Yとの最大インデックスが同じであるため、第1の評価部85は、出力値Yを正解と判定する。 When comparing the label L[1,0,0] and the output value Y[0.8,0.1,0.1], the maximum index of the label L is "0" (l 0 ), and the output value Y is The maximum index is '0' (y 0 ). Since the label L and the output value Y have the same maximum index, the first evaluation unit 85 determines that the output value Y is correct.

なお、第1の評価部85は、他の方法によって出力値Yが正解か不正解かを判定しても良い。例えば、第1の評価部85は、ラベルLのlが0である場合、火花確認強度yが0.5以上であれば不正解と判定し、火花確認強度yが0.5より下であれば正解と判定も良い。これらの正解又は不正解を判定するための閾値(例えば0.5)は、任意に設定され得る。 Note that the first evaluation unit 85 may determine whether the output value Y is correct or incorrect by another method. For example, when l2 of label L is 0, the first evaluation unit 85 determines that the answer is incorrect if spark confirmation strength y2 is 0.5 or more, and determines that spark confirmation strength y2 is greater than 0.5. If it is below, the correct answer is also good. A threshold (for example, 0.5) for judging these correct or incorrect answers can be set arbitrarily.

次に、第1の評価部85は、所定の数の評価用データ72aを用いてCNN73を評価したか否かを判定する(S19)。評価に用いた評価用データ72aの数が所定の数に達していない場合(S19:No)、S17に戻り、S17~S19を繰り返す。 Next, the first evaluation unit 85 determines whether or not the CNN 73 has been evaluated using a predetermined number of evaluation data 72a (S19). If the number of pieces of evaluation data 72a used for evaluation has not reached the predetermined number (S19: No), the process returns to S17 and repeats S17 to S19.

S19において、評価に用いた評価用データ72aの数が所定の数に達している場合(S19:Yes)、評価出力部87が第1の評価部85の評価結果を出力する(S20)。例えば、評価出力部87は、評価用データ72aからCNN73が算出した出力値Yの正答率を出力する。 In S19, when the number of evaluation data 72a used for evaluation has reached a predetermined number (S19: Yes), the evaluation output section 87 outputs the evaluation result of the first evaluation section 85 (S20). For example, the evaluation output unit 87 outputs the correct answer rate of the output value Y calculated by the CNN 73 from the evaluation data 72a.

次に、第2の評価部86は、無作為に選択した学習用データ72bの画像Pから、CNN73の順伝搬により出力値Yを算出する(S21)。そして、第2の評価部86は、学習用データ72bの画像Pから算出された出力値Yと、当該出力値Yに対応する学習用データ72bのラベルLとに基づき、当該出力値Yが正解か不正解かを評価(判定)する(S22)。第2の評価部86は、第1の評価部85と同じく、例えば、出力値YとラベルLとの最大インデックスを比較することで、出力値Yが正解か不正解かを判定する。 Next, the second evaluation unit 86 calculates the output value Y from the randomly selected image P of the learning data 72b by forward propagation of the CNN 73 (S21). Then, the second evaluation unit 86 determines that the output value Y is correct based on the output value Y calculated from the image P of the learning data 72b and the label L of the learning data 72b corresponding to the output value Y. or incorrect (S22). As with the first evaluation unit 85, the second evaluation unit 86 determines whether the output value Y is correct or incorrect by comparing the maximum index of the output value Y and the label L, for example.

S22において、出力値Yが不正解と判定された場合(S22:No)、第2の評価部86は、不正解と判定された出力値Yに対応するデータセット72を、不正解リスト74に登録する(S23)。例えば、第2の評価部86は、不正解と判定された出力値Yに対応するデータセット72の番号(ID)を、不正解リスト74に登録する。 In S22, if the output value Y is determined to be incorrect (S22: No), the second evaluation unit 86 adds the data set 72 corresponding to the output value Y determined to be incorrect to the incorrect answer list 74. Register (S23). For example, the second evaluation unit 86 registers the number (ID) of the data set 72 corresponding to the output value Y determined to be incorrect in the incorrect answer list 74 .

S22において出力値Yが正解と判定された場合(S22:Yes)、又はS23が完了すると、第2の評価部86は、所定の数の学習用データ72bを用いてCNN73を評価したか否かを判定する(S24)。評価に用いた学習用データ72bの数が所定の数に達していない場合(S24:No)、S21に戻り、S21~S24を繰り返す。 When the output value Y is determined to be correct in S22 (S22: Yes), or when S23 is completed, the second evaluation unit 86 evaluates the CNN 73 using a predetermined number of learning data 72b. is determined (S24). If the number of learning data 72b used for evaluation has not reached the predetermined number (S24: No), the process returns to S21 and repeats S21 to S24.

S24において、評価に用いた学習用データ72bの数が所定の数に達している場合(S24:Yes)、評価出力部87が第2の評価部86の評価結果を出力する(S25)。例えば、評価出力部87は、学習用データ72bからCNN73が算出した出力値Yの正答率を出力する。 In S24, when the number of learning data 72b used for evaluation has reached a predetermined number (S24: Yes), the evaluation output section 87 outputs the evaluation result of the second evaluation section 86 (S25). For example, the evaluation output unit 87 outputs the correct answer rate of the output value Y calculated by the CNN 73 from the learning data 72b.

評価出力部87は、例えば、出力制御部66に、第1の評価部85の評価結果及び第2の評価部86の評価結果を出力する。出力制御部66は、例えば、第1の評価部85の評価結果及び第2の評価部86の評価結果に基づくグラフを、出力装置14eに出力させる。 The evaluation output unit 87 outputs the evaluation result of the first evaluation unit 85 and the evaluation result of the second evaluation unit 86 to the output control unit 66, for example. The output control unit 66 causes the output device 14e to output a graph based on the evaluation result of the first evaluation unit 85 and the evaluation result of the second evaluation unit 86, for example.

次に、選択部81は、第1の評価部85の評価結果及び第2の評価部86の評価結果に異常があるか否かを判定する(S26)。評価結果に異常が無い場合(S26:No)、選択部81は、出力値Yの正答率が収束したか否かを判定する(S27)。 Next, the selection unit 81 determines whether or not there is an abnormality in the evaluation result of the first evaluation unit 85 and the evaluation result of the second evaluation unit 86 (S26). When there is no abnormality in the evaluation result (S26: No), the selection unit 81 determines whether or not the percentage of correct answers for the output value Y has converged (S27).

選択部81は、例えば、第1の評価部85の評価結果における正答率、及び第2の評価部86の評価結果における正答率、のうち少なくとも一方の変化が所定の回数に亘って所定の範囲内にある場合に、出力値Yの正答率が収束したと判定する。言い換えると、選択部81は、第1の評価部85及び第2の評価部86の評価結果が所定の回数に亘って向上しない場合に、出力値Yの正答率が収束したと判定する。この例に限らず、例えば、選択部81は、第1の評価部85及び第2の評価部86の評価結果における正答率が所定の回数に亘って閾値を上回っている場合に、出力値Yの正答率が収束したと判定しても良い。 For example, the selection unit 81 selects whether at least one of the percentage of correct answers in the evaluation results of the first evaluation unit 85 and the percentage of correct answers in the evaluation results of the second evaluation unit 86 changes over a predetermined number of times in a predetermined range. If it is within, it is determined that the percentage of correct answers for the output value Y has converged. In other words, the selection unit 81 determines that the correct answer rate of the output value Y has converged when the evaluation results of the first evaluation unit 85 and the second evaluation unit 86 do not improve over a predetermined number of times. Not limited to this example, for example, the selection unit 81 selects the output value Y It may be determined that the percentage of correct answers has converged.

出力値Yの正答率が収束していない場合(S27:No)、S12に戻り、S12~S26が再び実行(反復)される。反復時のS12において、選択部81は、例えば、S12~S15の学習工程で用いられる所定の数の学習用データ72bに所定の割合で不正解データ72bfが含まれるように、学習用データ72bを選択する。 If the percentage of correct answers for the output value Y has not converged (S27: No), the process returns to S12, and S12 to S26 are executed (repeatedly) again. In S12 at the time of repetition, the selection unit 81 selects the learning data 72b so that, for example, a predetermined number of the learning data 72b used in the learning steps of S12 to S15 includes incorrect answer data 72bf at a predetermined ratio. select.

不正解データ72bfは、第2の評価部86によって不正解と判定された出力値Yに対応し、不正解リスト74に登録された学習用データ72bである。学習工程で用いられる学習用データ72bには、不正解リスト74から選択された不正解データ72bfと、複数の学習用データ72bから不作為に選択された学習用データ72bと、が含まれる。 The incorrect answer data 72bf is learning data 72b registered in the incorrect answer list 74 corresponding to the output value Y judged to be incorrect by the second evaluation unit 86 . The learning data 72b used in the learning process includes incorrect answer data 72bf selected from the incorrect answer list 74 and learning data 72b randomly selected from a plurality of learning data 72b.

反復時のS13において、順伝搬部82は、CNN73に、不正解データ72bfの画像Pと、不作為に選択された学習用データ72bの画像Pと、のそれぞれから出力値Yを算出させる。すなわち、選択部81は、CNN73に入力される画像Pとして、不正解データ72bfの画像Pと、不作為に選択された学習用データ72bの画像Pと、を選択する。 In S13 at the time of repetition, the forward propagation unit 82 causes the CNN 73 to calculate the output value Y from each of the image P of the incorrect answer data 72bf and the randomly selected image P of the learning data 72b. That is, the selection unit 81 selects the image P of the incorrect answer data 72bf and the randomly selected image P of the learning data 72b as the images P to be input to the CNN 73 .

不正解データ72bfの画像Pは、記憶部61に記憶された複数の画像Pに含まれるとともに、不正解と判断された出力値Yに対応している。不正解データ72bfの画像Pは、第1の入力情報とも称され得る。 The image P of the incorrect answer data 72bf is included in the plurality of images P stored in the storage unit 61, and corresponds to the output value Y judged to be incorrect. The image P of the incorrect answer data 72bf can also be referred to as first input information.

不作為に選択された学習用データ72bの画像Pは、記憶部61に記憶された複数の画像Pに含まれるとともに、複数の画像Pから不作為に選択されている。不作為に選択された学習用データ72bの画像Pは、第2の入力情報とも称され得る。 The randomly selected image P of the learning data 72b is included in the plurality of images P stored in the storage unit 61, and is randomly selected from the plurality of images P. The randomly selected image P of the learning data 72b can also be referred to as second input information.

図8は、第1の実施形態の第1の評価部85及び第2の評価部86の評価結果における出力値Yの正答率の一例を示すグラフである。図9は、比較例として、学習工程で用いられる所定の数の学習用データ72bが全て不作為に選択される場合の、第1の評価部85及び第2の評価部86の評価結果における出力値Yの正答率の一例を示すグラフである。 FIG. 8 is a graph showing an example of the correct answer rate of the output value Y in the evaluation results of the first evaluation section 85 and the second evaluation section 86 of the first embodiment. As a comparative example, FIG. 9 shows the output values of the evaluation results of the first evaluation unit 85 and the second evaluation unit 86 when all of the predetermined number of learning data 72b used in the learning process are randomly selected. It is a graph which shows an example of the correct answer rate of Y. FIG.

図8及び図9のようなグラフは、例えば、評価出力部87によって生成される。図8及び図9において、評価用データ72aを使用した第1の評価部85における出力値Yの正答率と、学習用データ72bを使用した第2の評価部86における出力値Yの正答率と、のグラフが示される。図8及び図9において、縦軸は出力値Yの正答率を示し、横軸はS12~S27の反復回数を示す。 Graphs such as those in FIGS. 8 and 9 are generated by the evaluation output unit 87, for example. 8 and 9, the correct answer rate of the output value Y in the first evaluation unit 85 using the evaluation data 72a and the correct answer rate of the output value Y in the second evaluation unit 86 using the learning data 72b , is shown. 8 and 9, the vertical axis indicates the percentage of correct answers for the output value Y, and the horizontal axis indicates the number of repetitions of S12 to S27.

図8及び図9に示すように、学習工程で用いられる所定の数の学習用データ72bに所定の割合で不正解データ72bfが含まれることで、出力値Yの正答率が上昇しやすくなる。例えば、本実施形態では、比較例に比べ、第1の評価部85の評価結果における出力値Yの正答率が先に98%以上で収束する。なお、学習工程で用いられる所定の数の学習用データ72bに含まれる不正解データ72bfの割合又は数は、任意に設定され得る。 As shown in FIGS. 8 and 9, the incorrect answer data 72bf are included at a predetermined rate in the predetermined number of learning data 72b used in the learning process, so that the percentage of correct answers for the output value Y can be easily increased. For example, in the present embodiment, the correct answer rate of the output value Y in the evaluation result of the first evaluation unit 85 converges at 98% or more earlier than in the comparative example. The ratio or number of incorrect answer data 72bf included in the predetermined number of learning data 72b used in the learning process can be set arbitrarily.

図7のS26において、評価結果に異常が生じている場合(S26:Yes)、選択部81は、S12~S15の学習工程で用いられる所定の数の学習用データ72bに含まれる不正解データ72bfの割合を変更する(S28)。言い換えると、選択部81は、正解と判定された出力値Yの割合(正答率)に基づき、CNN73に入力される、不正解データ72bfの画像P及び不作為に選択される学習用データ72bの画像Pの割合を変更する。 In S26 of FIG. 7, if there is an abnormality in the evaluation result (S26: Yes), the selection unit 81 selects the incorrect answer data 72bf included in the predetermined number of learning data 72b used in the learning steps of S12 to S15. is changed (S28). In other words, the selection unit 81 selects an image P of the incorrect answer data 72bf and an image of the randomly selected learning data 72b, which are input to the CNN 73, based on the ratio of the output values Y determined to be correct (percentage of correct answers). Change the proportion of P.

例えば、不正解データ72bfの割合が多い場合、過学習が生じる。この場合、反復回数が多くなると正答率が低下してしまう。選択部81は、このような評価結果(正答率)の異常が生じている場合、不正解データ72bfの割合を減らす。 For example, when the proportion of incorrect data 72bf is high, overlearning occurs. In this case, as the number of iterations increases, the percentage of correct answers decreases. The selection unit 81 reduces the ratio of the incorrect answer data 72bf when such an abnormality occurs in the evaluation result (percentage of correct answers).

一方、不正解データ72bfの割合が少ない場合、反復回数が増えても正答率が収束し難い。選択部81は、このような評価結果(正答率)の異常が生じている場合、不正解データ72bfの割合を増やす。なお、増減される不正解データ72bfの割合又は数は、任意に設定され得る。 On the other hand, when the proportion of the incorrect answer data 72bf is small, it is difficult for the correct answer rate to converge even if the number of iterations increases. The selection unit 81 increases the ratio of the incorrect answer data 72bf when such an abnormality in the evaluation result (percentage of correct answers) occurs. The ratio or number of incorrect answer data 72bf to be increased or decreased can be set arbitrarily.

S28で選択部81が不正解データ72bfの割合を変更すると、S12に戻り、S12~S28が繰り返される。S27において、出力値Yの正答率が収束していると(S27:Yes)、学習部64による機械学習が完了する。以上により、機械学習の学習結果として、CNN73が生成される。 When the selection unit 81 changes the ratio of the incorrect answer data 72bf in S28, the process returns to S12, and S12 to S28 are repeated. In S27, if the correct answer rate of the output value Y has converged (S27: Yes), the machine learning by the learning unit 64 is completed. By the above, CNN73 is produced|generated as a learning result of machine learning.

なお、上述の機械学習において、第1の評価部85及び第2の評価部86は、出力値Yの正答率を評価した。しかし、第1の評価部85及び第2の評価部86は、この例に限らず、例えば平均損失を評価しても良い。損失は、出力値YとラベルLとに基づき、交差エントロピーを用いて算出可能である。 In the machine learning described above, the first evaluation unit 85 and the second evaluation unit 86 evaluated the correct answer rate of the output value Y. However, the first evaluation unit 85 and the second evaluation unit 86 are not limited to this example, and may evaluate average loss, for example. The loss can be calculated based on the output value Y and the label L using cross entropy.

図10は、第1の実施形態の推定部65の構成を機能的に示す例示的なブロック図である。図10に示すように、推定部65は、強度算出部91と、判定部92とを備えている。 FIG. 10 is an exemplary block diagram functionally showing the configuration of the estimation unit 65 of the first embodiment. As shown in FIG. 10 , the estimator 65 includes an intensity calculator 91 and a determiner 92 .

強度算出部91は、画像処理部63から画像を取得するとともに、記憶部61からCNN73を取得する。強度算出部91が取得したCNN73は、上述の学習部64による機械学習で生成された学習結果である。強度算出部91は、画像処理部63から取得した画像から、CNN73に順伝搬によって出力値Yを算出させる。 The intensity calculation unit 91 acquires the image from the image processing unit 63 and acquires the CNN 73 from the storage unit 61 . The CNN 73 acquired by the intensity calculator 91 is a learning result generated by machine learning by the learning unit 64 described above. The intensity calculator 91 causes the CNN 73 to calculate the output value Y from the image acquired from the image processor 63 by forward propagation.

判定部92は、出力値Yに基づき、当該出力値Yに対応する画像に火花が映っているか否かを判定する。本実施形態では、判定部92は、画像から、積層造形が停止されているか、正常な積層造形が行われているか、積層造形に異常が生じているかを判定する。 Based on the output value Y, the determination unit 92 determines whether or not the image corresponding to the output value Y includes sparks. In this embodiment, the determination unit 92 determines from the image whether the layered manufacturing is stopped, whether the layered manufacturing is normally performed, or whether the layered manufacturing is abnormal.

図11は、第1の実施形態の積層造形監視方法の一例を示すフローチャートである。以下、積層造形システム1による積層造形の監視について詳しく説明する。なお、図11を参照して以下に説明する積層造形監視方法はあくまで一例であり、積層造形システム1は、他の方法により積層造形監視を行っても良い。 FIG. 11 is a flow chart showing an example of the layered manufacturing monitoring method of the first embodiment. The monitoring of layered manufacturing by the layered manufacturing system 1 will be described in detail below. Note that the lamination manufacturing monitoring method described below with reference to FIG. 11 is merely an example, and the lamination manufacturing system 1 may perform lamination manufacturing monitoring by other methods.

図11に示すように、まず、造形部12が、NCプログラム71に基づいて積層造形を開始する(S101)。なお、S101における積層造形の開始は、NCプログラム71の実行の開始である。このため、ノズル21が材料Mの吐出及びエネルギー線Eの出射を行っていなくても良い。 As shown in FIG. 11, first, the modeling unit 12 starts lamination modeling based on the NC program 71 (S101). It should be noted that the start of lamination manufacturing in S101 is the start of execution of the NC program 71 . Therefore, the nozzle 21 does not have to discharge the material M and emit the energy beam E.

次に、強度算出部91が、画像処理部63からノズル21が映された画像を取得する(S102)。次に、強度算出部91は、当該画像から、CNN73の順伝搬により、出力値Yを算出する(S103)。言い換えると、強度算出部91は、画像から、CNN73により、火花確認強度yを算出する。 Next, the intensity calculator 91 acquires an image showing the nozzle 21 from the image processor 63 (S102). Next, the intensity calculator 91 calculates the output value Y from the image by forward propagation of the CNN 73 (S103). In other words, the intensity calculator 91 uses the CNN 73 to calculate the spark confirmation intensity y2 from the image.

次に、判定部92は、出力値Y[y,y,y]のうち、yが最大か否かを判定する(S104)。言い換えると、判定部92は、出力値Yに対応する画像が、非造形画像P1に類似するか否かを判定する。yが最大である場合(S104:Yes)、判定部92は、ノズル21が積層造形を行っていないと判定する(S105)。 Next, the determination unit 92 determines whether or not y0 is the largest among the output values Y[ y0 , y1 , y2 ] (S104). In other words, the determination unit 92 determines whether the image corresponding to the output value Y is similar to the non-formed image P1. When y0 is the maximum (S104: Yes), the determination unit 92 determines that the nozzle 21 is not performing layered manufacturing (S105).

次に、判定部92は、積層造形が完了したか否かを判定する(S106)。積層造形が完了していない場合(S106:No)、S102に戻り、強度算出部91が次の画像を画像処理部63から取得する。 Next, the determination unit 92 determines whether or not the layered manufacturing is completed (S106). If the layered manufacturing has not been completed (S106: No), the process returns to S102, and the intensity calculation unit 91 acquires the next image from the image processing unit 63.

S104で、yが最大ではない場合(S104:No)、判定部92は、出力値Y[y,y,y]のうち、yが最大か否かを判定する(S107)。言い換えると、判定部92は、出力値Yに対応する画像が、正常造形画像P2に類似するか否かを判定する。yが最大である場合(S107:Yes)、判定部92は、ノズル21が正常な積層造形を行っていると判定し(S108)、S106に移行する。 In S104, when y0 is not the maximum (S104: No), the determination unit 92 determines whether y1 is the maximum among the output values Y[ y0 , y1 , y2 ] (S107). . In other words, the determination unit 92 determines whether the image corresponding to the output value Y is similar to the normal molded image P2. If y1 is the maximum (S107: Yes), the determination unit 92 determines that the nozzle 21 is performing normal layered manufacturing (S108), and proceeds to S106.

S107で、yが最大ではない場合(S107:No)、出力値Y[y,y,y]のうち、火花確認強度yが最大となる。このため、出力値Yに対応する画像が異常造形画像P3に類似しており、火花が発生している可能性が高い。 In S107, when y1 is not the maximum (S107: No), the spark detection intensity y2 is the maximum among the output values Y[ y0 , y1 , y2 ]. Therefore, it is highly possible that the image corresponding to the output value Y is similar to the abnormally shaped image P3 and sparks are generated.

火花確認強度yが最大である場合、判定部92は、積層造形に異常が生じていると判定する(S109)。この場合、造形制御部62が、積層造形のパラメータを変更し(S110)、S106に移行する。 When the spark confirmation intensity y2 is the maximum, the determination unit 92 determines that an abnormality has occurred in the layered manufacturing (S109). In this case, the modeling control unit 62 changes the parameters of the layered modeling (S110), and proceeds to S106.

例えば、造形制御部62は、火花確認強度yに基づき、チャンバCに供給される不活性ガスの流量、ノズル21から吐出されるシールドガスGの流量、ノズル21から出射されるエネルギー線Eの出力、ノズル21の速度、及びノズル21から吐出される材料Mの量、のうち少なくとも一つを変更し、火花の発生及び材料Mの酸化を抑制する。造形制御部62によるパラメータの変更量は、一定であっても良いし、火花確認強度に連動しても良い。ノズル21の速度や吐出される材料Mの量が変更される場合、溶融領域3aの高さが略一定となるように、積層造形のパラメータが調整される。 For example, the modeling control unit 62 determines the flow rate of the inert gas supplied to the chamber C, the flow rate of the shielding gas G discharged from the nozzle 21, and the energy ray E emitted from the nozzle 21 based on the spark confirmation intensity y2. At least one of the output, the speed of the nozzle 21, and the amount of material M ejected from the nozzle 21 is changed to suppress spark generation and oxidation of the material M. The amount of parameter change by the modeling control unit 62 may be constant, or may be linked to the spark confirmation strength. When the speed of the nozzle 21 and the amount of the material M to be discharged are changed, the parameters of the layered manufacturing are adjusted so that the height of the melted region 3a is substantially constant.

S106において、積層造形が完了している場合(S106:Yes)、積層造形システム1による積層造形の監視も完了する。以上のように、積層造形システム1は、積層造形における火花の発生を監視する。積層造形において火花が発生した場合、造形制御部62が積層造形のパラメータを変更し、火花の発生を抑制する。 In S106, when the layered manufacturing is completed (S106: Yes), the monitoring of the layered manufacturing by the layered manufacturing system 1 is also completed. As described above, the layered manufacturing system 1 monitors the generation of sparks in layered manufacturing. When sparks occur in lamination molding, the modeling control unit 62 changes the parameters of lamination molding to suppress the generation of sparks.

上述の積層造形監視では、S107でyが最大ではない場合に、積層造形に異常が生じていると判定される。しかし、この例に限らず、例えば、所定の回数に亘って火花確認強度yが最大となった場合や、所定回数に亘って積算された火花確認強度yが閾値を上回った場合に、積層造形に異常が生じていると判定されても良い。 In the lamination manufacturing monitoring described above, if y1 is not the maximum in S107, it is determined that an abnormality has occurred in the lamination manufacturing. However, not limited to this example, for example, when the spark confirmation intensity y2 becomes maximum over a predetermined number of times, or when the spark confirmation intensity y2 accumulated over a predetermined number of times exceeds the threshold, It may be determined that an abnormality has occurred in the layered manufacturing.

判定部92は、例えば、ノズル21の座標と関連付けて、判定結果を出力制御部66に出力しても良い。当該判定結果により、ノズル21の各座標における積層造形の状態の記録(ログ)を得ることができる。 The determination unit 92 may output the determination result to the output control unit 66 in association with the coordinates of the nozzle 21, for example. Based on the determination result, a record (log) of the state of lamination manufacturing at each coordinate of the nozzle 21 can be obtained.

以上説明された第1の実施形態に係る積層造形システム1において、学習部64は、造形物3の材料Mを吐出するとともに、当該材料Mにエネルギー線Eを照射して溶融又は焼結させる、ノズル21が映された複数の画像Pと、当該複数の画像Pに火花が映っているか否かを示すラベルLと、に基づき機械学習し、CNN73を生成する。推定部65は、撮像部13が撮影した画像と、CNN73と、に基づき、当該画像に火花が映っているか否かを推定する。チタンのような材料Mの溶融又は焼結において、火花が発生している場合、材料Mが酸化している虞がある。推定部65の推定結果に基づき火花の発生の監視を自動化することができるため、酸化した材料Mによる造形物3の脆弱化が抑制される。 In the laminate manufacturing system 1 according to the first embodiment described above, the learning unit 64 discharges the material M of the modeled object 3, and irradiates the material M with the energy beam E to melt or sinter it. Machine learning is performed based on a plurality of images P showing the nozzles 21 and labels L indicating whether or not sparks are shown in the plurality of images P to generate the CNN 73 . Based on the image captured by the imaging unit 13 and the CNN 73, the estimation unit 65 estimates whether or not sparks are reflected in the image. In the melting or sintering of material M such as titanium, if sparks are generated, material M may be oxidized. Since the monitoring of spark generation can be automated based on the estimation result of the estimation unit 65, weakening of the modeled object 3 due to the oxidized material M is suppressed.

例えば、CNN73のような機械学習により更新される演算部の代わりに、光量センサが火花の発生を監視する場合、正常な積層造形における発光が火花の発生と誤認識される虞がある。本実施形態では、CNN73のような機械学習により更新される演算部を用いることで、火花の発生の監視精度が向上する。 For example, if a light intensity sensor monitors the generation of sparks instead of a computing unit such as CNN 73 that is updated by machine learning, there is a risk that light emission in normal lamination molding will be erroneously recognized as generation of sparks. In the present embodiment, the accuracy of monitoring the occurrence of sparks is improved by using a calculation unit such as the CNN 73 that is updated by machine learning.

本実施形態における材料Mは、チタンを含む。上述のように、チタンのような材料Mの溶融又は焼結において、火花が発生している場合、材料Mが酸化している虞がある。従って、推定部65の推定結果に基づき火花の発生の監視を自動化することができるため、酸化したチタンによる造形物3の脆弱化が抑制される。 The material M in this embodiment contains titanium. As described above, in the melting or sintering of material M such as titanium, if sparks are generated, material M may be oxidized. Therefore, since it is possible to automate the monitoring of spark generation based on the estimation result of the estimation unit 65, weakening of the modeled object 3 due to oxidized titanium is suppressed.

推定部65は、撮像部13が撮影した画像から、CNN73により、当該画像に火花が映っている確率に連動する火花確認強度yを算出する。推定部65が数値(火花確認強度y)を算出するため、当該数値に基づき種々の制御をすることができる。 The estimating unit 65 uses the CNN 73 to calculate, from the image captured by the imaging unit 13, the spark confirmation strength y2 linked to the probability that sparks are reflected in the image. Since the estimation unit 65 calculates the numerical value (spark confirmation strength y 2 ), various controls can be performed based on the numerical value.

造形制御部62は、火花確認強度yに基づき、造形部12による積層造形のパラメータを変更する。例えば、造形制御部62は、火花確認強度yに基づき、積層造形が行われるチャンバCに供給される不活性ガスの流量、ノズル21から吐出されるシールドガスGの流量、ノズル21から出射されるエネルギー線Eの出力、ノズル21の速度、及びノズル21から吐出される材料Mの量、のうち少なくとも一つを制御し、火花の発生及び材料Mの酸化を抑制する。これにより、酸化した材料Mによる造形物3の脆弱化が抑制される。 The modeling control unit 62 changes the parameters of the layered modeling by the modeling unit 12 based on the spark verification intensity y2. For example, the modeling control unit 62 determines the flow rate of the inert gas supplied to the chamber C where the layered modeling is performed, the flow rate of the shielding gas G discharged from the nozzle 21, and the At least one of the output of the energy beam E, the speed of the nozzle 21, and the amount of the material M ejected from the nozzle 21 is controlled to suppress generation of sparks and oxidation of the material M. As a result, weakening of the modeled object 3 due to the oxidized material M is suppressed.

第1の評価部85は、評価用データ72aの画像Pから順伝搬部82が算出した出力値Yと、ラベルLと、に基づき出力値Yが正解か不正解かを判定する。第2の評価部86は、評価用データ72aの画像Pと異なる学習用データ72bの画像Pから順伝搬部82が算出した出力値Yと、ラベルLと、に基づき出力値Yが正解か不正解かを判定する。評価出力部87は、第1の評価部85の評価結果と、第2の評価部86の評価結果と、を出力する。これにより、第2の評価部86の判定結果に基づき、機械学習により生成されたCNN73の精度を評価することができる。さらに、第1の評価部85の判定結果に基づき、機械学習に用いられなかった評価用データ72aの画像Pを対象とするCNN73の精度を評価することができる。従って、火花の発生の監視精度が向上し、酸化した材料Mによる造形物3の脆弱化が抑制される。 The first evaluation unit 85 determines whether the output value Y is correct or incorrect based on the label L and the output value Y calculated by the forward propagation unit 82 from the image P of the evaluation data 72a. The second evaluation unit 86 determines whether the output value Y is correct or incorrect based on the label L and the output value Y calculated by the forward propagation unit 82 from the image P of the learning data 72b different from the image P of the evaluation data 72a. Determine if correct. The evaluation output section 87 outputs the evaluation result of the first evaluation section 85 and the evaluation result of the second evaluation section 86 . Thereby, based on the determination result of the second evaluation unit 86, the accuracy of the CNN 73 generated by machine learning can be evaluated. Furthermore, based on the determination result of the first evaluation unit 85, the accuracy of the CNN 73 targeting the image P of the evaluation data 72a that has not been used for machine learning can be evaluated. Therefore, the accuracy of monitoring the generation of sparks is improved, and weakening of the modeled object 3 due to the oxidized material M is suppressed.

CNN73が、複数の画像Pに含まれるとともに不正解と判定された出力値Yに対応する不正解データ72bfの画像Pと、複数の画像Pに含まれる画像Pと、のそれぞれから出力値Yを算出する。そして、CNN73は、出力値Yに基づき変更される。すなわち、CNN73は、少なくとも一度間違えた画像Pを用いて機械学習を行う。これにより、CNN73が算出する出力値Yの精度が向上しやすくなり、機械学習にかかる時間(反復回数)を短縮することができる。 The CNN 73 extracts the output value Y from each of the image P of the incorrect answer data 72bf corresponding to the output value Y that is included in the plurality of images P and determined to be incorrect, and the image P included in the plurality of images P. calculate. Then, the CNN 73 is changed based on the output value Y. That is, the CNN 73 performs machine learning using an image P that has been mistaken at least once. As a result, the accuracy of the output value Y calculated by the CNN 73 can be easily improved, and the time (number of iterations) required for machine learning can be shortened.

複数の画像Pにおいて、非造形画像P1、正常造形画像P2、及び異常造形画像P3の割合が不均一なことがある。本実施形態では、CNN73が、少なくとも一度間違えた画像Pを用いて機械学習を行うことで、非造形画像P1、正常造形画像P2、及び異常造形画像P3の割合が不均一であっても、当該割合が均一である場合に近い学習効果を挙げることができる。 In a plurality of images P, the ratio of non-printed images P1, normal printed images P2, and abnormal printed images P3 may be uneven. In the present embodiment, the CNN 73 performs machine learning using an image P that has been mistaken at least once. A similar learning effect can be obtained when the ratio is uniform.

CNN73は、適正な割合の不正解データ72bfの画像Pと、複数の画像Pから不作為に選択された画像Pと、のそれぞれから出力値Yを算出する。これにより、CNN73に入力される画像Pの偏りが低減される。従って、CNN73が算出する出力値Yの精度が向上しやすくなり、機械学習にかかる時間(反復回数)を短縮することができる。 The CNN 73 calculates the output value Y from each of the image P of the correct proportion of the incorrect answer data 72bf and the image P randomly selected from the plurality of images P. Thereby, the bias of the image P input to the CNN 73 is reduced. Therefore, the accuracy of the output value Y calculated by the CNN 73 can be easily improved, and the time (number of iterations) required for machine learning can be shortened.

正解と判定された出力値Yの割合に基づき、CNN73に入力される不正解データ72bfの画像Pの割合が変更される。例えば、過学習が生じている場合に不正解データ72bfの画像Pの割合が減らされ、正解と判定された出力値Yの割合の収束が遅い場合に不正解データ72bfの画像Pの割合が増やされる。これにより、CNN73が算出する出力値Yの精度が向上しやすくなり、機械学習にかかる時間(反復回数)を短縮することができる。 Based on the ratio of the output values Y determined to be correct, the ratio of the image P of the incorrect answer data 72bf input to the CNN 73 is changed. For example, the ratio of the image P of the incorrect answer data 72bf is reduced when overlearning occurs, and the ratio of the image P of the incorrect answer data 72bf is increased when the convergence of the ratio of the output values Y determined to be correct is slow. be As a result, the accuracy of the output value Y calculated by the CNN 73 can be easily improved, and the time (the number of iterations) required for machine learning can be shortened.

本実施形態の制御部14で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。 The program executed by the control unit 14 of the present embodiment is a file in an installable format or an executable format, and can be stored on a computer such as a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk), etc. It is recorded on a readable recording medium and provided.

また、本実施形態の制御部14で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の制御部14で実行されるプログラムをインターネット等のネットワーク経由で提供又は配布するように構成しても良い。 Further, the program executed by the control unit 14 of this embodiment may be stored in a computer connected to a network such as the Internet, and may be provided by being downloaded via the network. Further, the program executed by the control unit 14 of this embodiment may be configured to be provided or distributed via a network such as the Internet.

また、本実施形態のプログラムを、ROM等に予め組み込んで提供するように構成しても良い。 Further, the program of the present embodiment may be configured so as to be pre-installed in a ROM or the like and provided.

本実施形態の制御部14で実行されるプログラムは、上述した各部(造形制御部62、画像処理部63、学習部64、推定部65、及び出力制御部66)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体からプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、造形制御部62、画像処理部63、学習部64、推定部65、及び出力制御部66が主記憶装置上に生成されるようになっている。 The program executed by the control unit 14 of this embodiment has a module configuration including the above-described units (the modeling control unit 62, the image processing unit 63, the learning unit 64, the estimation unit 65, and the output control unit 66). As actual hardware, a CPU (processor) reads a program from the storage medium and executes it, thereby loading each of the above sections onto the main storage device, forming a modeling control section 62, an image processing section 63, a learning section 64, an estimation A part 65 and an output control part 66 are generated on the main storage device.

(第2の実施形態)
以下に、第2の実施形態について、図12を参照して説明する。なお、以下の実施形態の説明において、既に説明された構成要素と同様の機能を持つ構成要素は、当該既述の構成要素と同じ符号が付され、さらに説明が省略される場合がある。また、同じ符号が付された複数の構成要素は、全ての機能及び性質が共通するとは限らず、各実施形態に応じた異なる機能及び性質を有していても良い。
(Second embodiment)
A second embodiment will be described below with reference to FIG. In the following description of the embodiments, constituent elements having functions similar to those already explained may be assigned the same reference numerals as the constituent elements already explained, and further explanation may be omitted. In addition, a plurality of components with the same reference numerals may not all have common functions and properties, and may have different functions and properties according to each embodiment.

図12は、第2の実施形態に係る積層造形監視方法の一例を示すフローチャートである。図12に示すように、第2の実施形態では、S109が実行されると、積層造形のパラメータが変更される代わりに、造形制御部62が積層造形を停止させ(S201)、積層造形システム1による積層造形の監視も完了する。すなわち、造形制御部62は、火花確認強度yに基づき、造形部12を停止させる。 FIG. 12 is a flow chart showing an example of the layered manufacturing monitoring method according to the second embodiment. As shown in FIG. 12, in the second embodiment, when S109 is executed, the modeling control unit 62 stops the layered manufacturing (S201) instead of changing the parameters of the layered manufacturing, and the layered manufacturing system 1 monitoring of additive manufacturing is also completed. That is, the modeling control unit 62 stops the modeling unit 12 based on the spark confirmation intensity y2 .

以上説明された第2の実施形態の積層造形システム1において、造形制御部62は、火花確認強度yに基づき、造形部12を停止させることが可能である。すなわち、材料Mに酸化の虞がある場合、造形制御部62が積層造形を停止させることができ、酸化した材料Mによる造形物3の脆弱化が抑制される。 In the layered manufacturing system 1 of the second embodiment described above, the modeling control unit 62 can stop the modeling unit 12 based on the spark confirmation strength y2 . That is, when the material M is likely to be oxidized, the modeling control unit 62 can stop the layered modeling, and the brittleness of the modeled object 3 due to the oxidized material M is suppressed.

判定部92が判定結果を出力制御部66に出力することで、判定結果の記録(ログ)から、材料Mに酸化が生じた虞がある箇所を容易に特定することができる。従って、材料Mに酸化が生じた虞がある箇所を除去し、積層造形を再開することが可能である。 By outputting the determination result from the determination unit 92 to the output control unit 66, it is possible to easily identify the location where the material M may be oxidized from the record (log) of the determination result. Therefore, it is possible to remove the part where the material M may have been oxidized and restart the layered manufacturing.

以上説明された少なくとも複数の実施形態において、制御部14が、記憶部61、学習部64、及び推定部65を備える。しかし、例えば、記憶部61、学習部64、及び推定部65の少なくとも一つが、積層造形システム1と異なる装置又はシステムに備えられても良い。 In at least a plurality of embodiments described above, the control unit 14 includes the storage unit 61 , the learning unit 64 and the estimation unit 65 . However, for example, at least one of the storage unit 61 , the learning unit 64 , and the estimation unit 65 may be provided in a device or system different from the laminate manufacturing system 1 .

また、以上説明された複数の実施形態において、学習部64による機械学習方法は、画像Pに火花が映っているか否かを推定するための画像認識技術に適用された。しかし、上述の学習部64による機械学習方法は、他の画像認識技術、音声認識技術、自然言語処理技術のような他の技術に適用されても良い。 Further, in the above-described multiple embodiments, the machine learning method by the learning unit 64 is applied to the image recognition technique for estimating whether or not the image P contains sparks. However, the machine learning method by the learning unit 64 described above may be applied to other techniques such as other image recognition techniques, voice recognition techniques, and natural language processing techniques.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

1…積層造形システム、3…造形物、13…撮像部、14…制御部、14a…CPU、14b…ROM、14c…RAM、14d…外部記憶装置、14e…出力装置、14f…入力装置、21…ノズル、61…記憶部、62…造形制御部、63…画像処理部、64…学習部、65…推定部、66…出力制御部、72…データセット、72a…評価用データ、72b…学習用データ、72bf…不正解データ、73…CNN、74…不正解リスト、81…選択部、82…順伝搬部、83…逆伝搬部、84…更新部、85…第1の評価部、86…第2の評価部、87…評価出力部、91…強度算出部、92…判定部、M…材料、E…エネルギー線、G…シールドガス、P…画像、P1…非造形画像、P2…正常造形画像、P3…異常造形画像、L…ラベル、Y…出力値。 DESCRIPTION OF SYMBOLS 1... Layered manufacturing system, 3... Modeled object, 13... Imaging part, 14... Control part, 14a... CPU, 14b... ROM, 14c... RAM, 14d... External storage device, 14e... Output device, 14f... Input device, 21 Nozzle 61 Storage unit 62 Modeling control unit 63 Image processing unit 64 Learning unit 65 Estimation unit 66 Output control unit 72 Data set 72a Evaluation data 72b Learning Data for 72bf Incorrect answer data 73 CNN 74 Incorrect answer list 81 Selection unit 82 Forward propagation unit 83 Back propagation unit 84 Update unit 85 First evaluation unit 86 Second evaluation section 87 Evaluation output section 91 Intensity calculation section 92 Determination section M Material E Energy ray G Shield gas P Image P1 Non-formed image P2 Normal modeled image, P3... Abnormal modeled image, L... Label, Y... Output value.

Claims (8)

コンピュータにより実行される機械学習方法であって、
演算部に、複数の入力情報のそれぞれから出力情報を算出させることと、
前記出力情報と、前記複数の入力情報に対して設定された正解情報と、に基づき、前記出力情報が正解か不正解かを判定することと、
前記演算部に、前記複数の入力情報に含まれるとともに不正解と判定された前記出力情報に対応する少なくとも一つの第1の入力情報と、前記複数の入力情報に含まれる少なくとも一つの第2の入力情報と、のそれぞれから前記出力情報を算出させることと、
前記出力情報に基づき、前記演算部を変更することと、
正解と判定された前記出力情報の割合に基づき、前記演算部に入力される前記第1の入力情報及び前記第2の入力情報の割合を変更することと、
を備える機械学習方法。
A computer implemented machine learning method comprising:
causing a calculation unit to calculate output information from each of a plurality of pieces of input information;
Determining whether the output information is correct or incorrect based on the output information and correct information set for the plurality of pieces of input information;
at least one piece of first input information included in the plurality of pieces of input information and corresponding to the output information determined to be incorrect, and at least one piece of second information included in the plurality of pieces of input information; calculating the output information from each of the input information;
changing the computing unit based on the output information;
changing the ratio of the first input information and the second input information input to the calculation unit based on the ratio of the output information determined to be correct;
A machine learning method comprising
前記第2の入力情報は、前記複数の入力情報から不作為に選択される、請求項1の機械学習方法。 2. The machine learning method of claim 1, wherein said second input information is randomly selected from said plurality of input information. 前記演算部はニューラルネットワークである、請求項1又は請求項2の機械学習方法。 3. The machine learning method according to claim 1 , wherein said computing unit is a neural network. 前記演算部は、前記出力情報と前記正解情報とに基づき得られる勾配値に基づき変更される、請求項1乃至請求項3のいずれか一つの機械学習方法。 4. The machine learning method according to any one of claims 1 to 3 , wherein said calculation unit is changed based on a gradient value obtained based on said output information and said correct answer information. 前記演算部に前記複数の入力情報から前記出力情報を算出させることと、前記出力情報が正解か不正解かを判定することと、前記演算部に前記第1の入力情報及び前記第2の入力情報のそれぞれから前記出力情報を算出させることと、前記出力情報に基づき前記演算部を変更することと、の反復を行うこと、 causing the calculation unit to calculate the output information from the plurality of pieces of input information; determining whether the output information is correct or incorrect; and providing the calculation unit with the first input information and the second input. repeating calculating the output information from each of the information and changing the computing unit based on the output information;
をさらに備え、 further comprising
前記反復の回数が第1の閾値を越えるとともに、前記反復において前記出力情報のうち正解と判定された前記出力情報の割合が第2の閾値を越えて低下した場合に、前記演算部に入力される前記第1の入力情報の割合を減らす、 When the number of iterations exceeds a first threshold and the ratio of the output information determined to be correct among the output information in the iterations decreases to exceed a second threshold, reducing the proportion of the first input information that
請求項1の機械学習方法。 2. The machine learning method of claim 1.
前記演算部に前記複数の入力情報から前記出力情報を算出させることと、前記出力情報が正解か不正解かを判定することと、前記演算部に前記第1の入力情報及び前記第2の入力情報のそれぞれから前記出力情報を算出させることと、前記出力情報に基づき前記演算部を変更することと、の反復を行うこと、 causing the calculation unit to calculate the output information from the plurality of pieces of input information; determining whether the output information is correct or incorrect; and providing the calculation unit with the first input information and the second input. repeating calculating the output information from each of the information and changing the computing unit based on the output information;
をさらに備え、 further comprising
前記反復の回数が第3の閾値を越えるとともに、前記反復において前記出力情報のうち正解と判定された前記出力情報の割合が第4の閾値を越えて変動した場合に、前記演算部に入力される前記第1の入力情報の割合を増やす、 When the number of iterations exceeds a third threshold and the ratio of the output information determined to be correct among the output information in the iterations fluctuates by exceeding a fourth threshold, increasing the proportion of the first input information that
請求項1の機械学習方法。 2. The machine learning method of claim 1.
複数の入力情報のそれぞれから出力情報を算出する演算部と、
前記出力情報と、前記複数の入力情報に対して設定された正解情報と、に基づき、前記出力情報が正解か不正解かを判定する判定部と、
前記演算部に入力される前記複数の入力情報として、前記複数の入力情報に含まれるとともに不正解と判定された前記出力情報に対応する少なくとも一つの第1の入力情報と、前記複数の入力情報に含まれる少なくとも一つの第2の入力情報と、を選択する選択部と、
前記出力情報に基づき、前記演算部を変更する変更部と、
を具備し、
前記選択部は、正解と判定された前記出力情報の割合に基づき、前記演算部に入力される前記第1の入力情報及び前記第2の入力情報の割合を変更する、
情報処理装置。
a calculation unit that calculates output information from each of a plurality of pieces of input information;
a determination unit that determines whether the output information is correct or incorrect based on the output information and correct information set for the plurality of pieces of input information;
As the plurality of pieces of input information to be input to the computing unit, at least one piece of first input information included in the plurality of pieces of input information and corresponding to the output information determined to be incorrect, and the plurality of pieces of input information. a selection unit that selects at least one second input information included in the
a changing unit that changes the computing unit based on the output information;
and
The selection unit changes the ratio of the first input information and the second input information input to the calculation unit based on the ratio of the output information determined to be correct.
Information processing equipment.
コンピュータに、
複数の入力情報のそれぞれから出力情報を算出する演算機能と、
前記出力情報と、前記複数の入力情報に対して設定された正解情報と、に基づき、前記出力情報が正解か不正解かを判定する判定機能と、
前記演算機能に入力される前記複数の入力情報として、前記複数の入力情報に含まれるとともに不正解と判定された前記出力情報に対応する少なくとも一つの第1の入力情報と、前記複数の入力情報に含まれる少なくとも一つの第2の入力情報と、を選択する選択機能と、
前記出力情報に基づき、前記演算機能を変更する変更機能と、
正解と判定された前記出力情報の割合に基づき、前記演算機能に入力される前記第1の入力情報及び前記第2の入力情報の割合を変更する割合変更機能と、
を実現させるためのプログラム。
to the computer,
A calculation function for calculating output information from each of a plurality of input information;
a judgment function for judging whether the output information is correct or incorrect based on the output information and correct information set for the plurality of pieces of input information;
at least one first input information included in the plurality of input information and corresponding to the output information determined to be incorrect as the plurality of input information to be input to the arithmetic function; and the plurality of input information a selection function that selects at least one second input information included in
a change function that changes the arithmetic function based on the output information;
a ratio changing function for changing the ratio of the first input information and the second input information input to the arithmetic function based on the ratio of the output information determined to be correct;
program to make it happen.
JP2019084263A 2019-04-25 2019-04-25 Machine learning method, information processing device, and program Active JP7271295B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019084263A JP7271295B2 (en) 2019-04-25 2019-04-25 Machine learning method, information processing device, and program
US16/852,846 US11776072B2 (en) 2019-04-25 2020-04-20 Machine learning method, information processing device, computer program product, and additive manufacturing monitoring system
DE102020111128.2A DE102020111128A1 (en) 2019-04-25 2020-04-23 MACHINE LEARNING PROCESS, INFORMATION PROCESSING DEVICE, COMPUTER PROGRAM PRODUCT AND MONITORING SYSTEM FOR ADDITIVE MANUFACTURING

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019084263A JP7271295B2 (en) 2019-04-25 2019-04-25 Machine learning method, information processing device, and program

Publications (2)

Publication Number Publication Date
JP2020181384A JP2020181384A (en) 2020-11-05
JP7271295B2 true JP7271295B2 (en) 2023-05-11

Family

ID=73024150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019084263A Active JP7271295B2 (en) 2019-04-25 2019-04-25 Machine learning method, information processing device, and program

Country Status (1)

Country Link
JP (1) JP7271295B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180253645A1 (en) 2017-03-03 2018-09-06 International Business Machines Corporation Triage of training data for acceleration of large-scale machine learning

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180253645A1 (en) 2017-03-03 2018-09-06 International Business Machines Corporation Triage of training data for acceleration of large-scale machine learning

Also Published As

Publication number Publication date
JP2020181384A (en) 2020-11-05

Similar Documents

Publication Publication Date Title
JP7146576B2 (en) Layered manufacturing apparatus, layered manufacturing method, and program
JP6923268B2 (en) Error detection method in molten pool monitoring system and addition manufacturing process
JP7059411B2 (en) Equipment for manufacturing objects by layered modeling
KR102391125B1 (en) Energy Density Mapping in Additive Manufacturing Environments
JP6921920B2 (en) Error detection method in molten pool monitoring system and multi-laser addition manufacturing process
JP6923269B2 (en) Methods of error detection and compensation for heat dissipation in the additive manufacturing process
JP7221777B2 (en) Additive manufacturing monitoring system
US20190134911A1 (en) Apparatus and methods for build surface mapping
US11776072B2 (en) Machine learning method, information processing device, computer program product, and additive manufacturing monitoring system
US20220043423A1 (en) Parallelized cad using multi beam additive printing
JP2021055184A (en) Method and system for operating metal drop ejecting three-dimensional (3d) object printer to compensate for drop size variations
JP7271295B2 (en) Machine learning method, information processing device, and program
CN110732667B (en) Method for molding object
US20150367577A1 (en) Use of multiple beam spot sizes for obtaining improved performance in optical additive manufacturing techniques
CN116323083A (en) Lamination shaping method, lamination shaping device and lamination shaping system
Safari et al. Dependency evaluation of defect formation and printing location in additive manufacturing
KR20220108727A (en) Method and apparatus for forming overhang structures with a metal drop ejecting three-dimensional (3d) object printer
JP7230045B2 (en) Method for manufacturing an object by additive manufacturing using multiple coagulation devices, data processing unit and apparatus configured to perform the method
JP2018083372A (en) Three-dimensional printer system, information processing method, information processor, and program
JP2021183715A (en) Lamination molding system
WO2020204696A1 (en) Method and apparatus for producing an object by means of additive manufacturing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230426

R150 Certificate of patent or registration of utility model

Ref document number: 7271295

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150