JP2021154570A - Region constitution prediction method and region constitution prediction device - Google Patents

Region constitution prediction method and region constitution prediction device Download PDF

Info

Publication number
JP2021154570A
JP2021154570A JP2020056246A JP2020056246A JP2021154570A JP 2021154570 A JP2021154570 A JP 2021154570A JP 2020056246 A JP2020056246 A JP 2020056246A JP 2020056246 A JP2020056246 A JP 2020056246A JP 2021154570 A JP2021154570 A JP 2021154570A
Authority
JP
Japan
Prior art keywords
texture
learning
configuration
region
stage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020056246A
Other languages
Japanese (ja)
Other versions
JP7343879B2 (en
Inventor
航 荒井
Wataru Arai
航 荒井
邦夫 八角
Kunio Yasumi
邦夫 八角
徳道 津村
Norimichi Tsumura
徳道 津村
経太 平井
Keita Hirai
経太 平井
健亮 福本
Kensuke Fukumoto
健亮 福本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chiba University NUC
Mimaki Engineering Co Ltd
Original Assignee
Chiba University NUC
Mimaki Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chiba University NUC, Mimaki Engineering Co Ltd filed Critical Chiba University NUC
Priority to JP2020056246A priority Critical patent/JP7343879B2/en
Priority to PCT/JP2021/010304 priority patent/WO2021193185A1/en
Publication of JP2021154570A publication Critical patent/JP2021154570A/en
Application granted granted Critical
Publication of JP7343879B2 publication Critical patent/JP7343879B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a region constitution prediction method and a region constitution prediction device, that can appropriately predict a region constitution for obtaining a desired texture.SOLUTION: The region constitution prediction method for predicting the region constitution formed by using materials for coloring multiple colors comprises: a texture prediction stage (S204) that predicts relationship between a predetermined texture and a laminated constitution in which a plurality of colored layered regions are overlapped by computer simulation; a learning stage (S206) that generates a learned model, which is a learning model that learned relationship between the laminated constitution and the texture, by machine learning; and a region constitution prediction stage that predicts the laminated constitution corresponding to the texture using a learned model generated in the learning stage, and predicts the region constitution corresponding to the desired texture based on the laminated constitution.SELECTED DRAWING: Figure 5

Description

本発明は、領域構成予測方法及び領域構成予測装置に関する。 The present invention relates to a region configuration prediction method and a region configuration prediction device.

従来、インクジェットヘッドを用いて造形物を造形する造形装置(3Dプリンタ)が知られている(例えば、特許文献1参照。)。このような造形装置においては、例えば、インクジェットヘッドにより形成するインクの層を複数層重ねることにより、積層造形法で造形物を造形する。 Conventionally, a modeling device (3D printer) for modeling a modeled object using an inkjet head is known (see, for example, Patent Document 1). In such a modeling device, for example, by stacking a plurality of layers of ink formed by an inkjet head, a modeled object is modeled by a layered manufacturing method.

特開2015−071282号公報Japanese Unexamined Patent Publication No. 2015-071282

造形装置で造形物を造形する場合、造形の材料(例えば、インク)で形成される領域(例えば、着色された層状の領域)の重なり方により、造形物の質感に違いが生じる場合がある。例えば、互いに異なる色の複数種類のインクを造形の材料として用い、様々な色の領域を重ねて色を表現する場合、領域の重ね方によって、造形物の表面における透明感等の質感に違いが生じる場合がある。 When modeling a modeled object with a modeling device, the texture of the modeled object may differ depending on how the regions (for example, colored layered regions) formed by the modeling material (for example, ink) overlap. For example, when multiple types of inks of different colors are used as modeling materials and areas of various colors are overlapped to express a color, the texture such as transparency on the surface of the modeled object differs depending on how the areas are overlapped. May occur.

そのため、このような場合、ユーザ(例えば、デザイナ等)の所望の質感が得られる構成で造形の材料の領域が重なるように、造形物の造形を行うことが望まれる。そして、この場合、例えば、領域の重ね方(領域構成)について、所望の質感が得られる構成を適切に予測することが望まれる。そこで、本発明は、上記の課題を解決できる領域構成予測方法及び領域構成予測装置を提供することを目的とする。 Therefore, in such a case, it is desired to model the modeled object so that the regions of the modeling material overlap with each other in a configuration that can obtain the desired texture of the user (for example, a designer). Then, in this case, for example, it is desired to appropriately predict a configuration in which a desired texture can be obtained with respect to how the regions are overlapped (region configuration). Therefore, an object of the present invention is to provide a region configuration prediction method and a region configuration prediction device that can solve the above problems.

造形物の造形時において、所望の質感が得られる領域構成を決定するためには、通常、実際に造形物を造形すること等で試行錯誤を行うことが必要である。しかし、造形物の造形には、多くの時間がかかるため、このような試行錯誤が必要になると、造形物の構成を決定するために要する手間が大きく増大することになる。 In order to determine the region configuration in which the desired texture can be obtained at the time of modeling the modeled object, it is usually necessary to perform trial and error by actually modeling the modeled object or the like. However, since it takes a lot of time to model a modeled object, if such trial and error is required, the time and effort required to determine the configuration of the modeled object will be greatly increased.

これに対し、本願の発明者は、個々の造形物を造形する毎に試行錯誤を繰り返すのではなく、造形物の構成に対応する積層構成と質感との関係を予めコンピュータに機械学習させておき、所望の質感を入力することで対応する積層構成を出力させることを考えた。また、この場合において、互いに異なる構成で造形の材料の層を積層させた複数の試料を作成し、試料に対して所定の質感に対応する計測を行うことで、積層構成と質感との関係を取得し、その関係を学習する機械学習をコンピュータに行わせることを考えた。また、実際に様々な実験等を行うことで、このような方法で所望の質感に対応する領域構成を適切に決定できることを見出した。更には、このような方法に関し、本願の出願人は、特願2019−63003号として、出願を行った。 On the other hand, the inventor of the present application does not repeat trial and error every time each modeled object is modeled, but causes a computer to machine-learn the relationship between the laminated structure and the texture corresponding to the structure of the modeled object in advance. , I thought about outputting the corresponding laminated structure by inputting the desired texture. Further, in this case, by creating a plurality of samples in which layers of modeling materials are laminated with different configurations and measuring the samples corresponding to a predetermined texture, the relationship between the laminated configuration and the texture can be determined. I thought about letting a computer perform machine learning to acquire and learn the relationship. In addition, it has been found that by actually conducting various experiments and the like, it is possible to appropriately determine the region configuration corresponding to the desired texture by such a method. Furthermore, with respect to such a method, the applicant of the present application has filed an application as Japanese Patent Application No. 2019-63003.

このような方法で領域構成を決定する場合、例えば機械学習が完了した後においては、短時間で適切に領域構成を決定することができる。しかし、この場合も、機械学習に必要なデータを取得する段階において、多くの手間や時間を要することになる。より具体的に、例えば、上記のような方法で機械学習を行う場合、通常、多数の試料を作成して、それぞれの試料に対する計測を行うことが必要になる。そして、この場合、試料の作成や計測を行う段階において、多くの手間や時間を要することになる。 When the region configuration is determined by such a method, for example, after the machine learning is completed, the region configuration can be appropriately determined in a short time. However, even in this case, a lot of time and effort is required at the stage of acquiring the data necessary for machine learning. More specifically, for example, when machine learning is performed by the above method, it is usually necessary to prepare a large number of samples and perform measurement on each sample. In this case, a lot of labor and time are required at the stage of preparing and measuring the sample.

これに対し、本願の発明者は、更なる鋭意研究により、多数の試料を作成することなく、コンピュータシミュレーションにより、積層構成と質感との関係を予測することを考えた。また、実際に様々な実験等を行うことで、このような方法でも、所望の質感に対応する領域構成を適切に決定できることを見出した。 On the other hand, the inventor of the present application considered to predict the relationship between the laminated composition and the texture by computer simulation without preparing a large number of samples by further diligent research. Further, by actually conducting various experiments and the like, it was found that the region configuration corresponding to the desired texture can be appropriately determined even by such a method.

また、本願の発明者は、更なる鋭意研究により、このような効果を得るために必要な特徴を見出し、本発明に至った。上記の課題を解決するために、本発明は、複数色の着色用の材料を用いて形成する領域の構成である領域構成を予測する領域構成予測方法であって、着色された層状の領域が複数重なる構成である積層構成と所定の質感との関係をコンピュータシミュレーションにより予測する段階であり、互いに異なる構成で前記層状の領域が重なる複数種類の前記積層構成について、それぞれの前記積層構成により表現される前記質感を予測する質感予測段階と、前記積層構成と前記質感との関係とを学習させた学習モデルである学習済モデルを機械学習により生成する段階であり、前記複数種類の積層構成に対して前記質感予測段階において予測した前記質感に基づいて前記学習済モデルを生成する学習段階と、所望の前記質感に対応する前記領域構成を予測する段階であり、前記学習段階で生成した前記学習済モデルを用いて前記質感に対応する前記積層構成を予測し、当該積層構成に基づき、前記所望の質感に対応する前記領域構成を予測する領域構成予測段階とを備えることを特徴とする。 In addition, the inventor of the present application has found the features necessary for obtaining such an effect through further diligent research, and has reached the present invention. In order to solve the above problems, the present invention is a region configuration prediction method for predicting a region configuration which is a configuration of a region formed by using a material for coloring of a plurality of colors, and a colored layered region is used. It is a stage of predicting the relationship between the laminated structure which is a plurality of overlapping structures and a predetermined texture by computer simulation, and the plurality of types of the laminated structures in which the layered regions overlap with each other are expressed by the respective laminated structures. A texture prediction stage for predicting the texture, and a stage for generating a trained model, which is a learning model in which the relationship between the laminated configuration and the texture is learned, is generated by machine learning. A learning step of generating the trained model based on the texture predicted in the texture prediction step and a step of predicting the region configuration corresponding to the desired texture, and the trained trained model generated in the learning step. It is characterized by including a region configuration prediction stage for predicting the laminated configuration corresponding to the texture using a model and predicting the region configuration corresponding to the desired texture based on the laminated configuration.

このように構成すれば、例えば、積層構成と質感との関係をコンピュータシミュレーションによって適切に予測することができる。また、様々な構成の積層構成について、積層構成と質感との関係を機械学習で学習させた学習済モデルを生成することで、所望の質感に対応する積層構成を適切に予測することができる。また、予測した積層構成に基づき、所望の質感を得るための領域構成を適切に予測することができる。また、この場合、例えば、実際に多数の試料を作成することや多数の試料に対する計測等を行うことなく、機械学習に必要な多数のデータ(学習データ)を適切に準備することができる。また、これにより、例えば、学習済モデルを生成するために要する手間や時間等を適切に低減することができる。 With this configuration, for example, the relationship between the laminated configuration and the texture can be appropriately predicted by computer simulation. Further, by generating a trained model in which the relationship between the laminated structure and the texture is learned by machine learning for the laminated structure of various configurations, the laminated structure corresponding to the desired texture can be appropriately predicted. Further, based on the predicted laminated structure, the area structure for obtaining a desired texture can be appropriately predicted. Further, in this case, for example, a large number of data (learning data) necessary for machine learning can be appropriately prepared without actually preparing a large number of samples or performing measurement on a large number of samples. Further, as a result, for example, the time and effort required to generate the trained model can be appropriately reduced.

この構成において、複数色の着色用の材料としては、例えば、複数色の造形の材料を用いることが考えられる。この場合、領域構成について、例えば、複数色の造形の材料を用いて造形物を造形する造形装置において造形しようとする造形物の少なくとも一部の領域に対応する構成等と考えることができる。また、領域構成について、例えば、それぞれが着色された複数の層状の領域が造形物の表面での法線方向と平行な方向において重なる構成等と考えることもできる。このように構成すれば、例えば、積層構成に基づいて領域構成を適切に予測することができる。また、これにより、例えば、所望の質感を得るための造形物の構成を適切に予測することができる。 In this configuration, as the material for coloring a plurality of colors, for example, it is conceivable to use a material for modeling a plurality of colors. In this case, the region configuration can be considered, for example, a configuration corresponding to at least a part of the region of the modeled object to be modeled by the modeling apparatus that models the modeled object using the modeling materials of a plurality of colors. Further, the region configuration can be considered, for example, a configuration in which a plurality of layered regions, each of which is colored, overlap in a direction parallel to the normal direction on the surface of the modeled object. With this configuration, for example, the region configuration can be appropriately predicted based on the laminated configuration. Further, this makes it possible to appropriately predict, for example, the composition of the modeled object for obtaining a desired texture.

尚、着色用の材料として造形の材料以外の材料を用いること等も考えられる。この場合、例えば、媒体(メディア)に対して印刷を行う印刷装置において用いるインク等について、着色用の材料と考えることもできる。また、この場合、印刷装置では、例えば、媒体上に様々な色のインクの層を複数重ねることで様々な質感を表現することが考えられる。そして、この場合、媒体上に重ねて形成されるインクの層の重なり方について、領域構成と考えることができる。また、印刷装置としては、媒体上にインクの層を重ねることで立体的な形状を形成する印刷装置(いわゆる、2.5Dプリンタ)を用いること等も考えられる。この場合、例えば、媒体上に形成される立体的な形状の表面の構成について、領域構成と考えることができる。 It is also conceivable to use a material other than the modeling material as the coloring material. In this case, for example, ink or the like used in a printing apparatus that prints on a medium can be considered as a material for coloring. Further, in this case, in the printing apparatus, for example, it is conceivable to express various textures by stacking a plurality of layers of inks of various colors on the medium. Then, in this case, the way in which the ink layers formed on the medium are overlapped can be considered as a region configuration. Further, as the printing apparatus, it is conceivable to use a printing apparatus (so-called 2.5D printer) that forms a three-dimensional shape by superimposing an ink layer on the medium. In this case, for example, the configuration of the three-dimensionally shaped surface formed on the medium can be considered as the region configuration.

また、この構成において、学習段階では、例えば、コンピュータに機械学習を行わせることで、学習済モデルを生成する。また、質感としては、例えば、複数の層状の領域が重なることで表現される透明感等を用いることが考えられる。この場合、質感予測段階において、質感を示すパラメータとしては、例えば、光の広がり方を示す関数を用いることが考えられる。また、より具体的に、このような質感を示すパラメータとしては、例えば、線広がり関数(LSF)等を好適に用いることができる。このように構成すれば、例えば、所望の透明感に対応する積層構成等の予測を適切に行うことができる。 Further, in this configuration, in the learning stage, for example, a trained model is generated by causing a computer to perform machine learning. Further, as the texture, for example, it is conceivable to use a transparency expressed by overlapping a plurality of layered regions. In this case, in the texture prediction stage, for example, it is conceivable to use a function indicating how the light spreads as a parameter indicating the texture. Further, more specifically, as a parameter indicating such a texture, for example, a line spreading function (LSF) or the like can be preferably used. With such a configuration, for example, it is possible to appropriately predict a laminated configuration corresponding to a desired transparency.

また、この構成において、領域構成予測段階は、例えば、パラメータ算出段階及び積層構成取得段階を有する。この場合、パラメータ算出段階とは、例えば、所望の質感が設定されたコンピュータグラフィックス画像に基づき、当該コンピュータグラフィックス画像に設定されている質感に対応するパラメータである設定パラメータを算出する段階である。また、積層構成取得段階とは、例えば、学習済モデルに対する入力として設定パラメータ算出段階で算出した設定パラメータを用いて、積層構成を示す出力を取得する段階である。このように構成すれば、例えば、所望の質感の指定を適切に受け付け、その質感に対応する積層構成を適切に出力することができる。 Further, in this configuration, the region configuration prediction stage includes, for example, a parameter calculation stage and a laminated configuration acquisition stage. In this case, the parameter calculation step is, for example, a step of calculating a setting parameter which is a parameter corresponding to the texture set in the computer graphics image based on the computer graphics image in which the desired texture is set. .. Further, the laminated configuration acquisition stage is, for example, a stage of acquiring an output indicating the laminated configuration by using the setting parameters calculated in the setting parameter calculation stage as inputs to the trained model. With such a configuration, for example, it is possible to appropriately accept the designation of a desired texture and appropriately output the laminated configuration corresponding to the texture.

また、質感予測段階においては、例えば、複数色の着色用の材料のそれぞれに対応する吸収係数及び散乱係数を用いてコンピュータシミュレーションを行うことで、積層構成により表現される質感を予測する。このように構成すれば、例えば、積層構成に対応する質感の予測をコンピュータシミュレーションによって適切に行うことができる。質感予測段階では、例えば、公知のコンピュータシミュレーションの手法と同一又は同様の手法のコンピュータシミュレーションを用いることができる。例えば、質感予測段階では、光散乱モンテカルロシミュレーション法(MCML法)でのコンピュータシミュレーション等を好適に用いることができる。 Further, in the texture prediction stage, for example, the texture expressed by the laminated structure is predicted by performing a computer simulation using the absorption coefficient and the scattering coefficient corresponding to each of the materials for coloring a plurality of colors. With this configuration, for example, the texture corresponding to the laminated configuration can be appropriately predicted by computer simulation. In the texture prediction stage, for example, a computer simulation having the same or similar method as a known computer simulation method can be used. For example, in the texture prediction stage, a computer simulation by a light scattering Monte Carlo simulation method (MCML method) or the like can be preferably used.

また、複数色の着色用の材料のそれぞれに対応する吸収係数及び散乱係数については、例えば、少数の試料に対する計測等で取得することが考えられる。この場合、領域構成予測方法は、例えば、各色試料作成段階及び係数決定段階を更に備える。各色試料作成段階とは、例えば、それぞれの色の着色用の材料に対応する試料を作成する段階である。この場合、例えば、造形装置を用いて試料を作成することが考えられる。また、係数決定段階は、例えば、各色試料作成段階で作成した試料の光学的な特性を計測することで複数色の着色用の材料のそれぞれに対応する吸収係数及び散乱係数を決定する段階である。また、この場合、質感予測段階では、例えば、係数決定段階で決定した吸収係数及び散乱係数を用いて、コンピュータシミュレーションを行う。このように構成すれば、例えば、複数色の着色用の材料のそれぞれに対応する吸収係数及び散乱係数を適切に決定することができる。また、これにより、例えば、質感予測段階でのコンピュータシミュレーションを高い精度で適切に行うことができる。 Further, the absorption coefficient and the scattering coefficient corresponding to each of the materials for coloring a plurality of colors may be obtained by, for example, measurement for a small number of samples. In this case, the region composition prediction method further includes, for example, each color sample preparation step and a coefficient determination step. Each color sample preparation step is, for example, a step of preparing a sample corresponding to a material for coloring each color. In this case, for example, it is conceivable to prepare a sample using a modeling apparatus. The coefficient determination step is, for example, a step of determining the absorption coefficient and the scattering coefficient corresponding to each of the materials for coloring a plurality of colors by measuring the optical characteristics of the sample prepared in each color sample preparation step. .. Further, in this case, in the texture prediction stage, for example, a computer simulation is performed using the absorption coefficient and the scattering coefficient determined in the coefficient determination stage. With this configuration, for example, the absorption coefficient and the scattering coefficient corresponding to each of the materials for coloring a plurality of colors can be appropriately determined. Further, as a result, for example, a computer simulation at the texture prediction stage can be appropriately performed with high accuracy.

また、学習段階において、機械学習としては、例えば、深層学習(ディープラーニング)等を好適に用いることができる。この場合、学習段階について、例えば、学習対象のニューラルネットワークである学習対象ニューラルネットワークに学習を行わせる段階等と考えることができる。また、この場合、学習対象ニューラルネットワークとしては、例えば、質感を示すパラメータを入力及び出力とし、積層構成を示すパラメータを中間出力とするニューラルネットワーク等を好適に用いることができる。また、より具体的に、このような学習対象ニューラルネットワークとしては、例えば、エンコーダ部及びデコーダ部を有するニューラルネットワーク等を好適に用いることができる。この場合、エンコーダ部について、例えば、質感を示すパラメータを入力とし、積層構成を示すパラメータを出力とするニューラルネットワーク等と考えることができる。また、デコーダ部について、例えば、積層構成を示すパラメータを入力とし、質感を示すパラメータを出力とするニューラルネットワーク等と考えることができる。このように構成すれば、例えば、積層構成と質感との関係を学習させた学習済モデルを適切に生成することができる。また、エンコーダ部及びデコーダ部のそれぞれとしては、例えば、3層以上の多層のニューラルネットワークを用いることが好ましい。 Further, in the learning stage, for example, deep learning can be preferably used as the machine learning. In this case, the learning stage can be considered as, for example, a stage in which the learning target neural network, which is the learning target neural network, performs learning. Further, in this case, as the learning target neural network, for example, a neural network or the like in which a parameter indicating a texture is used as an input and an output and a parameter indicating a laminated structure is used as an intermediate output can be preferably used. Further, more specifically, as such a learning target neural network, for example, a neural network having an encoder unit and a decoder unit can be preferably used. In this case, the encoder unit can be considered, for example, a neural network or the like in which a parameter indicating the texture is input and a parameter indicating the laminated structure is output. Further, the decoder unit can be considered as, for example, a neural network or the like in which a parameter indicating a laminated structure is input and a parameter indicating a texture is output. With this configuration, for example, a trained model in which the relationship between the laminated configuration and the texture is trained can be appropriately generated. Further, as each of the encoder unit and the decoder unit, for example, it is preferable to use a multi-layer neural network having three or more layers.

また、この場合、学習対象ニューラルネットワークについて、例えば、エンコーダ部とデコーダ部とをつなげたニューラルネットワーク等と考えることができる。また、このような学習対象ニューラルネットワークを用いる場合、例えば、先にデコーダ部に学習を行わせ、その後に学習対象ニューラルネットワークの全体に学習を行わせることが考えられる。より具体的に、この場合、学習段階は、例えば、デコーダ部学習段階及び全体学習段階を有する。デコーダ部学習段階については、例えば、積層構成と質感との関係の学習をデコーダ部に行わせることでデコーダ部における重みを決定する段階等と考えることができる。全体学習段階については、例えば、積層構成と質感との関係の学習を学習対象ニューラルネットワークの全体に行わせる段階等と考えることができる。また、この場合、全体学習段階では、例えば、デコーダ部学習段階で決定したデコーダ部における重みを固定して、学習対象ニューラルネットワークに学習を行わせる。このように構成すれば、例えば、学習済モデルの生成を適切に行うことができる。 Further, in this case, the learning target neural network can be considered as, for example, a neural network in which an encoder unit and a decoder unit are connected. Further, when such a learning target neural network is used, for example, it is conceivable to have the decoder unit perform learning first, and then make the entire learning target neural network perform learning. More specifically, in this case, the learning stage has, for example, a decoder unit learning stage and an overall learning stage. The decoder unit learning stage can be considered, for example, a stage in which the weight in the decoder unit is determined by having the decoder unit learn the relationship between the laminated structure and the texture. The overall learning stage can be considered, for example, a stage in which learning of the relationship between the laminated structure and the texture is performed on the entire learning target neural network. Further, in this case, in the overall learning stage, for example, the weight in the decoder unit determined in the decoder unit learning stage is fixed, and the learning target neural network is made to perform learning. With this configuration, for example, a trained model can be appropriately generated.

ここで、ニューラルネットワークにおける重みとは、ニューラルネットワークを構成するニューロン間に設定される重みのことである。また、このような学習対象ニューラルネットワークを用いる場合、領域構成予測段階では、例えば、学習対象ニューラルネットワークに学習を行わせることで作成した学習済モデルを用いて、質感に対応する積層構成を予測する。このように構成すれば、例えば、所望の質感に対応する積層構成の予測を適切に行うことができる。 Here, the weight in the neural network is a weight set between the neurons constituting the neural network. Further, when such a learning target neural network is used, in the region configuration prediction stage, for example, a trained model created by having the training target neural network perform training is used to predict a stacked configuration corresponding to the texture. .. With such a configuration, for example, it is possible to appropriately predict the laminated configuration corresponding to a desired texture.

また、所望の質感に対応する積層構成の予測をより高い精度で行おうとする場合には、コンピュータシミュレーション以外の方法で取得したデータを更に用いること等も考えられる。この場合、例えば、様々な積層構成に対応する試料を実際に作成して、注目する質感に対応する計測を試料に対して行うこと等が考えられる。このように構成した場合も、コンピュータシミュレーションにより取得したデータを用いることで、例えば、必要な試料の数を大幅に削減することができる。 Further, in order to predict the laminated structure corresponding to the desired texture with higher accuracy, it is conceivable to further use the data acquired by a method other than the computer simulation. In this case, for example, it is conceivable to actually prepare a sample corresponding to various laminated configurations and perform measurement on the sample corresponding to the texture of interest. Even in this configuration, the number of required samples can be significantly reduced, for example, by using the data acquired by computer simulation.

また、より具体的に、この場合、学習段階では、例えば、シミュレーション取得データ及び計測取得データを用いて、学習済モデルを生成する。シミュレーション取得データとは、例えば、質感予測段階において予測した質感に基づいて積層構成と質感との関係を示すデータである。また、計測取得データとは、例えば、造形装置等を用いて作成した試料に対して光学的な特性を計測することで取得される積層構成と質感との関係を示すデータである。このように構成すれば、例えば、高い精度で質感と積層構成との関係を予測できる学習済モデルを適切に生成することができる。 More specifically, in this case, in the learning stage, for example, a trained model is generated using simulation acquisition data and measurement acquisition data. The simulation acquisition data is, for example, data showing the relationship between the laminated structure and the texture based on the texture predicted in the texture prediction stage. Further, the measurement acquisition data is data showing the relationship between the laminated structure and the texture acquired by measuring the optical characteristics of the sample prepared by using, for example, a modeling apparatus or the like. With this configuration, for example, a trained model that can predict the relationship between the texture and the laminated configuration with high accuracy can be appropriately generated.

また、この場合、学習段階では、例えば、シミュレーション取得データと計測取得データとを区別せずに用いて、学習済モデルを生成することが考えられる。この場合、シミュレーション取得データと計測取得データとを区別せずに用いることについては、例えば、学習済モデルを生成するための学習時において、それぞれのデータがシミュレーション取得データ及び計測取得データのいずれであるかによって扱い方を変えずに、同じように扱うことである。また、このような動作については、例えば、計測取得データを追加することで学習に用いるデータの数を増やす動作等と考えることもできる。このように構成すれば、例えば、容易かつ適切にシミュレーション取得データ及び計測取得データを用いることができる。 Further, in this case, in the learning stage, for example, it is conceivable to generate a trained model by using the simulation acquisition data and the measurement acquisition data without distinguishing them. In this case, regarding the use of the simulation acquisition data and the measurement acquisition data without distinction, for example, at the time of learning to generate the trained model, each data is either the simulation acquisition data or the measurement acquisition data. It is treated in the same way without changing the way of handling. Further, such an operation can be considered as, for example, an operation of increasing the number of data used for learning by adding measurement acquisition data. With this configuration, for example, simulation acquisition data and measurement acquisition data can be used easily and appropriately.

また、シミュレーション取得データ及び計測取得データについては、それぞれの特徴を活かすように、異なる用い方で用いることも考えられる。より具体的に、シミュレーション取得データについては、例えば、多数のデータをより容易に作成できると考えることができる。また、計測取得データについては、例えば、質感と積層構成との関係をより高い精度で示していると考えることができる。そして、この場合、例えば、最初にシミュレーション取得データを用いた学習を行わせて学習を進めた学習モデルを生成し、その学習モデルに対して計測取得データを用いた学習を行わせること等が考えられる。また、このような動作については、例えば、シミュレーション取得データを反映した学習モデルに対する調整を計測取得データを用いて行う動作等と考えることもできる。 It is also conceivable to use the simulation acquisition data and the measurement acquisition data in different ways so as to make the best use of their respective characteristics. More specifically, with respect to the simulation acquisition data, for example, it can be considered that a large number of data can be created more easily. Further, regarding the measurement acquisition data, for example, it can be considered that the relationship between the texture and the laminated structure is shown with higher accuracy. Then, in this case, for example, it is conceivable to first perform learning using simulation acquisition data to generate a learning model in which learning is advanced, and to have the learning model perform learning using measurement acquisition data. Be done. Further, such an operation can be considered as, for example, an operation of adjusting the learning model reflecting the simulation acquisition data by using the measurement acquisition data.

また、この場合、学習段階は、例えば、第1学習段階及び第2学習段階を有する。この場合、第1学習段階では、例えば、計測取得データを用いず、シミュレーション取得データを用いた学習を学習モデルに対して行わせることで、シミュレーション取得データを反映した学習モデルである中間生成モデルを生成する。また、第2学習段階では、例えば、中間生成モデルに対して計測取得データを用いた学習を更に行わせることで学習済モデルを生成する。このように構成すれば、例えば、シミュレーション取得データ及び計測取得データについて、それぞれの特徴を活かすよう適切に用いることができる。また、これにより、例えば、より高い精度で質感と積層構成との関係を予測できる学習済モデルを適切に生成することができる。 Further, in this case, the learning stage has, for example, a first learning stage and a second learning stage. In this case, in the first learning stage, for example, by having the learning model perform learning using the simulation acquisition data without using the measurement acquisition data, an intermediate generation model which is a learning model reflecting the simulation acquisition data is created. Generate. Further, in the second learning stage, for example, a trained model is generated by further learning the intermediate generative model using the measurement acquisition data. With this configuration, for example, the simulation acquisition data and the measurement acquisition data can be appropriately used so as to make the best use of their respective characteristics. Further, as a result, for example, a trained model capable of predicting the relationship between the texture and the laminated structure with higher accuracy can be appropriately generated.

また、エンコーダ部及びデコーダ部を有する学習対象ニューラルネットワークを用いる場合、学習対象ニューラルネットワークの構成に合わせてシミュレーション取得データ及び計測取得データを用いること等も考えられる。より具体的に、この場合、例えば、先に行うデコーダ部学習段階において、計測取得データを用いた学習をデコーダ部に行わせることが考えられる。また、この場合、全体学習段階では、例えば、シミュレーション取得データを用いた学習を学習対象ニューラルネットワークに行わせる。このように構成すれば、例えば、実際に作成した試料の特性を学習済モデルにより適切に反映させることができる。また、更に具体的に、この場合、デコーダ部学習段階では、例えば、計測取得データを用い、かつ、シミュレーション取得データを用いずに、デコーダ部に学習を行わせる。また、全体学習段階では、例えば、シミュレーション取得データ及び計測取得データを用いて、学習対象ニューラルネットワークに学習を行わせる。このように構成すれば、例えば、実際に作成した試料の特性を学習済モデルにより適切に反映させることができる。 Further, when a learning target neural network having an encoder unit and a decoder unit is used, it is conceivable to use simulation acquisition data and measurement acquisition data according to the configuration of the learning target neural network. More specifically, in this case, for example, in the decoder unit learning stage to be performed first, it is conceivable to have the decoder unit perform learning using the measurement acquisition data. Further, in this case, in the overall learning stage, for example, the learning target neural network is made to perform learning using the simulation acquisition data. With this configuration, for example, the characteristics of the actually prepared sample can be appropriately reflected in the trained model. Further, more specifically, in this case, in the decoder unit learning stage, for example, the decoder unit is made to perform learning using the measurement acquisition data and not using the simulation acquisition data. Further, in the overall learning stage, for example, the learning target neural network is made to perform learning by using the simulation acquisition data and the measurement acquisition data. With this configuration, for example, the characteristics of the actually prepared sample can be appropriately reflected in the trained model.

また、複数色の着色用の材料として複数色の造形の材料を用いる場合等において、所望の質感に対応する積層構成を予測した後には、例えば、予測結果に基づき、造形しようとする造形物を示す造形データを生成することが考えられる。この場合、領域構成予測方法は、例えば、造形データを生成する造形データ生成段階を更に備える。造形データとしては、例えば、領域構成予測段階で予測した領域構成で造形物の少なくとも一部が形成されるように造形装置に造形の材料を積層させるデータを生成することが考えられる。このように構成すれば、例えば、所望の質感が得られる造形物の造形を造形装置に適切に行わせることができる。 Further, in the case where a material for modeling a plurality of colors is used as a material for coloring a plurality of colors, after predicting a laminated structure corresponding to a desired texture, for example, a modeled object to be modeled is obtained based on the prediction result. It is conceivable to generate the modeling data shown. In this case, the area configuration prediction method further includes, for example, a modeling data generation stage for generating modeling data. As the modeling data, for example, it is conceivable to generate data in which the modeling material is laminated on the modeling device so that at least a part of the modeled object is formed in the region configuration predicted in the region configuration prediction stage. With this configuration, for example, the modeling apparatus can appropriately perform modeling of a modeled object that can obtain a desired texture.

また、本発明の構成として、上記の一部の特徴から構成される領域構成予測方法等を考えることもできる。この場合、例えば、領域構成予測段階の動作に着目した領域構成予測方法等を考えることもできる。また、本発明の構成として、例えば、上記の領域構成予測方法に対応する領域構成予測装置を用いること等も考えられる。これらの場合も、例えば、上記と同様の効果を得ることができる。 Further, as the configuration of the present invention, a region configuration prediction method composed of some of the above-mentioned features can be considered. In this case, for example, a region configuration prediction method focusing on the operation of the region configuration prediction stage can be considered. Further, as the configuration of the present invention, for example, it is conceivable to use a region configuration prediction device corresponding to the above region configuration prediction method. In these cases as well, for example, the same effect as described above can be obtained.

本発明によれば、例えば、所望の質感を得るための領域構成を適切に予測することができる。 According to the present invention, for example, a region configuration for obtaining a desired texture can be appropriately predicted.

本発明の一実施形態に係る領域構成予測方法を実行する造形システム10について説明をする図である。図1(a)は、造形システム10の構成の一例を示す。図1(b)は、造形装置12の要部の構成の一例を示す。図1(c)は、造形装置12におけるヘッド部102の構成の一例を示す。It is a figure explaining the modeling system 10 which executes the area composition prediction method which concerns on one Embodiment of this invention. FIG. 1A shows an example of the configuration of the modeling system 10. FIG. 1B shows an example of the configuration of the main part of the modeling apparatus 12. FIG. 1C shows an example of the configuration of the head portion 102 in the modeling apparatus 12. 造形物50の構成について説明をする図である。図2(a)は、造形装置12において造形する造形物50の構成の一例を示す断面図である。図2(b)は、造形物50における着色領域154の構成の一例を示す。It is a figure explaining the structure of the modeled object 50. FIG. 2A is a cross-sectional view showing an example of the configuration of the modeled object 50 modeled by the modeling apparatus 12. FIG. 2B shows an example of the configuration of the colored region 154 in the modeled object 50. 着色領域154を用いて表現する造形物の質感の一例を示す図である。図3(a)は、人間の肌の構成を簡略化して示す断面図である。図3(b)は、肌の質感を表現する場合に用いる着色領域154の構成の一例を示す。図3(c)は、着色領域154を構成する各領域の層数を異ならせた例を示す。It is a figure which shows an example of the texture of a modeled object expressed by using a colored region 154. FIG. 3A is a cross-sectional view showing the composition of human skin in a simplified manner. FIG. 3B shows an example of the configuration of the colored region 154 used when expressing the texture of the skin. FIG. 3C shows an example in which the number of layers of each region constituting the colored region 154 is different. 学習済モデルを用いて領域構成を予測する動作について説明をする図である。図4(a)は、制御PC14の構成の一例を示す。図4(b)は、制御PC14において造形データを生成する動作の一例を示すフローチャートである。It is a figure explaining the operation which predicts a region composition using a trained model. FIG. 4A shows an example of the configuration of the control PC 14. FIG. 4B is a flowchart showing an example of an operation of generating modeling data in the control PC 14. 学習済モデルを生成する動作について説明をする図である。図5(a)は、学習済モデルを生成する動作の一例を示すフローチャートである。図5(b)は、ステップS102の動作をより詳細に示すフローチャートである。It is a figure explaining the operation which generates a trained model. FIG. 5A is a flowchart showing an example of the operation of generating the trained model. FIG. 5B is a flowchart showing the operation of step S102 in more detail. インクサンプルに対して行う計測等について更に詳しく説明をする図である。図6(a)は、インクサンプルの一例を示す写真である。図6(b)は、インクサンプルに対する計測時に撮影する写真の例を示す。図6(c)は、本例において用いるダイポールモデルを表す数式を示す。It is a figure which explains the measurement performed with respect to the ink sample in more detail. FIG. 6A is a photograph showing an example of an ink sample. FIG. 6B shows an example of a photograph taken at the time of measurement with respect to the ink sample. FIG. 6C shows a mathematical formula representing the dipole model used in this example. 本例において行うシミュレーションについて更に詳しく説明をする図である。It is a figure explaining the simulation performed in this example in more detail. 本例において実行する機械学習で利用する学習モデルの構成の一例を示す図である。図8(a)は、学習モデルとして用いる深層ニューラルネットワーク(DNN)の構成の一例を示す。図8(b)は、学習モデルに対する入力、出力、及び中間出力の例を示す。It is a figure which shows an example of the structure of the learning model used in the machine learning executed in this example. FIG. 8A shows an example of the configuration of a deep neural network (DNN) used as a learning model. FIG. 8B shows examples of inputs, outputs, and intermediate outputs for the training model. 本例において行う機械学習について説明をする図である。図9(a)は、学習モデルに学習を行わせる動作の一例を示すフローチャートである。図9(b)は、デコーダ部604の学習曲線の一例を示す。図9(c)は、エンコーダ部602の学習曲線の一例を示す。It is a figure explaining the machine learning performed in this example. FIG. 9A is a flowchart showing an example of an operation of causing the learning model to perform learning. FIG. 9B shows an example of the learning curve of the decoder unit 604. FIG. 9C shows an example of the learning curve of the encoder unit 602. シミュレーション取得データ及び計測取得データを用い方の変形例について説明をする図である。図10(a)は、シミュレーション取得データ及び計測取得データを用いて学習済モデルを生成する動作の変形例を示すフローチャートである。図10(b)は、シミュレーション取得データ及び計測取得データを用い方の更なる変形例を示す。It is a figure explaining the modification of the method of using the simulation acquisition data and the measurement acquisition data. FIG. 10A is a flowchart showing a modified example of the operation of generating a trained model using the simulation acquisition data and the measurement acquisition data. FIG. 10B shows a further modified example of how to use the simulation acquisition data and the measurement acquisition data.

以下、本発明に係る実施形態を、図面を参照しながら説明する。図1は、本発明の一実施形態に係る領域構成予測方法を実行する造形システム10について説明をする図である。図1(a)は、造形システム10の構成の一例を示す。以下において説明をする点を除き、造形システム10は、公知の造形システムと同一又は同様の特徴を有してよい。 Hereinafter, embodiments according to the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a modeling system 10 that executes a region configuration prediction method according to an embodiment of the present invention. FIG. 1A shows an example of the configuration of the modeling system 10. Except as described below, the modeling system 10 may have the same or similar characteristics as known modeling systems.

本例において、造形システム10は、立体的な造形物を造形するシステムであり、造形装置12及び制御PC14を備える。造形装置12は、造形物の造形を実行する装置であり、造形の材料としてインクを用い、インクの層を積層することにより、積層造形法で造形物を造形する。この場合、積層造形法とは、例えば、複数の層を重ねて造形物を造形する方法のことである。造形物とは、例えば、立体的な三次元構造物のことである。インクについては、例えば、機能性の液体等と考えることができる。また、本例において、インクは、造形の材料の一例である。インクについては、例えば、インクジェットヘッドから吐出する液体等と考えることもできる。この場合、インクジェットヘッドとは、インクジェット方式で液体を吐出する吐出ヘッドのことである。 In this example, the modeling system 10 is a system for modeling a three-dimensional modeled object, and includes a modeling device 12 and a control PC 14. The modeling device 12 is a device that executes modeling of a modeled object, and uses ink as a modeling material, and by laminating layers of ink, the modeled object is modeled by a layered manufacturing method. In this case, the additive manufacturing method is, for example, a method of forming a modeled object by stacking a plurality of layers. The modeled object is, for example, a three-dimensional three-dimensional structure. The ink can be considered, for example, a functional liquid or the like. Further, in this example, the ink is an example of a modeling material. The ink can be considered, for example, a liquid discharged from the inkjet head. In this case, the inkjet head is an ejection head that ejects a liquid by an inkjet method.

また、本例において、造形装置12は、互いに異なる色の複数色のインクを用いて、着色された造形物を造形する。このような造形装置12としては、例えば、公知の造形装置を好適に用いることができる。より具体的に、造形装置12としては、例えば、ミマキエンジニアリング社製の造形装置(3Dプリンタ)等を好適に用いることができる。また、本例において、インクとしては、紫外線の照射により液体状態から硬化する紫外線硬化型のインク(UVインク)を用いる。 Further, in this example, the modeling apparatus 12 uses inks of a plurality of colors different from each other to model a colored modeled object. As such a modeling device 12, for example, a known modeling device can be preferably used. More specifically, as the modeling device 12, for example, a modeling device (3D printer) manufactured by Mimaki Engineering Co., Ltd. can be preferably used. Further, in this example, as the ink, an ultraviolet curable ink (UV ink) that is cured from a liquid state by irradiation with ultraviolet rays is used.

制御PC14は、所定のプログラムに応じて動作するコンピュータであり、造形しようとする造形物を示す造形データを造形装置12へ供給することにより、造形装置12の動作を制御する。また、より具体的に、本例において、制御PC14は、造形しようとする造形物の形状等を示す立体データに対し、所望の質感の設定等を行って、造形データを生成する。この場合、制御PC14は、造形物を示すコンピュータグラフィック画像(以下、CG画像という)を立体データに基づいて生成し、立体データを作成したデザイナ等のユーザに対してCG画像を示しつつ、質感の設定等を、ユーザから受け付ける。そして、設定された質感で造形装置12に造形物を造形させる造形データを生成する。また、本例において、制御PC14は、領域構成予測装置の一例である。制御PC14において造形データを生成する動作については、後に更に詳しく説明をする。 The control PC 14 is a computer that operates according to a predetermined program, and controls the operation of the modeling device 12 by supplying modeling data indicating a modeled object to be modeled to the modeling device 12. Further, more specifically, in this example, the control PC 14 sets a desired texture or the like for the three-dimensional data indicating the shape or the like of the modeled object to be modeled, and generates the modeling data. In this case, the control PC 14 generates a computer graphic image (hereinafter referred to as a CG image) showing a modeled object based on the three-dimensional data, and while showing the CG image to a user such as a designer who created the three-dimensional data, the texture is displayed. Accept settings etc. from the user. Then, the modeling data for causing the modeling device 12 to model the modeled object with the set texture is generated. Further, in this example, the control PC 14 is an example of the area configuration prediction device. The operation of generating modeling data in the control PC 14 will be described in more detail later.

続いて、造形装置12のより具体的な構成や造形装置12において造形する造形物の構成等について、更に詳しく説明をする。図1(b)は、造形装置12の要部の構成の一例を示す。以下に説明をする点を除き、造形装置12は、公知の造形装置と同一又は同様の特徴を有してよい。より具体的に、以下に説明をする点を除き、造形装置12は、インクジェットヘッドを用いて造形物50の材料となる液滴を吐出することで造形を行う公知の造形装置と同一又は同様の特徴を有してよい。また、造形装置12は、図示した構成以外にも、例えば、造形物50の造形等に必要な各種構成を更に備えてよい。 Subsequently, a more specific configuration of the modeling device 12, a configuration of a modeled object to be modeled by the modeling device 12, and the like will be described in more detail. FIG. 1B shows an example of the configuration of the main part of the modeling apparatus 12. Except as described below, the modeling apparatus 12 may have the same or similar characteristics as the known modeling apparatus. More specifically, except for the points described below, the modeling apparatus 12 is the same as or similar to a known modeling apparatus that performs modeling by ejecting droplets that are a material of the modeled object 50 using an inkjet head. May have features. In addition to the configurations shown in the figure, the modeling device 12 may further include various configurations necessary for modeling the modeled object 50, for example.

本例において、造形装置12は、積層造形法により立体的な造形物50を造形する造形装置(3Dプリンタ)であり、ヘッド部102、造形台104、走査駆動部106、及び制御部110を備える。ヘッド部102は、造形物50の材料を吐出する部分である。また、上記においても説明をしたように、本例において、造形物50の材料としては、紫外線硬化型のインクを用いる。この場合、紫外線硬化型のインクは、所定の条件に応じて硬化するインクの一例である。また、より具体的に、ヘッド部102は、造形物50の材料として、複数のインクジェットヘッドから、紫外線硬化型のインクを吐出する。そして、着弾後のインクを硬化させることにより、造形物50を構成する各層を重ねて形成する。また、ヘッド部102は、造形物50の材料に加え、サポート層52の材料を更に吐出する。これにより、ヘッド部102は、造形物50の周囲等に、必要に応じて、サポート層52を形成する。サポート層52とは、例えば、造形中の造形物50の少なくとも一部を支持する積層構造物のことである。サポート層52は、造形物50の造形時において、必要に応じて形成され、造形の完了後に除去される。 In this example, the modeling device 12 is a modeling device (3D printer) that models a three-dimensional modeled object 50 by a layered manufacturing method, and includes a head unit 102, a modeling table 104, a scanning drive unit 106, and a control unit 110. .. The head portion 102 is a portion for discharging the material of the modeled object 50. Further, as described above, in this example, an ultraviolet curable ink is used as the material of the modeled object 50. In this case, the ultraviolet curable ink is an example of an ink that is cured according to a predetermined condition. More specifically, the head portion 102 ejects ultraviolet curable ink from a plurality of inkjet heads as a material for the modeled object 50. Then, by curing the ink after landing, each layer constituting the modeled object 50 is formed in layers. Further, the head portion 102 further discharges the material of the support layer 52 in addition to the material of the modeled object 50. As a result, the head portion 102 forms a support layer 52 around the modeled object 50 and the like, if necessary. The support layer 52 is, for example, a laminated structure that supports at least a part of the modeled object 50 being modeled. The support layer 52 is formed as needed at the time of modeling the modeled object 50, and is removed after the modeling is completed.

造形台104は、造形中の造形物50を支持する台状部材であり、ヘッド部102におけるインクジェットヘッドと対向する位置に配設され、造形中の造形物50及びサポート層52を上面に載置する。また、本例において、造形台104は、少なくとも上面が積層方向(図中のZ方向)へ移動可能な構成を有しており、走査駆動部106に駆動されることにより、造形物50の造形の進行に合わせて、少なくとも上面を移動させる。この場合、積層方向については、例えば、積層造形法において造形の材料が積層される方向等と考えることができる。また、本例において、積層方向は、造形装置12において予め設定される主走査方向(図中のY方向)及び副走査方向(図中のX方向)と直交する方向である。 The modeling table 104 is a trapezoidal member that supports the modeling object 50 being modeled, is arranged at a position facing the inkjet head in the head portion 102, and the modeled object 50 and the support layer 52 being modeled are placed on the upper surface. do. Further, in this example, the modeling table 104 has a configuration in which at least the upper surface can be moved in the stacking direction (Z direction in the drawing), and is driven by the scanning drive unit 106 to model the modeled object 50. At least the upper surface is moved as the process progresses. In this case, the stacking direction can be considered, for example, the direction in which the modeling materials are laminated in the additive manufacturing method. Further, in this example, the stacking direction is a direction orthogonal to the main scanning direction (Y direction in the drawing) and the sub scanning direction (X direction in the drawing) set in advance in the modeling apparatus 12.

走査駆動部106は、造形中の造形物50に対して相対的に移動する走査動作をヘッド部102に行わせる駆動部である。この場合、造形中の造形物50に対して相対的に移動するとは、例えば、造形台104に対して相対的に移動することである。また、ヘッド部102に走査動作を行わせるとは、例えば、ヘッド部102が有するインクジェットヘッドに走査動作を行わせることである。また、本例において、走査駆動部106は、走査動作として、主走査動作(Y走査)、副走査動作(X走査)、及び積層方向走査動作(Z走査)をヘッド部102に行わせる。主走査動作とは、例えば、造形中の造形物50に対して相対的に主走査方向へ移動しつつインクを吐出する動作のことである。また、副走査動作とは、例えば、主走査方向と直交する副走査方向へ造形中の造形物50に対して相対的に移動する動作のことである。副走査動作については、例えば、予め設定された送り量だけ副走査方向へ造形台104に対して相対的に移動する動作等と考えることもできる。本例において、走査駆動部106は、主走査動作の合間に、ヘッド部102に副走査動作を行わせる。また、積層方向走査動作とは、例えば、造形中の造形物50に対して相対的に積層方向へヘッド部102を移動させる動作のことである。走査駆動部106は、例えば、造形の動作の進行に合わせてヘッド部102に積層方向走査動作を行わせることにより、積層方向において、造形中の造形物50に対するインクジェットヘッドの相対位置を調整する。 The scanning drive unit 106 is a drive unit that causes the head unit 102 to perform a scanning operation that moves relative to the modeled object 50 being modeled. In this case, moving relative to the modeled object 50 being modeled means, for example, moving relative to the modeling table 104. Further, having the head portion 102 perform the scanning operation means, for example, causing the inkjet head of the head portion 102 to perform the scanning operation. Further, in this example, the scanning drive unit 106 causes the head unit 102 to perform a main scanning operation (Y scanning), a sub-scanning operation (X scanning), and a stacking direction scanning operation (Z scanning) as scanning operations. The main scanning operation is, for example, an operation of ejecting ink while moving in the main scanning direction relative to the modeled object 50 being modeled. Further, the sub-scanning operation is, for example, an operation of moving relative to the modeled object 50 being modeled in the sub-scanning direction orthogonal to the main scanning direction. The sub-scanning operation can be considered, for example, an operation of moving relative to the modeling table 104 in the sub-scanning direction by a preset feed amount. In this example, the scanning drive unit 106 causes the head unit 102 to perform a sub-scanning operation between the main scanning operations. Further, the stacking direction scanning operation is, for example, an operation of moving the head portion 102 in the stacking direction relative to the modeled object 50 being modeled. For example, the scanning drive unit 106 adjusts the relative position of the inkjet head with respect to the modeled object 50 being modeled in the stacking direction by causing the head unit 102 to perform a stacking direction scanning operation in accordance with the progress of the modeling operation.

制御部110は、例えば造形装置12のCPUを含む構成であり、造形装置12の各部を制御することにより、造形装置12における造形の動作を制御する。より具体的に、制御部110は、例えば造形すべき造形物50の形状情報や、カラー情報等に基づき、造形装置12の各部を制御する。本例によれば、造形物50を適切に造形できる。 The control unit 110 is configured to include, for example, the CPU of the modeling device 12, and controls the modeling operation in the modeling device 12 by controlling each unit of the modeling device 12. More specifically, the control unit 110 controls each part of the modeling device 12 based on, for example, shape information of the modeled object 50 to be modeled, color information, and the like. According to this example, the modeled object 50 can be appropriately modeled.

また、本例において、造形装置12におけるヘッド部102は、例えば図1(c)に示す構成を有する。図1(c)は、ヘッド部102の構成の一例を示す。本例において、ヘッド部102は、複数のインクジェットヘッド、複数の紫外線光源124、及び平坦化ローラ126を有する。また、複数のインクジェットヘッドとして、図中に示すように、インクジェットヘッド122s、インクジェットヘッド122w、インクジェットヘッド122y、インクジェットヘッド122m、インクジェットヘッド122c、インクジェットヘッド122k、及びインクジェットヘッド122tを有する。これらの複数のインクジェットヘッドは、例えば、副走査方向における位置を揃えて、主走査方向へ並べて配設される。また、それぞれのインクジェットヘッドは、造形台104と対向する面に、所定のノズル列方向へ複数のノズルが並ぶノズル列を有する。本例において、ノズル列方向は、副走査方向と平行な方向である。 Further, in this example, the head portion 102 in the modeling apparatus 12 has, for example, the configuration shown in FIG. 1 (c). FIG. 1C shows an example of the configuration of the head portion 102. In this example, the head portion 102 has a plurality of inkjet heads, a plurality of ultraviolet light sources 124, and a flattening roller 126. Further, as a plurality of inkjet heads, as shown in the figure, there are an inkjet head 122s, an inkjet head 122w, an inkjet head 122y, an inkjet head 122m, an inkjet head 122c, an inkjet head 122k, and an inkjet head 122t. These plurality of inkjet heads are arranged side by side in the main scanning direction, for example, by aligning the positions in the sub-scanning direction. Further, each inkjet head has a nozzle row in which a plurality of nozzles are arranged in a predetermined nozzle row direction on a surface facing the modeling table 104. In this example, the nozzle row direction is a direction parallel to the sub-scanning direction.

また、これらのインクジェットヘッドのうち、インクジェットヘッド122sは、サポート層52の材料を吐出するインクジェットヘッドである。サポート層52の材料としては、例えば、サポート層用の公知の材料を好適に用いることができる。インクジェットヘッド122wは、白色(W色)のインクを吐出するインクジェットヘッドである。また、本例において、白色のインクは、光反射性のインクの一例であり、例えば造形物50において光を反射する性質の領域(光反射領域)を形成する場合に用いられる。この光反射領域は、例えば、造形物50表面に対してフルカラー表現での着色を行う場合に、造形物50の外部から入射する光を反射する。フルカラー表現については、例えば、プロセスカラーのインクによる減法混色法の可能な組み合わせで行う色の表現等と考えることができる。 Further, among these inkjet heads, the inkjet head 122s is an inkjet head that ejects the material of the support layer 52. As the material of the support layer 52, for example, a known material for the support layer can be preferably used. The inkjet head 122w is an inkjet head that ejects white (W color) ink. Further, in this example, the white ink is an example of a light-reflecting ink, and is used, for example, when forming a region having a property of reflecting light (light-reflecting region) in the modeled object 50. This light reflection region reflects light incident from the outside of the modeled object 50, for example, when the surface of the modeled object 50 is colored in full color expression. The full-color expression can be considered, for example, a color expression performed by a possible combination of the subtractive color mixing method using process color ink.

インクジェットヘッド122y、インクジェットヘッド122m、インクジェットヘッド122c、インクジェットヘッド122kは、着色された造形物50の造形時に用いられる着色用のインクジェットヘッドであり、着色に用いる複数色のインク(着色用のインク)のそれぞれのインクを吐出する。より具体的に、インクジェットヘッド122yは、イエロー色(Y色)のインクを吐出する。インクジェットヘッド122mは、マゼンタ色(M色)のインクを吐出する。インクジェットヘッド122cは、シアン色(C色)のインクを吐出する。また、インクジェットヘッド122kは、ブラック色(K色)のインクを吐出する。この場合、YMCKの各色は、フルカラー表現に用いるプロセスカラーの一例である。また、本例において、YMCKの各色のインクは、複数色の着色用の材料及び複数色の造形の材料の一例である。また、インクジェットヘッド122tは、クリアインクを吐出するインクジェットヘッドである。クリアインクとは、例えば、可視光に対して無色で透明(T)なインクのことである。 The inkjet head 122y, the inkjet head 122m, the inkjet head 122c, and the inkjet head 122k are coloring inkjet heads used when modeling the colored model 50, and are of a plurality of color inks (coloring inks) used for coloring. Each ink is ejected. More specifically, the inkjet head 122y ejects yellow (Y color) ink. The inkjet head 122m ejects magenta (M color) ink. The inkjet head 122c ejects cyan (C color) ink. Further, the inkjet head 122k ejects black (K color) ink. In this case, each color of YMCK is an example of a process color used for full-color expression. Further, in this example, the ink of each color of YMCK is an example of a material for coloring a plurality of colors and a material for modeling a plurality of colors. Further, the inkjet head 122t is an inkjet head that ejects clear ink. The clear ink is, for example, an ink that is colorless and transparent (T) with respect to visible light.

複数の紫外線光源124は、インクを硬化させるための光源(UV光源)であり、紫外線硬化型のインクを硬化させる紫外線を発生する。また、本例において、複数の紫外線光源124のそれぞれは、間にインクジェットヘッドの並びを挟むように、ヘッド部102における主走査方向の一端側及び他端側のそれぞれに配設される。紫外線光源124としては、例えば、UVLED(紫外LED)等を好適に用いることができる。また、紫外線光源124として、メタルハライドランプや水銀ランプ等を用いることも考えられる。平坦化ローラ126は、造形物50の造形中に形成されるインクの層を平坦化するための平坦化手段である。平坦化ローラ126は、例えば主走査動作時において、インクの層の表面と接触して、硬化前のインクの一部を除去することにより、インクの層を平坦化する。 The plurality of ultraviolet light sources 124 are light sources (UV light sources) for curing the ink, and generate ultraviolet rays for curing the ultraviolet curable ink. Further, in this example, each of the plurality of ultraviolet light sources 124 is arranged on one end side and the other end side of the head portion 102 in the main scanning direction so as to sandwich an array of inkjet heads between them. As the ultraviolet light source 124, for example, a UV LED (ultraviolet LED) or the like can be preferably used. It is also conceivable to use a metal halide lamp, a mercury lamp, or the like as the ultraviolet light source 124. The flattening roller 126 is a flattening means for flattening a layer of ink formed during modeling of the modeled object 50. The flattening roller 126 flattens the ink layer by contacting the surface of the ink layer and removing a part of the ink before curing, for example, during the main scanning operation.

以上のような構成のヘッド部102を用いることにより、例えば、造形物50を構成するインクの層を適切に形成できる。また、複数のインクの層を重ねて形成することにより、例えば、造形物50を適切に造形できる。また、ヘッド部102の具体的な構成については、上記において説明をした構成に限らず、様々に変形することもできる。例えば、ヘッド部102は、着色用のインクジェットヘッドとして、上記以外の色用のインクジェットヘッドを更に有してもよい。また、ヘッド部102における複数のインクジェットヘッドの並べ方についても、様々に変形可能である。例えば、一部のインクジェットヘッドについて、他のインクジェットヘッドと副走査方向における位置をずらしてもよい。 By using the head portion 102 having the above configuration, for example, the ink layer constituting the modeled object 50 can be appropriately formed. Further, by forming a plurality of layers of ink on top of each other, for example, the modeled object 50 can be appropriately modeled. Further, the specific configuration of the head portion 102 is not limited to the configuration described above, and can be variously modified. For example, the head portion 102 may further have an inkjet head for colors other than the above as an inkjet head for coloring. Further, the arrangement of the plurality of inkjet heads in the head portion 102 can be variously modified. For example, some inkjet heads may be displaced from other inkjet heads in the sub-scanning direction.

続いて、本例の造形装置12において造形する造形物50の構成の例について、説明をする。図2は、造形物50の構成について説明をする図である。図2(a)は、造形装置12において造形する造形物50の構成の一例を示す断面図である。図2(b)は、造形物50における着色領域154の構成の一例を示す。本例において、造形装置12は、表面の少なくとも一部が着色された造形物50を造形する。この場合、造形物50の表面については、例えば、造形物50の外部から色彩を視認できる領域等と考えることができる。また、上記においても説明をしたように、本例において、造形装置12は、積層造形法で造形物50の造形を行う。そして、この場合、造形装置12は、所定の厚さのインクの層を積層方向へ重ねることで、造形物50の造形を行う。より具体的に、この場合、造形装置12は、例えば、図中において造形単位層502として示すインクの層を重ねて形成することで、造形物50の造形を行う。 Subsequently, an example of the configuration of the modeled object 50 to be modeled by the modeling device 12 of this example will be described. FIG. 2 is a diagram illustrating the configuration of the modeled object 50. FIG. 2A is a cross-sectional view showing an example of the configuration of the modeled object 50 modeled by the modeling apparatus 12. FIG. 2B shows an example of the configuration of the colored region 154 in the modeled object 50. In this example, the modeling apparatus 12 models a modeled object 50 whose surface is colored at least partly. In this case, the surface of the modeled object 50 can be considered as, for example, a region where colors can be visually recognized from the outside of the modeled object 50. Further, as described above, in this example, the modeling apparatus 12 models the modeled object 50 by the additive manufacturing method. Then, in this case, the modeling apparatus 12 forms the modeled object 50 by stacking layers of ink having a predetermined thickness in the stacking direction. More specifically, in this case, the modeling apparatus 12 forms the modeled object 50 by, for example, forming the ink layers shown as the modeling unit layer 502 in the drawing in layers.

また、本例において、造形装置12は、例えば図中に示すように、内部領域152及び着色領域154を備える造形物50を造形する。内部領域152は、造形物50の内部を構成する領域であり、着色領域154により周囲を囲まれるように、造形物50の内部に形成される。また、本例において、内部領域152は、白色のインク等の光反射性のインクで形成されることで、光反射領域を兼ねた領域として形成される。造形物50の構成の変形例においては、内部領域152とは別に光反射領域を形成してもよい。この場合、内部領域152については、例えば、任意の色のインクで形成することができる。また、この場合、光反射領域は、例えば、内部領域152と着色領域154との間に形成される。 Further, in this example, as shown in the figure, for example, the modeling device 12 models a modeled object 50 having an internal area 152 and a colored area 154. The internal region 152 is a region constituting the interior of the modeled object 50, and is formed inside the modeled object 50 so as to be surrounded by the colored region 154. Further, in this example, the internal region 152 is formed as a region that also serves as a light-reflecting region by being formed of a light-reflecting ink such as white ink. In the modified example of the configuration of the modeled object 50, a light reflection region may be formed separately from the internal region 152. In this case, the internal region 152 can be formed with, for example, an ink of any color. Further, in this case, the light reflection region is formed between, for example, the internal region 152 and the colored region 154.

着色領域154は、造形物50において着色がされる領域であり、着色用の複数色のインクを用いて、造形物50の表面における法線方向での厚さ(外周面からの深さ)が一定になるように造形物50の表面に形成されることで、様々な色に着色がされた状態で形成される。また、本例において、造形装置12は、例えば、CMYKの各色及びクリアインクを用いて、造形物50における着色領域154を形成する。また、造形装置12は、着色用のインクとして、例えばW色のインク等を更に用いてもよい。 The colored region 154 is an region to be colored in the modeled object 50, and the thickness (depth from the outer peripheral surface) in the normal direction on the surface of the modeled object 50 is increased by using inks of a plurality of colors for coloring. By being formed on the surface of the modeled object 50 so as to be constant, it is formed in a state of being colored in various colors. Further, in this example, the modeling apparatus 12 forms a colored region 154 in the modeled object 50 by using, for example, each color of CMYK and clear ink. Further, the modeling apparatus 12 may further use, for example, W color ink as the coloring ink.

また、本例において、造形装置12は、図2(b)に示すように、複数の層状領域202が重なる構成の着色領域154を形成する。また、この場合において、造形装置12は、それぞれの層状領域202について、個別に様々な色での着色を行って形成する。また、複数の層状領域202について、造形物50の表面における法線方向と平行な方向において重なるように形成する。この場合、造形物50の表面における法線方向については、例えば、造形物50の表面の各位置において表面と直交する方向等と考えることができる。このように構成すれば、例えば、着色領域154において多様な質感を表現することができる。また、図2(b)では、それぞれの層状領域202の色の違いについて、図示の便宜上、網掛け模様を異ならせて示している。 Further, in this example, as shown in FIG. 2B, the modeling apparatus 12 forms a colored region 154 having a structure in which a plurality of layered regions 202 overlap each other. Further, in this case, the modeling apparatus 12 is formed by individually coloring each layered region 202 with various colors. Further, the plurality of layered regions 202 are formed so as to overlap each other in a direction parallel to the normal direction on the surface of the modeled object 50. In this case, the normal direction on the surface of the modeled object 50 can be considered as, for example, a direction orthogonal to the surface at each position on the surface of the modeled object 50. With this configuration, for example, various textures can be expressed in the colored region 154. Further, in FIG. 2B, the difference in color of each layered region 202 is shown with different shaded patterns for convenience of illustration.

ここで、本例において、着色領域154を構成する層状領域202については、例えば、厚さが略一定であり、かつ、法線方向と直交する方向へ広がる領域等と考えることができる。また、上記においても説明をしたように、本例において、造形装置12は、積層造形法で造形物50の造形を行う。この場合、積層造形法での積層方向における上面側や下面側では、積層造形法で積層するそれぞれのインクの層である造形単位層502について、着色領域154を構成するそれぞれの層状領域202としてそのまま用いることが考えられる。また、上面や下面に対して交差する造形物50の側面において、着色領域154は、法線方向における厚さが一定になるように、側面に沿って形成される。また、この場合、着色領域154の構成は、側面に沿った層状領域202が複数重なる構成になる。そして、この場合、層状領域202について、造形単位層502とは別の層状の領域等と考えることができる。また、層状領域202については、例えば、着色領域154において質感を表現するための層状の領域等と考えることもできる。また、着色領域154を構成するそれぞれの層状領域202については、予め設定された一定の厚さで形成することが好ましい。そのため、本例においては、層状領域202の色の違いによって層状領域202の厚さに差が生じないように、無色で透明なインクであるクリアインクを用いて、適宜インクの量の補填を行う。この場合、クリアインクを用いた補填については、例えば、それぞれの層状領域202の色の違いによって生じる有色のインクの使用量の差に対する補填等と考えることができる。 Here, in this example, the layered region 202 constituting the colored region 154 can be considered as, for example, a region having a substantially constant thickness and extending in a direction orthogonal to the normal direction. Further, as described above, in this example, the modeling apparatus 12 models the modeled object 50 by the additive manufacturing method. In this case, on the upper surface side and the lower surface side in the lamination direction in the additive manufacturing method, the modeling unit layer 502, which is a layer of each ink laminated by the additive manufacturing method, is used as it is as each layered region 202 constituting the colored region 154. It is conceivable to use it. Further, on the side surface of the modeled object 50 intersecting the upper surface and the lower surface, the colored region 154 is formed along the side surface so that the thickness in the normal direction is constant. Further, in this case, the structure of the colored region 154 is such that a plurality of layered regions 202 along the side surface are overlapped. Then, in this case, the layered region 202 can be considered as a layered region or the like different from the modeling unit layer 502. Further, the layered region 202 can be considered as, for example, a layered region for expressing the texture in the colored region 154. Further, it is preferable that each layered region 202 constituting the colored region 154 is formed with a predetermined constant thickness. Therefore, in this example, the amount of ink is appropriately supplemented by using clear ink, which is a colorless and transparent ink, so that the thickness of the layered region 202 does not differ due to the difference in color of the layered region 202. .. In this case, compensation using clear ink can be considered, for example, compensation for a difference in the amount of colored ink used due to a difference in color in each layered region 202.

また、上記においても説明をしたように、本例によれば、複数の層状領域202を重ねた構成の着色領域154を形成することで、着色領域154において多様な質感を表現することができる。この場合、質感として、例えば、透明感等を表現することが考えられる。また、透明感を表現することで、例えば、人間の肌の質感等を高い品質で再現する着色領域154を形成すること等が考えられる。また、この場合、例えば、図3を用いて以下において説明をする構成の着色領域154を形成すること等が考えられる。 Further, as described above, according to this example, by forming the colored region 154 having a structure in which a plurality of layered regions 202 are overlapped, various textures can be expressed in the colored region 154. In this case, it is conceivable to express, for example, a feeling of transparency as the texture. Further, by expressing the transparency, for example, it is conceivable to form a colored region 154 that reproduces the texture of human skin with high quality. Further, in this case, for example, it is conceivable to form a colored region 154 having a configuration described below with reference to FIG.

図3は、着色領域154を用いて表現する造形物の質感の一例を示す図であり、人間の肌の質感を表現する場合の着色領域154の構成の一例を示す。図3(a)は、人間の肌の構成を簡略化して示す断面図である。図中に示すように、人間の肌は、皮下組織の上に真皮及び表皮が重なる多層構造を有している。そこで、本例においては、例えば、肌の多層構造を模した領域構成(層構造)で層状領域202を重ねた着色領域154を用いることで、肌の質感を再現する。この場合、領域構成については、例えば、造形物の少なくとも一部の領域に対応する構成等と考えることができる。 FIG. 3 is a diagram showing an example of the texture of a modeled object expressed by using the colored region 154, and shows an example of the configuration of the colored region 154 when expressing the texture of human skin. FIG. 3A is a cross-sectional view showing the composition of human skin in a simplified manner. As shown in the figure, human skin has a multi-layered structure in which the dermis and epidermis are layered on the subcutaneous tissue. Therefore, in this example, for example, the texture of the skin is reproduced by using the colored region 154 in which the layered regions 202 are overlapped in the region configuration (layer structure) that imitates the multi-layered structure of the skin. In this case, the region configuration can be considered, for example, a configuration corresponding to at least a part of the region of the modeled object.

図3(b)は、肌の質感を表現する場合に用いる着色領域154の構成の一例を示す。この場合、着色領域154は、図中に示すように、真皮領域302、表皮領域304、及びクリア領域306を有する。真皮領域302は、人間の肌における真皮に対応する領域である。また、人間の肌において、真皮は、通常、皮下組織にある血管を流れる血液の影響等により、赤みを帯びた色になる。そのため、本例において、真皮領域302については、赤色系の色の層状領域202を重ねることで形成する。また、表皮領域304は、人間の肌における表皮に対応する領域である。この場合、表皮については、例えば、人間の肌の表面の色である肌色を示す領域と考えることができる。そのため、表皮領域304については、肌色系の色の層状領域202を重ねることで形成する。 FIG. 3B shows an example of the configuration of the colored region 154 used when expressing the texture of the skin. In this case, the colored region 154 has a dermis region 302, an epidermis region 304, and a clear region 306, as shown in the figure. The dermis region 302 is a region corresponding to the dermis in human skin. Further, in human skin, the dermis usually has a reddish color due to the influence of blood flowing through blood vessels in the subcutaneous tissue. Therefore, in this example, the dermis region 302 is formed by overlapping the layered regions 202 of the reddish color. The epidermis region 304 is a region corresponding to the epidermis in human skin. In this case, the epidermis can be considered as, for example, a region showing a skin color which is the surface color of human skin. Therefore, the epidermis region 304 is formed by overlapping the layered regions 202 of the skin color system.

また、人間の肌の質感においては、透明感が重要であると考えられる。そのため、本例においては、真皮領域302及び表皮領域304の上(外側)に、クリアインクで形成される領域であるクリア領域306を形成する。この場合、クリア領域306については、クリアインクのみで形成することが考えられる。また、求められる肌の質感によっては、クリア領域306について、例えば、微量の有色のインクを混ぜた状態で、主にクリアインクを用いて形成すること等も考えられる。また、この場合、真皮領域302、表皮領域304、及びクリア領域306のそれぞれを構成する層状領域202の層数や、それぞれの層状領域202の色を変化させることで、様々な質感を表現することができる。 In addition, transparency is considered to be important for the texture of human skin. Therefore, in this example, a clear region 306, which is a region formed by clear ink, is formed above (outside) the dermis region 302 and the epidermis region 304. In this case, it is conceivable that the clear region 306 is formed only with clear ink. Further, depending on the required texture of the skin, it is conceivable that the clear region 306 is formed, for example, in a state where a small amount of colored ink is mixed, mainly using clear ink. Further, in this case, various textures can be expressed by changing the number of layers of the layered region 202 constituting each of the dermis region 302, the epidermis region 304, and the clear region 306, and the color of each layered region 202. Can be done.

図3(c)は、着色領域154を構成する各領域の層数を異ならせた例を示す。図中において、左側の図は、真皮領域302を構成する層状領域202の層数を4とし、表皮領域304を構成する層状領域202の層数を2とし、クリア領域306を構成する層状領域202の層数を3とする場合の例を示す。また、右側の図は、真皮領域302を構成する層状領域202の層数を3とし、表皮領域304を構成する層状領域202の層数を5とし、クリア領域306を構成する層状領域202の層数を2とする場合の例を示す。本例によれば、例えば、各領域を構成する層状領域202の層数や色を変化させることで、様々な質感を表現することができる。また、求められる質感によっては、これらの領域のうちの一部を省略してもよい。 FIG. 3C shows an example in which the number of layers of each region constituting the colored region 154 is different. In the figure on the left side, the number of layers of the layered region 202 constituting the dermis region 302 is 4, the number of layers of the layered region 202 constituting the epidermis region 304 is 2, and the number of layers of the layered region 202 constituting the clear region 306 is 2. An example is shown in the case where the number of layers of is 3. Further, in the figure on the right side, the number of layers of the layered region 202 constituting the dermis region 302 is set to 3, the number of layers of the layered region 202 constituting the epidermis region 304 is set to 5, and the number of layers of the layered region 202 constituting the clear region 306 is set to 5. An example is shown when the number is 2. According to this example, various textures can be expressed by changing the number of layers and the color of the layered region 202 constituting each region, for example. Further, depending on the required texture, a part of these regions may be omitted.

ここで、着色領域154を構成する層状領域202の層数が多すぎる場合、それぞれの層状領域202において吸収される光の量が多くなることで、着色領域154の色が暗くなることが考えられる。そのため、着色領域154における層状領域202の合計については、10層以下程度にすることが好ましい。また、本例においては、着色領域154を構成する層状領域202の合計について、10層に固定している。そのため、いずれかの領域を構成する層状領域202の数が増加又は減少した場合、他のいずれかの領域を構成する層状領域202の数が減少又は増加することになる。このように構成すれば、例えば、着色領域154により表現する質感が変化した場合にも、着色領域154の厚みを一定に保つことができる。 Here, when the number of layers of the layered region 202 constituting the colored region 154 is too large, it is conceivable that the color of the colored region 154 becomes dark due to the increase in the amount of light absorbed in each layered region 202. .. Therefore, the total of the layered regions 202 in the colored region 154 is preferably about 10 layers or less. Further, in this example, the total of the layered regions 202 constituting the colored region 154 is fixed to 10 layers. Therefore, when the number of layered regions 202 constituting any of the regions increases or decreases, the number of layered regions 202 constituting any of the other regions decreases or increases. With this configuration, for example, the thickness of the colored region 154 can be kept constant even when the texture expressed by the colored region 154 changes.

また、真皮領域302を構成するそれぞれの層状領域202の色や、表皮領域304を構成するそれぞれの層状領域202の色については、予め用意された色群から選択することが考えられる。この場合、色群とは、例えば、複数の色を含む群のことである。また、本例において用いる色群については、例えば、造形装置12(図1参照)において表現可能な全ての色の一部の色のみを含む群等と考えることもできる。この場合、各領域に対応する色群として、互いに異なる組み合わせで色を含む色群を用いることが考えられる。より具体的に、例えば、真皮領域302を構成する層状領域202において用いる色を含む色群については、赤色系の複数の色を含む色群を用いることが考えられる。表皮領域304を構成する層状領域202において用いる色を含む色群としては、肌色系の複数の色を含む色群を用いることが考えられる。 Further, the color of each layered region 202 constituting the dermis region 302 and the color of each layered region 202 constituting the epidermis region 304 may be selected from a color group prepared in advance. In this case, the color group is, for example, a group including a plurality of colors. Further, the color group used in this example can be considered as, for example, a group including only a part of all the colors that can be expressed by the modeling apparatus 12 (see FIG. 1). In this case, it is conceivable to use color groups containing colors in different combinations as the color groups corresponding to each region. More specifically, for example, as for the color group including the color used in the layered region 202 constituting the dermis region 302, it is conceivable to use the color group including a plurality of reddish colors. As the color group including the color used in the layered region 202 constituting the epidermis region 304, it is conceivable to use a color group including a plurality of skin color systems.

このように、本例においては、様々な色で着色された層状領域202を重ねた構成の着色領域154を形成することで、様々な質感を表現することができる。しかし、この場合、複数の層状領域202が重なる領域構成について取り得る構成が多様になることで、どのような領域構成によりどのような質感が得られるかについて、予測が難しくなることが考えられる。また、その結果、例えば、求められる質感に対応する領域構成を探すことが難しくなること等が考えられる。 As described above, in this example, various textures can be expressed by forming the colored region 154 having a structure in which the layered regions 202 colored with various colors are overlapped. However, in this case, it is considered that it becomes difficult to predict what kind of texture can be obtained by what kind of region configuration due to the variety of possible configurations for the region configuration in which the plurality of layered regions 202 overlap. Further, as a result, for example, it may be difficult to find a region configuration corresponding to the required texture.

これに対し、本例においては、領域構成における層状領域202の重なり方に対応する重なり方でインクの層が重なる積層構成と質感との関係についての機械学習を予め行わせることで作成した学習済モデルを用いて、所望の質感に対応する積層構成の予測を行う。また、積層構成の予測結果に基づき、積層構成に対応する領域構成の予測を行う。また、この場合において、学習済モデルを生成するためのデータとして、コンピュータシミュレーションを行うことで取得したデータ(以下、シミュレーション取得データという)を用いる。そこで、以下、学習済モデルを用いて領域構成を予測する動作や、シミュレーション取得データを用いて学習済モデルを生成する動作等について、説明をする。 On the other hand, in this example, it has been learned by preliminarily performing machine learning on the relationship between the texture and the laminated structure in which the ink layers are overlapped in the overlapping manner corresponding to the overlapping method of the layered regions 202 in the region configuration. The model is used to predict the laminated configuration corresponding to the desired texture. In addition, based on the prediction result of the laminated configuration, the region configuration corresponding to the laminated configuration is predicted. Further, in this case, as the data for generating the trained model, the data acquired by performing the computer simulation (hereinafter referred to as the simulation acquisition data) is used. Therefore, the operation of predicting the region configuration using the trained model, the operation of generating the trained model using the simulation acquisition data, and the like will be described below.

図4は、学習済モデルを用いて領域構成を予測する動作について説明をする図である。本例においては、例えば、造形システム10における制御PC14において、領域構成の予測を行う。そして、この場合、例えば図4(a)に示す構成の制御PC14を用いることが考えられる。図4(a)は、制御PC14の構成の一例を示す。本例において、制御PC14は、表示部402、受付部404、通信I/F部406、及び制御部408を有する。また、上記においても説明をしたように、制御PC14としては、例えば、所定のプログラムに応じて動作するコンピュータを用いることが考えられる。この場合、コンピュータの各部について、制御PC14の各部として動作すると考えることができる。 FIG. 4 is a diagram illustrating an operation of predicting a region configuration using a trained model. In this example, for example, the control PC 14 in the modeling system 10 predicts the area configuration. Then, in this case, for example, it is conceivable to use the control PC 14 having the configuration shown in FIG. 4 (a). FIG. 4A shows an example of the configuration of the control PC 14. In this example, the control PC 14 has a display unit 402, a reception unit 404, a communication I / F unit 406, and a control unit 408. Further, as described above, as the control PC 14, for example, it is conceivable to use a computer that operates according to a predetermined program. In this case, it can be considered that each part of the computer operates as each part of the control PC 14.

表示部402は、文字や画像等を表示する表示装置である。表示部402としては、例えば、コンピュータのモニタ等を好適に用いることができる。また、本例において、表示部402は、例えば、造形装置12(図1参照)において造形しようとする造形物を示すCG画像等を表示する。受付部404は、ユーザの指示を受け付ける入力装置である。受付部404としては、例えば、コンピュータの入力装置(例えば、マウス、キーボード等)を好適に用いることができる。また、本例において、受付部404は、例えば、表示部402に表示しているCG画像に対し、質感を設定する指示をユーザから受け付ける。また、この場合、本例において、質感としては、透明感に対応する質感の設定を受け付ける。 The display unit 402 is a display device that displays characters, images, and the like. As the display unit 402, for example, a computer monitor or the like can be preferably used. Further, in this example, the display unit 402 displays, for example, a CG image or the like showing a modeled object to be modeled by the modeling device 12 (see FIG. 1). The reception unit 404 is an input device that receives a user's instruction. As the reception unit 404, for example, a computer input device (for example, a mouse, a keyboard, etc.) can be preferably used. Further, in this example, the reception unit 404 receives an instruction from the user to set the texture of the CG image displayed on the display unit 402, for example. Further, in this case, in this example, as the texture, the setting of the texture corresponding to the transparency is accepted.

通信I/F部406は、制御PC14の外部の装置との通信を行うためのインターフェース部である。通信I/F部406としては、例えば、コンピュータにおける通信インターフェース部等を好適に用いることができる。また、本例において、制御PC14は、通信I/F部406を介して、造形装置12や、他のコンピュータとの通信を行う。この場合、造形装置12との通信では、例えば、造形データの供給等を行うことが考えられる。また、他のコンピュータとの通信としては、例えば、学習済モデルを格納しているコンピュータとの間で通信を行うこと等が考えられる。この場合、制御PC14は、通信I/F部406を介して他のコンピュータと通信することにより、例えば、CG画像に設定された質感に対して学習済モデルを用いて予測を行った予測結果を他のコンピュータから取得する。このように構成すれば、制御PC14において、例えば、学習済モデルを用いた予測の動作を適切に行うことができる。また、この場合、学習済モデルを用いた予測の動作については、例えば、機械学習の結果を利用した予測の動作等と考えることもできる。また、制御PC14は、例えば、他のコンピュータと通信を行うことなく、図示を省略した制御PC14の記憶部等に記憶した学習済モデルを用いて、学習済モデルを用いた予測を行ってもよい。 The communication I / F unit 406 is an interface unit for communicating with an external device of the control PC 14. As the communication I / F unit 406, for example, a communication interface unit in a computer or the like can be preferably used. Further, in this example, the control PC 14 communicates with the modeling device 12 and other computers via the communication I / F unit 406. In this case, in communication with the modeling device 12, for example, it is conceivable to supply modeling data. Further, as the communication with other computers, for example, communication with a computer storing the trained model can be considered. In this case, the control PC 14 communicates with another computer via the communication I / F unit 406 to obtain a prediction result obtained by predicting, for example, the texture set in the CG image using the trained model. Get from another computer. With this configuration, the control PC 14 can appropriately perform a prediction operation using, for example, a trained model. Further, in this case, the prediction operation using the trained model can be considered as, for example, the prediction operation using the result of machine learning. Further, the control PC 14 may perform prediction using the trained model by using a trained model stored in a storage unit or the like of the control PC 14 (not shown) without communicating with another computer, for example. ..

制御部408は、制御PC14における各部の動作を制御する構成である。制御部408としては、例えば、コンピュータのCPU等を好適に用いることができる。また、本例において、制御PC14は、ユーザによりCG画像に対して設定される質感に基づき、造形データを生成する。この場合、制御部408は、例えば、学習済モデルを用いて行う予測の結果に基づき、ユーザにより指定される質感(所望の質感)に対応する造形物50の領域構成の予測を行う。そして、予測した領域構成に基づき、造形データを生成する。また、制御部408は、生成した造形データについて、通信I/F部406を介して、造形装置12へ供給(出力)する。このように構成すれば、例えば、所望の質感を再現する造形物の造形を造形装置12に適切に行わせることができる。 The control unit 408 is configured to control the operation of each unit in the control PC 14. As the control unit 408, for example, a computer CPU or the like can be preferably used. Further, in this example, the control PC 14 generates modeling data based on the texture set for the CG image by the user. In this case, the control unit 408 predicts the region configuration of the modeled object 50 corresponding to the texture (desired texture) specified by the user, for example, based on the result of the prediction performed using the trained model. Then, modeling data is generated based on the predicted area configuration. Further, the control unit 408 supplies (outputs) the generated modeling data to the modeling device 12 via the communication I / F unit 406. With this configuration, for example, the modeling device 12 can appropriately perform modeling of a modeled object that reproduces a desired texture.

また、制御PC14においては、例えば図4(b)に示す動作を行うことで、質感の設定をユーザから受け付けて、造形データを生成する。図4(b)は、制御PC14において造形データを生成する動作の一例を示すフローチャートである。本例において造形データを生成する動作において、制御PC14は、先ず、造形物を示すCG画像を表示部402に表示して、受付部404を介して、質感を指定する指示をユーザから受け付ける(S102)。また、これにより、制御PC14は、CG画像に対し、質感の設定を行う。CG画像に質感を設定するとは、例えば、CG画像が示すオブジェクトの少なくとも一部に対して質感を設定することであってよい。また、本例において、CG画像に対して設定する質感としては、上記においても説明をしたように、透明感に対応する質感を用いる。また、この場合、制御PC14は、例えば、造形物の形状を示す立体データに基づき、造形物を示すCG画像を作成して、表示部402に表示する。この場合、立体データとしては、例えば、造形しようとする造形物の形状等を汎用の形式で示すデータ等を好適に用いることができる。制御PC14の動作の変形例においては、例えば、制御PC14において質感の設定をユーザから受け付けるのではなく、予め質感が設定されたCG画像を制御PC14の外部から受け取ってもよい。 Further, in the control PC 14, for example, by performing the operation shown in FIG. 4B, the texture setting is received from the user and the modeling data is generated. FIG. 4B is a flowchart showing an example of an operation of generating modeling data in the control PC 14. In the operation of generating modeling data in this example, the control PC 14 first displays a CG image showing a modeled object on the display unit 402, and receives an instruction to specify the texture from the user via the reception unit 404 (S102). ). Further, as a result, the control PC 14 sets the texture of the CG image. Setting the texture on the CG image may mean, for example, setting the texture on at least a part of the objects shown by the CG image. Further, in this example, as the texture to be set for the CG image, as described above, the texture corresponding to the transparency is used. Further, in this case, the control PC 14 creates, for example, a CG image showing the modeled object based on the three-dimensional data indicating the shape of the modeled object, and displays it on the display unit 402. In this case, as the three-dimensional data, for example, data showing the shape of the modeled object to be modeled in a general-purpose format can be preferably used. In a modified example of the operation of the control PC 14, for example, instead of accepting the texture setting from the user in the control PC 14, a CG image in which the texture is set in advance may be received from the outside of the control PC 14.

また、ステップS102の動作に続いて、制御PC14は、質感が設定されたCG画像に基づき、CG画像に設定されている質感に対応するパラメータである設定パラメータの算出を行う(S104)。この場合、ステップS104の動作は、パラメータ算出段階の動作の一例である。また、ステップS104において、制御PC14は、例えば、CG画像に対して光を照射するシミュレーション(コンピュータシミュレーション)を行うことで、設定パラメータを算出する。また、より具体的に、本例において、質感に対応する設定パラメータとしては、光の広がり方を示す関数を用いる。パラメータとして所定の関数を用いることについては、例えば、所定の関数によって算出される値をパラメータとして用いること等と考えることができる。また、本例において、このような関数としては、線広がり関数(LSF)を用いる。 Further, following the operation of step S102, the control PC 14 calculates a setting parameter which is a parameter corresponding to the texture set in the CG image based on the CG image in which the texture is set (S104). In this case, the operation of step S104 is an example of the operation of the parameter calculation stage. Further, in step S104, the control PC 14 calculates the setting parameters by, for example, performing a simulation (computer simulation) of irradiating the CG image with light. More specifically, in this example, a function indicating how the light spreads is used as a setting parameter corresponding to the texture. Regarding using a predetermined function as a parameter, for example, it can be considered that a value calculated by the predetermined function is used as a parameter. Further, in this example, a line spreading function (LSF) is used as such a function.

また、この場合、設定パラメータを算出する動作については、例えば、ユーザにより指定される質感をCG画像に対して行った上で、質感に対応するLSFについて、シミュレーションによって取得する。また、より具体的に、この場合、例えば、質感が設定されているCG画像に対して光(例えば、レーザ光)を照射するシミュレーションを行うことで、質感に対応するLSFを取得する。また、このシミュレーションとしては、例えば、実際に作成した試料(パッチ)や造形物に対してLSFの計測を行う場合等と同様にして、線状の光を照射するシミュレーションを行うことが考えられる。また、実用上は、例えば、CG画像が示す物体の表面にスポットライトで点状の光を照射するシミュレーションを行うことでも、画素値の推移からLSFを適切に取得することができる。この場合、点状の光を照射するシミュレーションを行うことで点広がり関数(PSF)を算出し、点広がり関数に基づいてLSFを算出すること等が考えられる。 Further, in this case, as for the operation of calculating the setting parameter, for example, the texture specified by the user is performed on the CG image, and then the LSF corresponding to the texture is acquired by simulation. Further, more specifically, in this case, for example, by performing a simulation of irradiating a CG image in which a texture is set with light (for example, a laser beam), an LS F corresponding to the texture is acquired. Further, as this simulation, for example, it is conceivable to perform a simulation of irradiating linear light in the same manner as in the case of measuring LSF on a sample (patch) or a modeled object actually created. Further, in practical use, for example, the LSF can be appropriately acquired from the transition of the pixel value by performing a simulation of irradiating the surface of the object shown by the CG image with point-like light with a spotlight. In this case, it is conceivable to calculate the point spread function (PSF) by performing a simulation of irradiating point-shaped light, and to calculate the LSF based on the point spread function.

また、設定パラメータを算出した後、制御PC14は、予め作成された学習済モデルを用いて、設定パラメータに対応する積層構成(レイアウト)の取得を行う(S106)。この場合、積層構成については、例えば、着色された層状の領域が複数重なる構成等と考えることができる。また、この積層構成については、例えば、造形物50の着色領域154を構成する複数の層状領域202(図2参照)の重なり方を示すために学習済モデルの作成時に用いる構成等と考えることもできる。また、この積層構成については、例えば、造形時に積層するそれぞれの造形単位層502が着色領域154における1つの層状領域202に一致する場合における造形単位層502(図2参照)の重なり方に対応する構成等と考えることもできる。また、より具体的に、本例において、積層構成については、造形物50における着色領域154(図2参照)の領域構成に対応する重なり方でインクの層が重なる構成等と考えることができる。 Further, after calculating the setting parameters, the control PC 14 acquires the laminated configuration (layout) corresponding to the setting parameters using the trained model created in advance (S106). In this case, the laminated structure can be considered, for example, a structure in which a plurality of colored layered regions are overlapped. Further, this laminated structure may be considered as, for example, a structure used when creating a trained model in order to show how a plurality of layered regions 202 (see FIG. 2) constituting the colored region 154 of the modeled object 50 are overlapped. can. Further, regarding this laminated structure, for example, it corresponds to how the modeling unit layers 502 (see FIG. 2) are overlapped when each modeling unit layer 502 laminated at the time of modeling coincides with one layered region 202 in the colored region 154. It can also be thought of as a configuration. Further, more specifically, in this example, the laminated structure can be considered to be a structure in which the ink layers are overlapped in an overlapping manner corresponding to the area configuration of the colored region 154 (see FIG. 2) in the modeled object 50.

また、ステップS106の動作については、例えば、ステップS104において算出した設定パラメータを学習済モデルに対する入力として用いて、積層構成を示す出力を取得する動作等と考えることもできる。この場合、入力として設定パラメータを用いることについては、例えば、学習済モデルへ入力可能な形式で表現した設定パラメータを与えること等と考えることができる。このように構成すれば、例えば、CG画像に設定されている質感に対応する積層構成について、学習済モデルを利用して適切に取得することができる。また、これにより、例えば、所望の質感に対応する積層構成の予測を適切に行うことができる。 Further, the operation of step S106 can be considered as, for example, an operation of acquiring an output indicating the stacked configuration by using the setting parameters calculated in step S104 as inputs to the trained model. In this case, using the setting parameter as an input can be considered, for example, giving a setting parameter expressed in a format that can be input to the trained model. With this configuration, for example, the laminated configuration corresponding to the texture set in the CG image can be appropriately acquired by using the trained model. Further, as a result, for example, it is possible to appropriately predict the laminated structure corresponding to the desired texture.

また、本例において、制御PC14は、積層構成の予測結果に基づき、造形物50の着色領域154において複数の層状領域202が重なる領域構成の予測を行う。この場合、領域構成を予測することについては、例えば、ユーザの指定された質感を表現するための着色領域154の構成を予測すること等と考えることができる。また、上記においても説明をしたように、本例において、学習済モデルを用いて予測する積層構成については、造形物50における着色領域154の領域構成に対応する重なり方でインクの層が重なる構成等と考えることができる。そして、この場合、制御PC14は、領域構成として、積層構成におけるインクの層の重なり方に対応する重なり方で複数の層状領域202が重なる構成を予測する。このように構成すれば、例えば、領域構成の予測を適切に行うことができる。また、この場合、制御PC14について、例えば、領域構成予測装置として機能していると考えることができる。また、本例において、ステップS106の動作は、積層構成取得段階の動作の一例である。また、ステップS104〜S106において行う一連の動作は、領域構成予測段階の動作の一例である。この場合、領域構成予測段階とは、例えば、所望の質感に対応する領域構成を予測する段階のことである。また、領域構成予測段階については、例えば、学習済モデルを用いて質感に対応する積層構成を予測し、当該積層構成に基づき、所望の質感に対応する領域構成を予測する段階等と考えることもできる。また、本例においては、S102〜S106において行う一連の動作について、領域構成予測段階の動作の一例と考えることもできる。 Further, in this example, the control PC 14 predicts the region configuration in which the plurality of layered regions 202 overlap in the colored region 154 of the modeled object 50 based on the prediction result of the laminated configuration. In this case, predicting the region configuration can be considered, for example, predicting the configuration of the colored region 154 for expressing the texture specified by the user. Further, as described above, in this example, the laminated structure predicted by using the trained model has a structure in which the ink layers are overlapped in an overlapping manner corresponding to the area configuration of the colored region 154 in the modeled object 50. And so on. Then, in this case, as the region configuration, the control PC 14 predicts a configuration in which a plurality of layered regions 202 are overlapped in a stacking manner corresponding to the stacking style of the ink layers in the laminated configuration. With this configuration, for example, the region configuration can be appropriately predicted. Further, in this case, the control PC 14 can be considered to function as, for example, an area configuration prediction device. Further, in this example, the operation of step S106 is an example of the operation of the layered configuration acquisition stage. Further, the series of operations performed in steps S104 to S106 is an example of the operations in the area configuration prediction stage. In this case, the region configuration prediction stage is, for example, a stage of predicting the region configuration corresponding to a desired texture. Further, the region configuration prediction stage may be considered as, for example, a stage of predicting a laminated configuration corresponding to a texture using a trained model and predicting a region configuration corresponding to a desired texture based on the laminated configuration. can. Further, in this example, the series of operations performed in S102 to S106 can be considered as an example of the operations in the region configuration prediction stage.

また、ユーザにより指定される質感に対応する領域構成の予測を行った後、制御PC14は、予測結果に基づき、造形しようとする造形物を示す造形データを生成する(S108)。本例において、ステップS108の動作は、造形データ生成段階の動作の一例である。また、ステップS108において、制御PC14は、造形データとして、例えば、ステップS106で取得した領域構成で着色領域154が形成されるように造形装置12にインクの層を積層させるデータを生成する。本例によれば、例えば、所望の質感に対応する領域構成の予測を適切に行うことができる。また、領域構成の予測結果に基づいて造形データを生成することで、例えば、所望の質感が得られる造形物の造形を造形装置12に適切に行わせることができる。 Further, after predicting the region configuration corresponding to the texture specified by the user, the control PC 14 generates modeling data indicating the modeled object to be modeled based on the prediction result (S108). In this example, the operation of step S108 is an example of the operation of the modeling data generation stage. Further, in step S108, the control PC 14 generates modeling data, for example, data for laminating ink layers on the modeling apparatus 12 so that the colored region 154 is formed in the region configuration acquired in step S106. According to this example, for example, it is possible to appropriately predict the region configuration corresponding to the desired texture. Further, by generating modeling data based on the prediction result of the region configuration, for example, the modeling device 12 can appropriately perform modeling of a modeled object that can obtain a desired texture.

続いて、学習済モデルを生成する動作等について、説明をする。図5は、学習済モデルを生成する動作について説明をする図である。図5(a)は、学習済モデルを生成する動作の一例を示すフローチャートである。上記においても説明をしたように、本例においては、学習済モデルを生成するためのデータとして、シミュレーション(コンピュータシミュレーション)を行うことで取得したシミュレーション取得データを用いる。また、この場合、シミュレーションにおいては、造形装置12(図1参照)において造形に使用するインクの特性を示すパラメータを用いる。そして、本例においては、このインクの特性について、各色のインクに対応する試料であるインクサンプル(3Dプリンタインクサンプル)を作成し、インクサンプルに対して所定の計測を行うことで取得する。 Next, the operation of generating the trained model and the like will be described. FIG. 5 is a diagram illustrating an operation of generating a trained model. FIG. 5A is a flowchart showing an example of the operation of generating the trained model. As explained above, in this example, the simulation acquisition data acquired by performing the simulation (computer simulation) is used as the data for generating the trained model. Further, in this case, in the simulation, a parameter indicating the characteristics of the ink used for modeling in the modeling apparatus 12 (see FIG. 1) is used. Then, in this example, the characteristics of this ink are acquired by creating an ink sample (3D printer ink sample) which is a sample corresponding to the ink of each color and performing a predetermined measurement on the ink sample.

また、この場合、本例においては、先ず、造形装置12において用いる少なくとも一部の色のインクについてインクサンプルを作成し、インクサンプルに対する所定の計測を行うことで、インクの特性を取得する(S202)。より具体的に、本例において、ステップS202では、この計測の結果に基づき、インクの特性として、各色のインクの吸収係数及び散乱係数を決定する。また、この場合、インクの吸収係数及び散乱係数については、計測によって直接取得するのではなく、吸収係数及び散乱係数を反映した所定の状態を計測して、所定の算出処理を行うことで、取得する。 Further, in this case, in this example, first, an ink sample is prepared for ink of at least a part of the colors used in the modeling apparatus 12, and a predetermined measurement is performed on the ink sample to acquire the characteristics of the ink (S202). ). More specifically, in this example, in step S202, the absorption coefficient and the scattering coefficient of the ink of each color are determined as the characteristics of the ink based on the result of this measurement. Further, in this case, the absorption coefficient and the scattering coefficient of the ink are not directly acquired by measurement, but are acquired by measuring a predetermined state reflecting the absorption coefficient and the scattering coefficient and performing a predetermined calculation process. do.

そして、ステップS202に続いて、ステップS202において取得したインクの特性を利用して、シミュレーションを実行する(S204)。また、本例において、このシミュレーションでは、互いに異なる構成で着色された層状の領域が複数重なる複数種類の積層構成に対し、それぞれの積層構成により表現される質感の予測を行う。また、これにより、ステップS204では、積層構成と所定の質感との関係をシミュレーションにより予測する。 Then, following step S202, a simulation is executed using the characteristics of the ink acquired in step S202 (S204). Further, in this example, in this simulation, the texture expressed by each of the laminated configurations is predicted for a plurality of types of laminated configurations in which a plurality of layered regions colored with different configurations are overlapped. Further, in step S204, the relationship between the laminated structure and the predetermined texture is predicted by simulation.

また、本例において、ステップS204の動作は、質感予測段階の動作の一例である。ステップS204において、質感としては、例えば、透明感に対応する質感を用いることが考えられる。この場合、透明感については、例えば、複数の層状の領域が重なることで表現される透明感等と考えることができる。また、本例において、積層構成により表現される質感を示すパラメータとしては、光の広がり方を示す関数を用いる。より具体的に、このような関数としては、線広がり関数(LSF)を用いる。また、本例においては、ステップS204において行うシミュレーションで予測した質感に基づいて積層構成と質感との関係を示すデータについて、シミュレーション取得データと考えることができる。また、本例において、シミュレーションについては、例えば、指定した入力に対応する状態の予測をコンピュータでの演算により行うこと等と考えることができる。また、この場合、コンピュータでの演算について、例えば、入力に対応する出力を予め指定し規則に従って計算する動作等と考えることができる。また、この規則については、例えば、数式により記述される規則等と考えることができる。 Further, in this example, the operation of step S204 is an example of the operation of the texture prediction stage. In step S204, for example, it is conceivable to use a texture corresponding to the transparency as the texture. In this case, the transparency can be considered, for example, the transparency expressed by overlapping a plurality of layered regions. Further, in this example, a function indicating how the light spreads is used as a parameter indicating the texture expressed by the laminated structure. More specifically, as such a function, a line spread function (LSF) is used. Further, in this example, the data showing the relationship between the laminated configuration and the texture based on the texture predicted by the simulation performed in step S204 can be considered as the simulation acquisition data. Further, in this example, regarding the simulation, for example, it can be considered that the prediction of the state corresponding to the specified input is performed by the calculation by the computer. Further, in this case, the calculation on the computer can be considered as, for example, an operation in which the output corresponding to the input is specified in advance and the calculation is performed according to the rules. Further, this rule can be considered as, for example, a rule described by a mathematical formula.

また、ステップS204でシミュレーションを行った後には、その結果を利用してコンピュータに機械学習を行わせることで、学習済モデルを生成する(S206)。また、より具体的に、本例において、ステップS206では、複数種類の積層構成に対してステップS204において予測した質感に基づき、学習済モデルを機械学習により生成する。この場合、学習済モデルについて、例えば、積層構成と質感との関係とを学習させた学習モデル等と考えることができる。また、本例において、ステップS206の動作は、学習段階の動作の一例である。ステップS206において、機械学習としては、例えば、深層学習(ディープラーニング)等を好適に用いることができる。この場合、ステップS206について、例えば、学習対象のニューラルネットワークである学習対象ニューラルネットワークに学習を行わせる段階等と考えることができる。本例によれば、例えば、領域構成の予測に用いる学習済モデルを適切に作成することができる。 Further, after the simulation is performed in step S204, a trained model is generated by causing a computer to perform machine learning using the result (S206). More specifically, in this example, in step S206, a trained model is generated by machine learning based on the texture predicted in step S204 for a plurality of types of laminated configurations. In this case, the trained model can be considered as, for example, a learning model in which the relationship between the laminated structure and the texture is trained. Further, in this example, the operation of step S206 is an example of the operation of the learning stage. In step S206, for example, deep learning can be preferably used as the machine learning. In this case, step S206 can be considered, for example, a stage in which the learning target neural network, which is the learning target neural network, is made to perform learning. According to this example, for example, a trained model used for predicting the region configuration can be appropriately created.

続いて、図5(a)のフローチャートにおける各ステップの動作について、更に詳しく説明をする。図5(b)は、ステップS102の動作をより詳細に示すフローチャートである。上記においても説明をしたように、インクの特性の計測時には、造形装置12において用いる少なくとも一部の色のインクについてインクサンプルを作成する(S212)。また、本例においては、YMCKの各色のインク、及びクリアインクについて、インクサンプルを作成する。この場合、各色用のインクサンプルについて、例えば、計測対象の試料の一例と考えることができる。また、YMCKの各色のインクに対応するサンプルについては、例えば、着色用の材料に対応する試料の一例と考えることができる。また、本例において、ステップS212の動作は、各色試料作成段階の動作の一例である。各色試料作成段階については、例えば、それぞれの色の着色用の材料に対応する試料を作成する段階等と考えることができる。 Subsequently, the operation of each step in the flowchart of FIG. 5A will be described in more detail. FIG. 5B is a flowchart showing the operation of step S102 in more detail. As described above, when measuring the characteristics of the ink, an ink sample is prepared for the ink of at least a part of the colors used in the modeling apparatus 12 (S212). Further, in this example, ink samples are prepared for the inks of each color of YMCK and the clear inks. In this case, the ink sample for each color can be considered as an example of the sample to be measured, for example. Further, the sample corresponding to the ink of each color of YMCK can be considered as an example of the sample corresponding to the material for coloring, for example. Further, in this example, the operation of step S212 is an example of the operation of each color sample preparation stage. Each color sample preparation stage can be considered, for example, a stage of preparing a sample corresponding to a material for coloring each color.

また、インクサンプルを作成した後には、所定の計測を行うことで各色のインクの特性を取得し(S214)、その結果に基づき、各色のインクの吸収係数及び散乱係数を決定する(S216)。インクサンプルに対して行う計測や、吸収係数及び散乱係数の決定の仕方等については、後に更に詳しく説明をする。また、本例において、ステップS214及びS216において行う動作は、係数決定段階の動作の一例である。係数決定段階については、例えば、各色試料作成段階で作成した試料の光学的な特性を計測することで複数色の着色用の材料のそれぞれに対応する吸収係数及び散乱係数を決定する段階等と考えることができる。本例によれば、例えば、少数のインクサンプルに対する計測を行うことで、それぞれの色のインクに対応する吸収係数及び散乱係数を適切に決定することができる。 Further, after the ink sample is prepared, the characteristics of the ink of each color are acquired by performing a predetermined measurement (S214), and the absorption coefficient and the scattering coefficient of the ink of each color are determined based on the result (S216). The measurement performed on the ink sample and the method of determining the absorption coefficient and the scattering coefficient will be described in more detail later. Further, in this example, the operations performed in steps S214 and S216 are examples of operations in the coefficient determination stage. The coefficient determination stage is considered to be, for example, a stage of determining the absorption coefficient and the scattering coefficient corresponding to each of the materials for coloring of a plurality of colors by measuring the optical characteristics of the sample prepared in each color sample preparation stage. be able to. According to this example, for example, by performing measurement on a small number of ink samples, the absorption coefficient and the scattering coefficient corresponding to the inks of each color can be appropriately determined.

図6は、インクサンプルに対して行う計測等について更に詳しく説明をする図である。図6(a)は、インクサンプルの一例を示す写真であり、本願の発明者が実際に作成したインクサンプルの例を示す。図6(b)は、インクサンプルに対する計測時に撮影する写真の例を示す。図6(c)は、本例において用いるダイポールモデルを表す数式を示す。 FIG. 6 is a diagram for explaining in more detail the measurement and the like performed on the ink sample. FIG. 6A is a photograph showing an example of an ink sample, and shows an example of an ink sample actually created by the inventor of the present application. FIG. 6B shows an example of a photograph taken at the time of measurement with respect to the ink sample. FIG. 6C shows a mathematical formula representing the dipole model used in this example.

上記においても説明をしたように、本例においては、YMCKの各色のインク、及びクリアインクについて、インクサンプルを作成する。この場合、造形装置12(図1参照)において、それぞれの色のインクの層を複数重ねて形成することで、その色のインクサンプルを作成する。各色のインクサンプルについては、例えば、1つの色のインクの層を重ねた試料等と考えることもできる。また、インクサンプルとしては、上記以外の色用のサンプルを更に作成してもよい。この場合、例えば、白色用のインクサンプルを更に作成すること等が考えられる。 As described above, in this example, ink samples are prepared for each color of YMCK ink and clear ink. In this case, in the modeling apparatus 12 (see FIG. 1), an ink sample of that color is created by forming a plurality of layers of ink of each color in layers. The ink sample of each color can be considered as, for example, a sample in which layers of ink of one color are stacked. Further, as the ink sample, a sample for a color other than the above may be further prepared. In this case, for example, it is conceivable to further prepare an ink sample for white.

また、本例において、インクサンプルに対する計測としては、それぞれのインクサンプルの上面に対して点光源による光の照射を行って、インクサンプルの写真を撮影することで、光の散乱現状の計測を行う。また、より具体的に、この場合、点光源としては、レッド色(R色)、グリーン色(G色)、及びブルー色(B色)のレーザ光を用いる。そして、例えば、図6(b)に示すように、露光時間を1/1000秒、1/250秒、1/60秒、1/15秒、1/4秒、1秒、及び4秒のそれぞれに設定して、インクサンプルの写真の撮影を行う。レーザ光の光源としては、公知のスマートビームレーザプロジェクタ等を好適に用いることができる。また、撮影については、暗室にて、公知のデジタルカメラで行うことが考えられる。また、この場合、カメラのレンズの前に偏光板を装着して、表面反射成分の影響を低減することが好ましい。また、レーザ光の照射時には、画像中央部にのみ高い画素値を持つ画像をプロジェクタで投影し、かつ、例えばスリットで投影光を絞ることで、擬似的に点光源を再現することが考えられる。この場合、投影する画像の解像度については、プロジェクタの解像度に合わせることが考えられる。 Further, in this example, as the measurement for the ink sample, the current state of light scattering is measured by irradiating the upper surface of each ink sample with light by a point light source and taking a picture of the ink sample. .. More specifically, in this case, as the point light source, laser light of red color (R color), green color (G color), and blue color (B color) is used. Then, for example, as shown in FIG. 6B, the exposure times are 1/1000 second, 1/250 second, 1/60 second, 1/15 second, 1/4 second, 1 second, and 4 seconds, respectively. Set to to take a picture of the ink sample. As the light source of the laser light, a known smart beam laser projector or the like can be preferably used. Further, it is conceivable that the photographing is performed by a known digital camera in a dark room. Further, in this case, it is preferable to mount a polarizing plate in front of the lens of the camera to reduce the influence of the surface reflection component. Further, when irradiating the laser beam, it is conceivable to reproduce the point light source in a pseudo manner by projecting an image having a high pixel value only in the center of the image with a projector and, for example, narrowing the projected light with a slit. In this case, the resolution of the projected image may be adjusted to the resolution of the projector.

また、本例においては、このようにしてインクサンプルの写真を撮影する動作について、インクサンプルに対する計測を行う動作と考えることができる。そして、このようにしてインクサンプルに対する計測を行った後には、撮影された写真に基づき、各色のインクの吸収係数及び散乱係数を決定する。また、本例においては、撮影された写真が示すデータをダイポールモデルに当てはめることで、吸収係数及び散乱係数を決定する。より具体的に、例えば、図6(c)に示す数式で表現されるダイポールモデルにおいて、散乱項は、吸収係数及び散乱係数をパラメータとして持つ項と考えることができる。そして、この場合、散乱現象を計測した結果をダイポールモデルで近似することで、吸収係数及び散乱係数を推定することができる。この場合、吸収係数及び散乱係数を決定する動作について、例えば、ダイポールモデルを利用して吸収係数及び散乱係数を推定する動作等と考えることができる。また、この場合、例えば、非等方性パラメータや相対屈折率等の値を所定の値に固定して、ダイポールモデルへのフィッティングを行うことで、吸収係数及び散乱係数を決定することが考えられる。 Further, in this example, the operation of taking a picture of the ink sample in this way can be considered as an operation of measuring the ink sample. Then, after measuring the ink sample in this way, the absorption coefficient and the scattering coefficient of the ink of each color are determined based on the photograph taken. Further, in this example, the absorption coefficient and the scattering coefficient are determined by applying the data shown by the photograph taken to the dipole model. More specifically, for example, in the dipole model represented by the mathematical formula shown in FIG. 6 (c), the scattering term can be considered as a term having an absorption coefficient and a scattering coefficient as parameters. Then, in this case, the absorption coefficient and the scattering coefficient can be estimated by approximating the result of measuring the scattering phenomenon with a dipole model. In this case, the operation of determining the absorption coefficient and the scattering coefficient can be considered as, for example, an operation of estimating the absorption coefficient and the scattering coefficient using a dipole model. Further, in this case, for example, it is conceivable to determine the absorption coefficient and the scattering coefficient by fixing the values such as the anisotropic parameter and the relative refractive index to predetermined values and performing fitting to the dipole model. ..

また、ダイポールモデルへのフィッティング時には、必要に応じて、適宜補正を行ってもよい。このような補正としては、例えば、それぞれのインクサンプルの反射率を考慮した補正を行うことが考えられる。また、この場合、インクサンプルの反射率については、別途計測を行って取得することが考えられる。また、本例において、ダイポールモデルは、吸収係数及び散乱係数を用いてインクサンプルの特性を示すモデルの一例である。吸収係数及び散乱係数の決定の仕方の変形例においては、ダイポールモデル以外のモデルを用いてもよい。また、この場合、インクサンプルに対する計測について、使用するモデルに合わせた計測を行うことが考えられる。本例によれば、例えば、造形装置12において用いる各色のインクに対応する吸収係数及び散乱係数を適切に決定することができる。また、これにより、例えば、その後に行うシミュレーションにおいて、使用するインクの特性を反映したシミュレーションを適切に行うことができる。 Further, at the time of fitting to the dipole model, correction may be appropriately performed as necessary. As such a correction, for example, it is conceivable to perform a correction in consideration of the reflectance of each ink sample. Further, in this case, it is conceivable to separately measure and obtain the reflectance of the ink sample. Further, in this example, the dipole model is an example of a model showing the characteristics of the ink sample using the absorption coefficient and the scattering coefficient. A model other than the dipole model may be used in the modified example of the method of determining the absorption coefficient and the scattering coefficient. Further, in this case, it is conceivable to perform the measurement for the ink sample according to the model to be used. According to this example, for example, the absorption coefficient and the scattering coefficient corresponding to the inks of each color used in the modeling apparatus 12 can be appropriately determined. In addition, this makes it possible to appropriately perform a simulation that reflects the characteristics of the ink to be used, for example, in a subsequent simulation.

図7は、本例において行うシミュレーションについて更に詳しく説明をする図である。上記においても説明をしたように、本例においては、予め取得したインクの特性を利用して、シミュレーションを実行することで、質感の予測を行う。また、このシミュレーションでは、互いに異なる構成の複数種類の積層構成に対し、それぞれの積層構成により表現される質感の予測を行う。また、この場合、例えば図中に示すように、様々な色のインクの層が重ねられた積層構成を考え、それぞれの積層構成により得られる質感(積層構造により表現される質感)について、各色のインクの吸収係数及び散乱係数を用いて、コンピュータシミュレーションにより算出する。 FIG. 7 is a diagram for explaining the simulation performed in this example in more detail. As described above, in this example, the texture is predicted by executing a simulation using the characteristics of the ink acquired in advance. Further, in this simulation, the texture expressed by each laminated configuration is predicted for a plurality of types of laminated configurations having different configurations. Further, in this case, for example, as shown in the figure, a laminated structure in which ink layers of various colors are laminated is considered, and the texture obtained by each laminated structure (texture expressed by the laminated structure) is of each color. Calculated by computer simulation using the ink absorption coefficient and scattering coefficient.

また、本例において、積層構成としては、下地となる白色の層を最下層として、その上に所定の数の層が重なる構成を考える。また、この場合、最下層以外の各層の色として、造形装置12において使用する複数色のインクの組み合わせで表現可能な様々な色を用いる。この場合、積層構成における層の数については、造形物50の着色領域154(図2参照)を構成する層状領域202(図2参照)の数と同じにすることが考えられる。また、積層構成における各層の色については、予め用意された色群から選択することが考えられる。このような色群としては、層状領域202の色として用いる複数種類の色を含む色群を用いることが考えられる。より具体的に、図3等を用いて上記において説明をしたように、着色領域154としては、人間の肌の多層構造を模した領域構成で層状領域202を重ねた領域を用いることが考えられる。そして、この場合、図7に示す積層構成として、真皮領域302、表皮領域304、及びクリア領域306(図3参照)の各領域の層状領域202に対応する層が重なる構成を用いる。また、真皮領域302及び表皮領域304の層状領域202に対応する層の色について、真皮領域302用の色群及び表皮領域304用の色群に含まれる色から選択することが考えられる。 Further, in this example, as the laminated structure, a structure in which a white layer as a base is used as the lowermost layer and a predetermined number of layers are superposed on the white layer is considered. Further, in this case, as the color of each layer other than the bottom layer, various colors that can be expressed by the combination of the plurality of colors of ink used in the modeling apparatus 12 are used. In this case, the number of layers in the laminated structure may be the same as the number of layered regions 202 (see FIG. 2) constituting the colored region 154 (see FIG. 2) of the modeled object 50. Further, it is conceivable to select the color of each layer in the laminated structure from a color group prepared in advance. As such a color group, it is conceivable to use a color group including a plurality of types of colors used as the color of the layered region 202. More specifically, as described above with reference to FIG. 3 and the like, it is conceivable to use a region in which the layered regions 202 are overlapped with a region configuration imitating the multi-layered structure of human skin as the colored region 154. .. In this case, as the laminated structure shown in FIG. 7, a structure in which layers corresponding to the layered regions 202 of the dermis region 302, the epidermis region 304, and the clear region 306 (see FIG. 3) are overlapped is used. Further, it is conceivable to select the color of the layer corresponding to the layered region 202 of the dermis region 302 and the epidermis region 304 from the colors included in the color group for the dermis region 302 and the color group for the epidermis region 304.

また、造形物50の造形時に実際に着色領域154を形成する動作においては、各色のインクを吐出する吐出位置の割合を様々に変化させることで、それぞれの層状領域202の色について、面積的に表現を行う。しかし、本例において行うシミュレーションにおいて、このようにして面積的に色を表現しようとすると、必要な処理が複雑になると考えられる。そのため、本例において行うシミュレーションでの各層の色については、単位体積に含まれる各色のインクの比率により、体積的に表現する。 Further, in the operation of actually forming the colored region 154 at the time of modeling the modeled object 50, by variously changing the ratio of the ejection positions for ejecting the ink of each color, the color of each layered region 202 is area-wise. Make an expression. However, in the simulation performed in this example, if the color is to be expressed in terms of area in this way, the necessary processing is considered to be complicated. Therefore, the colors of each layer in the simulation performed in this example are expressed in volume by the ratio of the inks of each color contained in the unit volume.

また、本例において行うシミュレーションでは、各層の色が設定された積層構成に対し、各色のインクの吸収係数及び散乱係数を用いて、光散乱モンテカルロシミュレーション法(MCML法)により、その積層構成により得られる質感の予測を行う。光散乱モンテカルロシミュレーション法については、例えば、対象物質が多層混濁媒質である場合に輸送方程式の解を得るためのモンテカルロ法等と考えることができる。また、光散乱モンテカルロシミュレーション法においては、例えば図中に示すように、積層構成におけるそれぞれの層の中で入射光に対して生じる散乱及び吸収を確率的に計算して、反射光の予測を行う。積層構成に対する光散乱モンテカルロシミュレーション法の適用については、光散乱モンテカルロシミュレーション法の公知の利用の仕方と同一又は同様に行うことができる。 Further, in the simulation performed in this example, for a laminated structure in which the colors of each layer are set, the absorption coefficient and the scattering coefficient of the inks of each color are used, and the light scattering Monte Carlo simulation method (MCML method) is used to obtain the laminated structure. Predict the texture to be produced. The light scattering Monte Carlo simulation method can be considered, for example, the Monte Carlo method for obtaining a solution of the transport equation when the target substance is a multilayer turbid medium. Further, in the light scattering Monte Carlo simulation method, for example, as shown in the figure, the scattering and absorption generated for the incident light in each layer in the laminated structure are stochastically calculated to predict the reflected light. .. The application of the light scattering Monte Carlo simulation method to the laminated structure can be performed in the same manner as or in the same manner as the known usage of the light scattering Monte Carlo simulation method.

また、上記においても説明をしたように、本例においては、このシミュレーションにより予測する質感を示すパラメータとして、光の広がり方を示す関数を用いる。また、このような関数として、線広がり関数(LSF)を用いる。本例によれば、例えば、積層構成に対応する試料の作成や試料に対する計測等を行うことなく、様々な積層構成に対し、対応する質感の予測を適切に行うことができる。また、これにより、例えば、多数の積層構成について、積層構成と質感との関係を示すデータを容易かつ適切に取得することができる。 Further, as described above, in this example, a function indicating how the light spreads is used as a parameter indicating the texture predicted by this simulation. Further, as such a function, a line spread function (LSF) is used. According to this example, for example, it is possible to appropriately predict the corresponding texture for various laminated configurations without preparing a sample corresponding to the laminated configuration or measuring the sample. Further, as a result, for example, for a large number of laminated configurations, data showing the relationship between the laminated configurations and the texture can be easily and appropriately acquired.

続いて、本例において学習済モデルを生成する動作や、学習済モデルを利用する動作等について、更に詳しく説明をする。図8は、本例において実行する機械学習で利用する学習モデルの構成の一例を示す。図8(a)は、学習モデルとして用いる深層ニューラルネットワーク(DNN)の構成の一例を示す。図8(b)は、学習モデルに対する入力、出力、及び中間出力の例を示す。学習モデルについては、例えば、機械学習を行うことで変更されるパラメータを有するモデル等と考えることができる。また、学習済モデルについては、例えば、所定の学習を行わせることでパラメータの調整を行った後の学習モデル等と考えることができる。また、上記において説明をしたように、本例において、機械学習としては、深層学習を用いる。そして、学習モデルとしては、DNNを用いる。この場合、学習を行わせる学習モデルについて、学習対象ニューラルネットワークの一例と考えることができる。 Subsequently, in this example, the operation of generating the trained model, the operation of using the trained model, and the like will be described in more detail. FIG. 8 shows an example of the configuration of the learning model used in the machine learning executed in this example. FIG. 8A shows an example of the configuration of a deep neural network (DNN) used as a learning model. FIG. 8B shows examples of inputs, outputs, and intermediate outputs for the training model. The learning model can be considered, for example, a model having parameters that are changed by performing machine learning. Further, the trained model can be considered as, for example, a learning model after adjusting the parameters by performing predetermined learning. Further, as described above, in this example, deep learning is used as machine learning. Then, DNN is used as the learning model. In this case, the learning model for learning can be considered as an example of the training target neural network.

また、本例において、学習モデルとしては、図8(a)に示すように、エンコーダ部602及びデコーダ部604を有するニューラルネットワークを用いる。この場合、エンコーダ部602については、例えば、所定のパラメータを入力とし、入力とは異なる所定のパラメータを出力するニューラルネットワーク等と考えることができる。また、デコーダ部604については、例えば、エンコーダ部602が出力するパラメータを入力とし、エンコーダ部602の入力と同じパラメータを出力として出力するニューラルネットワーク等と考えることができる。また、この場合、本例において用いる学習モデルについて、例えば、エンコーダ部602とデコーダ部604とをつなげたニューラルネットワーク等と考えることもできる。エンコーダ部602及びデコーダ部604のそれぞれとしては、3層以上の多層のニューラルネットワークを用いることが考えられる。 Further, in this example, as a learning model, as shown in FIG. 8A, a neural network having an encoder unit 602 and a decoder unit 604 is used. In this case, the encoder unit 602 can be considered as, for example, a neural network or the like that takes a predetermined parameter as an input and outputs a predetermined parameter different from the input. Further, the decoder unit 604 can be considered as, for example, a neural network or the like in which the parameter output by the encoder unit 602 is used as an input and the same parameter as the input of the encoder unit 602 is output as an output. Further, in this case, the learning model used in this example can be considered as, for example, a neural network in which the encoder unit 602 and the decoder unit 604 are connected. As each of the encoder unit 602 and the decoder unit 604, it is conceivable to use a multi-layer neural network having three or more layers.

また、本例においては、エンコーダ部602への入力について、学習モデル(学習モデルの全体)に対する入力と考えることができる。エンコーダ部602の出力について、学習モデルにおける中間出力と考えることができる。また、デコーダ部604の出力について、学習モデルの出力と考えることができる。また、本例においては、学習モデルの入力及び出力として、図8(b)に示すように、線広がり関数(LSF)を用いる。この場合、図中に示すように、線広がり関数の値をR成分、G成分、及びB成分に分けて入力及び出力として用いることが考えられる。また、より具体的に、この場合、例えば、RGBの各成分を要素数100程度のベクトルで表して入力及び出力として用いることが考えられる。また、この場合、学習モデルの入力及び出力として用いるLSFについて、質感を示すパラメータの一例と考えることができる。 Further, in this example, the input to the encoder unit 602 can be considered as the input to the learning model (the entire learning model). The output of the encoder unit 602 can be considered as an intermediate output in the learning model. Further, the output of the decoder unit 604 can be considered as the output of the learning model. Further, in this example, as shown in FIG. 8B, a line spreading function (LSF) is used as an input and an output of the learning model. In this case, as shown in the figure, it is conceivable to divide the value of the line spreading function into an R component, a G component, and a B component and use them as inputs and outputs. More specifically, in this case, for example, it is conceivable that each component of RGB is represented by a vector having about 100 elements and used as an input and an output. Further, in this case, the LSF used as the input and output of the learning model can be considered as an example of the parameters indicating the texture.

また、本例において、学習モデルの中間出力となるエンコーダ部602の出力としては、積層構成(レイアウト)を示すパラメータを用いる。この場合、積層構成とは、図7を用いて説明をしたシミュレーションで質感の予測を用いるために用いた積層構成である。また、この場合、積層構成を示すパラメータとしては、積層構成で重ねられるそれぞれの層の色を示すパラメータを用いる。より具体的に、本例においては、積層構成で積層される層数を一定にして、それぞれの層の色を示す番号(色番号)により構成されるベクトルを用いて、積層構成を示す。この場合、色番号については、例えば、複数の色を含む色群を用意して、色群に含まれるそれぞれの色に番号を対応付けることが考えられる。また、図8(b)においては、図示の便宜上、それぞれの層の色の違いについて、網掛け模様を異ならせて図示をしている。 Further, in this example, as the output of the encoder unit 602 which is the intermediate output of the learning model, a parameter indicating the laminated configuration (layout) is used. In this case, the laminated configuration is the laminated configuration used to use the texture prediction in the simulation described with reference to FIG. 7. Further, in this case, as a parameter indicating the laminated structure, a parameter indicating the color of each layer stacked in the laminated structure is used. More specifically, in this example, the number of layers to be laminated in the laminated structure is fixed, and the laminated structure is shown by using a vector composed of numbers (color numbers) indicating the colors of the respective layers. In this case, regarding the color number, for example, it is conceivable to prepare a color group including a plurality of colors and associate the number with each color included in the color group. Further, in FIG. 8B, for convenience of illustration, the difference in color of each layer is illustrated with different shaded patterns.

また、積層構成での層の数については、例えば10層程度にすることが考えられる。また、また、本例において、色番号としては、それぞれの色に対応付けられる整数値を用いる。そのため、エンコーダ部602においては、出力される値が整数値に近い値になるように、出力の直前に、ソフト量子化層を設けている。ソフト量子化層については、例えば、微分可能な関数によって出力値を整数値に近づける構成等と考えることができる。ソフト量子化層としては、このような目的で用いられる公知の関数を好適に用いることができる。例えば、ソフト量子化層として、微分可能なように滑らかに変化する略階段状の関数を用いること等が考えられる。 Further, the number of layers in the laminated structure may be, for example, about 10 layers. Further, in this example, as the color number, an integer value associated with each color is used. Therefore, in the encoder unit 602, a soft quantization layer is provided immediately before the output so that the output value becomes a value close to an integer value. The soft quantization layer can be considered, for example, a configuration in which the output value is brought close to an integer value by a differentiable function. As the soft quantization layer, a known function used for such a purpose can be preferably used. For example, as a soft quantization layer, it is conceivable to use a substantially stepped function that changes smoothly so as to be differentiable.

また、本例においては、このような学習モデルに対し、上記においても説明をしたように、図7等を用いて説明をしたシミュレーションにより取得されるシミュレーション取得データを用いて、機械学習を行わせる。図9は、本例において行う機械学習について説明をする図である。図9(a)は、学習モデルに学習を行わせる動作の一例を示すフローチャートである。本例において、学習モデルに学習を行わせる場合、先にデコーダ部604に学習を行わせ、その後に、学習モデルの全体に学習を行わせる。 Further, in this example, as described above, such a learning model is subjected to machine learning using the simulation acquisition data acquired by the simulation described with reference to FIG. 7 and the like. .. FIG. 9 is a diagram illustrating machine learning performed in this example. FIG. 9A is a flowchart showing an example of an operation of causing the learning model to perform learning. In this example, when the learning model is trained, the decoder unit 604 is trained first, and then the entire learning model is trained.

より具体的に、この場合、先ず、シミュレーション取得データを用いて、積層構成と質感との関係の学習をデコーダ部604に行わせることでデコーダ部604における重みを決定する(S302)。この場合、積層構成と質感との関係の学習をデコーダ部604に行わせることについては、例えば、様々な積層構成に対してシミュレーションによって計算された質感に基づき、積層構成と質感との対応関係を再現するようにデコーダ部604の重みを調整すること等と考えることができる。また、エンコーダ部602及びデコーダ部604のようなニューラルネットワークにおける重みとは、ニューラルネットワークを構成するニューロン間に設定される重みのことである。また、デコーダ部604に学習を行わせる動作については、例えば、図8(a)に示す学習モデルの全体における中間出力と出力との関係がシミュレーション取得データを反映させるように学習モデルに学習を行わせる動作等と考えることもできる。また、本例において、ステップS302の動作は、デコーダ部学習段階の一例である。 More specifically, in this case, first, the weight in the decoder unit 604 is determined by having the decoder unit 604 learn the relationship between the laminated configuration and the texture using the simulation acquisition data (S302). In this case, regarding having the decoder unit 604 learn the relationship between the laminated configuration and the texture, for example, the correspondence between the laminated configuration and the texture is determined based on the texture calculated by simulation for various laminated configurations. It can be considered that the weight of the decoder unit 604 is adjusted so as to reproduce it. Further, the weight in the neural network such as the encoder unit 602 and the decoder unit 604 is a weight set between the neurons constituting the neural network. Regarding the operation of causing the decoder unit 604 to perform learning, for example, the learning model is trained so that the relationship between the intermediate output and the output in the entire learning model shown in FIG. 8A reflects the simulation acquisition data. It can also be thought of as an action to make it. Further, in this example, the operation of step S302 is an example of the decoder unit learning stage.

また、デコーダ部604に対して学習を行わせた後には、エンコーダ部602とデコーダ部604とを結合して(S304)、積層構成と質感との関係の学習を学習モデルの全体に行わせる(S306)。より具体的に、本例において、ステップS306では、ステップS302で決定したデコーダ部604における重みを固定して、学習モデルの全体に学習を行わせる。また、この場合において、エンコーダ部602への入力とデコーダ部604からの出力とが同じになるように、エンコーダ部602における重みの調整を行う。 Further, after the decoder unit 604 is trained, the encoder unit 602 and the decoder unit 604 are combined (S304), and the learning of the relationship between the laminated structure and the texture is performed on the entire learning model (S304). S306). More specifically, in this example, in step S306, the weight in the decoder unit 604 determined in step S302 is fixed, and the entire learning model is trained. Further, in this case, the weight in the encoder unit 602 is adjusted so that the input to the encoder unit 602 and the output from the decoder unit 604 are the same.

このように構成すれば、例えば、デコーダ部604に学習させた積層構成と質感との関係を保持しつつ、シミュレーション取得データが示す積層構成と質感との関係を反映するように、エンコーダ部602における重みの調整を行うことができる。また、これにより、例えば、学習モデルの全体に対し、シミュレーション取得データに基づく学習を適切に行わせることができる。また、本例において、ステップS306の動作は、全体学習段階の動作の一例である。また、この場合、このようにして学習を行わせた学習モデルについて、積層構成の予測時に用いる学習済モデルと考えることができる。 With this configuration, for example, the encoder unit 602 will reflect the relationship between the laminated configuration and the texture indicated by the simulation acquisition data while maintaining the relationship between the laminated configuration and the texture learned by the decoder unit 604. The weight can be adjusted. Further, as a result, for example, the entire learning model can be appropriately trained based on the simulation acquisition data. Further, in this example, the operation of step S306 is an example of the operation of the whole learning stage. Further, in this case, the learning model trained in this way can be considered as a trained model used when predicting the layered configuration.

ここで、上記においても説明をしたように、本例においては、積層構成を示すパラメータについて、学習モデルにおける中間出力として用いている。そのため、積層構成の予測時には、積層構成を示す値として、この中間出力を用いることが考えられる。このように構成すれば、例えば、所望の質感に対応する積層構成の予測を適切に行うことができる。また、この中間出力は、学習モデルにおけるエンコーダ部602の出力になっている。そのため、積層構成の予測時には、学習済のエンコーダ部602を学習済モデルとして使用してもよい。この場合も、学習済モデルの作成時には、エンコーダ部602及びデコーダ部604を有するニューラルネットワークを学習対象ニューラルネットワークとして用いることが好ましい。このように構成した場合も、例えば、所望の質感に対応する積層構成の予測を適切に行うことができる。 Here, as described above, in this example, the parameter indicating the laminated structure is used as an intermediate output in the learning model. Therefore, when predicting the laminated structure, it is conceivable to use this intermediate output as a value indicating the laminated structure. With such a configuration, for example, it is possible to appropriately predict the laminated configuration corresponding to a desired texture. Further, this intermediate output is the output of the encoder unit 602 in the learning model. Therefore, the trained encoder unit 602 may be used as the trained model when predicting the laminated configuration. Also in this case, when creating the trained model, it is preferable to use the neural network having the encoder unit 602 and the decoder unit 604 as the training target neural network. Even in such a configuration, for example, it is possible to appropriately predict the laminated configuration corresponding to the desired texture.

尚、学習済のエンコーダ部602を学習済モデルとして使用する場合、わざわざデコーダ部604を用いずに、エンコーダ部602のみに対し、シミュレーション取得データに基づく学習を行わせればよいようにも思われる。しかし、デコーダ部604を用いずに、シミュレーション取得データに基づく学習をエンコーダ部602に直接行わせる場合、学習が完了するまでの時間がより多くかかることが考えられる。また、例えば、必要なシミュレーション取得データの数が大幅に増大すること等も考えられる。また、この場合、シミュレーション取得データの数を大幅に増やしたとしても、適切に学習が完了しなくなるおそれもある。これに対し、本例によれば、例えば、先にデコーダ部604の重みを設定して、その後にエンコーダ部602の重みを調整することで、エンコーダ部602の学習を効率的かつ適切に行わせることができる。 When the trained encoder unit 602 is used as the trained model, it seems that it is sufficient to train only the encoder unit 602 based on the simulation acquisition data without using the decoder unit 604. However, when learning based on the simulation acquisition data is directly performed by the encoder unit 602 without using the decoder unit 604, it is conceivable that it takes more time to complete the learning. Further, for example, it is conceivable that the number of required simulation acquisition data will increase significantly. Further, in this case, even if the number of simulation acquisition data is significantly increased, the learning may not be completed properly. On the other hand, according to this example, for example, by setting the weight of the decoder unit 604 first and then adjusting the weight of the encoder unit 602, the encoder unit 602 can be learned efficiently and appropriately. be able to.

また、本願の発明者は、実際に、積層構成(レイアウト)と質感(LSF)との関係について、1413組のデータをシミュレーション取得データとして準備して、デコーダ部604及び学習モデルの全体に対し、学習を行わせた。また、この場合において、8割のデータを学習データとして用い、2割のデータをテストデータとして用いた。図9(b)は、デコーダ部604の学習曲線の一例を示す。図9(c)は、エンコーダ部602の学習曲線の一例を示す。図9(b)、(c)において、横軸は、エポック数である。縦軸は、損失関数の出力結果を示す。また、この場合、エンコーダ部602の学習曲線については、例えば、エンコーダ部602とデコーダ部604とを結合した学習モデル全体の学習曲線等と考えることもできる。 Further, the inventor of the present application actually prepares 1413 sets of data as simulation acquisition data regarding the relationship between the laminated configuration (layout) and the texture (LSF), and applies the decoder unit 604 and the entire learning model to the whole. I was made to learn. In this case, 80% of the data was used as training data, and 20% of the data was used as test data. FIG. 9B shows an example of the learning curve of the decoder unit 604. FIG. 9C shows an example of the learning curve of the encoder unit 602. In FIGS. 9B and 9C, the horizontal axis is the number of epochs. The vertical axis shows the output result of the loss function. Further, in this case, the learning curve of the encoder unit 602 can be considered as, for example, the learning curve of the entire learning model in which the encoder unit 602 and the decoder unit 604 are combined.

図示した学習曲線等から理解できるように、デコーダ部604においては、早々に学習が収束していることがわかる。また、エンコーダ部602においても、エポック数が20に差し掛かるあたりで収束していることがわかる。更に、エンコーダ部602及びデコーダ部604の両方において、バリデーションデータに対しも十分に高い精度での推定ができていることがわかる。また、先に分割しておいたテストデータに対するロス値は、0.1460であり、未知のデータに対しても学習データと同程度の精度で推定を行うことが可能であった。また、エンコーダ部602に学習が収束した時点でのロス値も十分に小さく、積層構成の予測を適切に行えていることが確認できた。 As can be understood from the illustrated learning curve and the like, in the decoder unit 604, it can be seen that the learning has converged at an early stage. Further, it can be seen that the encoder unit 602 also converges when the number of epochs approaches 20. Further, it can be seen that both the encoder unit 602 and the decoder unit 604 can estimate the validation data with sufficiently high accuracy. Further, the loss value for the test data divided earlier was 0.1460, and it was possible to estimate the unknown data with the same accuracy as the training data. Further, it was confirmed that the loss value at the time when the learning converged on the encoder unit 602 was sufficiently small, and that the stacking configuration could be predicted appropriately.

このように、本例によれば、例えば、積層構成と質感との関係を適切に学習させた学習済モデルを適切に生成することができる。また、このような学習済モデルを用いることで、例えば、透明感等の質感について、所望の質感に対応する積層構成の予測等を適切に行うことができる。また、上記においても説明をしたように、本例においては、シミュレーションにより取得するシミュレーション取得データを用いて、学習済モデルを生成する。そして、この場合、例えば、実際に多数の試料を作成することや多数の試料に対する計測等を行うことなく、学習に必要な多数のデータを適切に準備することができる。また、これにより、例えば、学習済モデルを生成するために要する手間や時間等を適切に低減することができる。 As described above, according to this example, for example, a trained model in which the relationship between the laminated structure and the texture is appropriately trained can be appropriately generated. Further, by using such a trained model, for example, with respect to a texture such as transparency, it is possible to appropriately predict a laminated structure corresponding to a desired texture. Further, as described above, in this example, the trained model is generated by using the simulation acquisition data acquired by the simulation. Then, in this case, for example, a large number of data necessary for learning can be appropriately prepared without actually preparing a large number of samples or performing measurement on a large number of samples. Further, as a result, for example, the time and effort required to generate the trained model can be appropriately reduced.

また、上記においては、主に、学習データとしてシミュレーション取得データのみを用いて学習済モデルを生成する動作の例について、説明をした。しかし、学習済モデルを生成する動作の変形例においては、シミュレーション取得データ以外のデータを更に用いて、学習済モデルを生成してもよい。例えば、所望の質感に対応する積層構成の予測をより高い精度で行おうとする場合等において、実際に試料(パッチ)を作成して計測を行うことで取得されたデータ(以下、計測取得データという)を更に用いること等も考えられる。この場合、例えば、様々な積層構成に対応する試料を実際に作成して、透明感等の質感(注目する質感)に対応する計測を試料に対して行うことで、計測取得データを取得する。そして、シミュレーション取得データ及び計測取得データを用いて学習モデルに学習を行わせることで、学習済モデルを生成する。このように構成した場合も、シミュレーション取得データを用いることで、例えば計測取得データのみを用いて学習済モデルを生成する場合等と比べ、必要な試料の数を大幅に削減することができる。 Further, in the above, an example of an operation of generating a trained model using only simulation acquisition data as training data has been mainly described. However, in the modified example of the operation of generating the trained model, the trained model may be generated by further using the data other than the simulation acquisition data. For example, in the case of predicting a laminated structure corresponding to a desired texture with higher accuracy, data acquired by actually creating a sample (patch) and performing measurement (hereinafter referred to as measurement acquisition data). ) Can be further used. In this case, for example, measurement acquisition data is acquired by actually creating a sample corresponding to various laminated configurations and performing measurement on the sample corresponding to a texture such as transparency (texture of interest). Then, the trained model is generated by training the learning model using the simulation acquisition data and the measurement acquisition data. Even in this configuration, by using the simulation acquisition data, the number of required samples can be significantly reduced as compared with the case where a trained model is generated using only the measurement acquisition data, for example.

また、計測取得データについては、例えば、造形装置等を用いて作成した試料に対して光学的な特性を計測することで取得される積層構成と質感との関係を示すデータ等と考えることができる。また、学習モデルの作成時には、例えば、シミュレーション取得データと計測取得データとを区別せずに用いて、学習済モデルを生成することが考えられる。この場合、シミュレーション取得データと計測取得データとを区別せずに用いることについては、例えば、学習済モデルを生成するための学習時において、それぞれのデータがシミュレーション取得データ及び計測取得データのいずれであるかによって扱い方を変えずに、同じように扱うことである。また、このような動作については、例えば、計測取得データを追加することで学習に用いるデータの数を増やす動作等と考えることもできる。このように構成すれば、例えば、容易かつ適切にシミュレーション取得データ及び計測取得データを用いることができる。 Further, the measurement acquisition data can be considered as, for example, data showing the relationship between the laminated structure and the texture acquired by measuring the optical characteristics of the sample prepared by using a modeling apparatus or the like. .. Further, when creating a learning model, for example, it is conceivable to generate a trained model by using the simulation acquisition data and the measurement acquisition data without distinguishing them. In this case, regarding the use of the simulation acquisition data and the measurement acquisition data without distinction, for example, at the time of learning to generate the trained model, each data is either the simulation acquisition data or the measurement acquisition data. It is treated in the same way without changing the way of handling. Further, such an operation can be considered as, for example, an operation of increasing the number of data used for learning by adding measurement acquisition data. With this configuration, for example, simulation acquisition data and measurement acquisition data can be used easily and appropriately.

尚、機械学習として深層学習を用いる場合において、シミュレーション取得データと計測取得データとの間でデータの傾向の差が大きい場合、両者を区別せずに用いると、データ全体でのデータの傾向が薄まることで、学習の精度が低下する場合もある。そのため、シミュレーション取得データと計測取得データとの間でデータの傾向の差が大きい場合には、計測取得データを用いずに、シミュレーション取得データのみを用いて学習済モデルを生成することが好ましい。これに対しシミュレーション取得データと計測取得データとの間でデータの傾向の差が小さい場合には、上記のようにシミュレーション取得データ及び計測取得データを用いることで、例えば、高い精度での学習を適切に行うことができる。また、これにより、例えば、高い精度で質感と積層構成との関係を予測できる学習済モデルを適切に生成することができる。 When deep learning is used as machine learning, if there is a large difference in data tendency between simulation acquisition data and measurement acquisition data, if the two are used without distinction, the data tendency in the entire data will be diminished. As a result, the accuracy of learning may decrease. Therefore, when the difference in data tendency between the simulation acquisition data and the measurement acquisition data is large, it is preferable to generate the trained model using only the simulation acquisition data without using the measurement acquisition data. On the other hand, when the difference in data tendency between the simulation acquisition data and the measurement acquisition data is small, by using the simulation acquisition data and the measurement acquisition data as described above, for example, learning with high accuracy is appropriate. Can be done. Further, as a result, for example, a trained model capable of predicting the relationship between the texture and the laminated structure with high accuracy can be appropriately generated.

シミュレーション取得データ及び計測取得データを用いる場合、シミュレーション取得データ及び計測取得データについて、それぞれの特徴を活かすように、異なる用い方で用いることが考えられる。この場合、シミュレーション取得データについては、例えば、多数のデータをより容易に作成できるデータ等と考えることができる。また、計測取得データについては、例えば、質感と積層構成との関係をより高い精度で示しているデータ等と考えることができる。そして、この場合、例えば図10に示すように、シミュレーション取得データ及び計測取得データを用いることが考えられる。図10は、シミュレーション取得データ及び計測取得データを用い方の変形例について説明をする図である。図10(a)は、シミュレーション取得データ及び計測取得データを用いて学習済モデルを生成する動作の変形例を示すフローチャートである。 When the simulation acquisition data and the measurement acquisition data are used, it is conceivable to use the simulation acquisition data and the measurement acquisition data in different ways so as to make the best use of their respective characteristics. In this case, the simulation acquisition data can be considered as, for example, data that can more easily create a large number of data. Further, the measurement acquisition data can be considered as, for example, data showing the relationship between the texture and the laminated structure with higher accuracy. Then, in this case, for example, as shown in FIG. 10, it is conceivable to use the simulation acquisition data and the measurement acquisition data. FIG. 10 is a diagram illustrating a modified example of how to use the simulation acquisition data and the measurement acquisition data. FIG. 10A is a flowchart showing a modified example of the operation of generating a trained model using the simulation acquisition data and the measurement acquisition data.

本変形例においては、最初にシミュレーション取得データを用いた学習(初期学習)を行わせて学習を進めた学習モデルを生成し(S402)、その学習モデルに対して計測取得データを用いた学習(追加学習)を行わせる(S404)。このような動作については、例えば、シミュレーション取得データを反映した学習モデルに対する調整を計測取得データを用いて行う動作等と考えることもできる。また、この場合、ステップS402の動作は、第1学習段階の動作の一例である。第1学習段階については、例えば、計測取得データを用いず、シミュレーション取得データを用いた学習を学習モデルに対して行わせる段階等と考えることができる。また、本変形例において、ステップS402では、計測取得データを用いる学習により、シミュレーション取得データを反映した学習モデルである中間生成モデルを生成する。また、ステップS404の動作は、第2学習段階の動作の一例である。第2学習段階については、例えば、第1学習段階の後に計測取得データを用いた学習を学習モデルに対して行わせる段階等と考えることができる。また、本変形例において、ステップS404では、ステップS402で生成した中間生成モデルに対して計測取得データを用いた学習を更に行わせることで学習済モデルを生成する。 In this modified example, first, learning using simulation acquisition data (initial learning) is performed to generate a learning model in which learning is advanced (S402), and learning using measurement acquisition data is performed on the learning model (S402). Additional learning) is performed (S404). Such an operation can be considered as, for example, an operation of adjusting the learning model reflecting the simulation acquisition data by using the measurement acquisition data. Further, in this case, the operation of step S402 is an example of the operation of the first learning stage. The first learning stage can be considered, for example, a stage in which learning using simulation acquisition data is performed on the learning model without using measurement acquisition data. Further, in the present modification, in step S402, an intermediate generation model, which is a learning model reflecting the simulation acquisition data, is generated by learning using the measurement acquisition data. Further, the operation of step S404 is an example of the operation of the second learning stage. The second learning stage can be considered, for example, a stage in which learning using the measurement acquisition data is performed on the learning model after the first learning stage. Further, in the present modification, in step S404, the trained model is generated by further learning the intermediate generation model generated in step S402 using the measurement acquisition data.

本変形例によれば、例えば、シミュレーション取得データ及び計測取得データについて、それぞれの特徴を活かすよう適切に用いることができる。また、これにより、例えば、実際に作成した試料の特性を反映させた学習済モデルを効率的に作成することができる。また、例えば、より高い精度で質感と積層構成との関係を予測できる学習済モデルを適切に生成することができる。また、本変形例において学習済モデルを生成する動作については、例えば、転移学習を行う動作等と考えることができる。この場合、ステップS402で生成される中間生成モデルについて、例えば、シミュレーション取得データを用いた学習により生成される第1の学習済モデルと考えることができる。また、ステップS402で生成される学習済モデルについて、計測取得データ及び第1の学習済モデルを用いた転移学習により生成される第2の学習済モデル等と考えることができる。また、この場合、このような方法で転移学習を行うことで、例えば計測取得済データのみを用いた学習を行う場合等と比べ、計測取得データを反映した学習済モデルを効率的かつ適切に作成することができる。 According to this modification, for example, the simulation acquisition data and the measurement acquisition data can be appropriately used so as to make the best use of their respective characteristics. Further, as a result, for example, a trained model that reflects the characteristics of the actually prepared sample can be efficiently created. Further, for example, a trained model capable of predicting the relationship between the texture and the laminated structure with higher accuracy can be appropriately generated. Further, the operation of generating the trained model in this modified example can be considered as, for example, the operation of performing transfer learning. In this case, the intermediate generative model generated in step S402 can be considered as, for example, the first trained model generated by learning using the simulation acquisition data. Further, the trained model generated in step S402 can be considered as a second trained model generated by transfer learning using the measurement acquisition data and the first trained model. Further, in this case, by performing transfer learning by such a method, a trained model that reflects the measured and acquired data can be efficiently and appropriately created as compared with the case of performing learning using only the measured and acquired data, for example. can do.

また、例えば図8(a)に示すようなエンコーダ部602及びデコーダ部604(図8参照)を有するニューラルネットワークを学習モデルとして用いる場合、学習モデルの構成に合わせてシミュレーション取得データ及び計測取得データを用いること等も考えられる。この場合、ステップS402において、計測取得データを用いた学習をデコーダ部604に行わせること等が考えられる。また、ステップS404において、シミュレーション取得データを用いた学習を学習モデルの全体に行わせることが考えられる。また、この場合、ステップS402の動作について、デコーダ部学習段階の一例にもなっていると考えることができる。ステップS404の動作について、全体学習段階の一例にもなっていると考えることができる。このように構成すれば、例えば、学習モデルの構成に合わせて、シミュレーション取得データ及び計測取得データを適切に用いることができる。また、これにより、例えば、実際に作成した試料の特性を反映させた学習済モデルを効率的に作成することができる。 Further, for example, when a neural network having an encoder unit 602 and a decoder unit 604 (see FIG. 8) as shown in FIG. 8A is used as a learning model, simulation acquisition data and measurement acquisition data are used according to the configuration of the learning model. It is also possible to use it. In this case, in step S402, it is conceivable to have the decoder unit 604 perform learning using the measurement acquisition data. Further, in step S404, it is conceivable that the learning using the simulation acquisition data is performed on the entire learning model. Further, in this case, it can be considered that the operation of step S402 is also an example of the decoder unit learning stage. It can be considered that the operation of step S404 is also an example of the overall learning stage. With this configuration, for example, the simulation acquisition data and the measurement acquisition data can be appropriately used according to the configuration of the learning model. Further, as a result, for example, a trained model that reflects the characteristics of the actually prepared sample can be efficiently created.

また、上記においても説明をしたように、エンコーダ部602及びデコーダ部604を有するニューラルネットワークを用いる場合、デコーダ部604の学習については、比較的早期に収束すると考えられる。そのため、例えばシミュレーション取得データと比べて数の少ない計測取得データのみを用いる場合でも、デコーダ部604については、学習を適切に行わせることが可能である。そのため、ステップS404では、例えば、計測取得データを用い、かつ、シミュレーション取得データを用いずに、デコーダ部604に学習を行わせることが考えられる。このように構成すれば、例えば、先に重みを決定するデコーダ部604について、計測取得データをより適切に反映した学習を行わせることができる。また、この場合、その後に行うステップS404での学習では、上記においても説明をしたように、デコーダ部604の重みを固定して学習を行う。そのため、このように構成すれば、ステップS404において行う学習においても、計測取得データを反映した学習を適切に行うことができる。また、ステップS404において学習モデルの全体に対して行う学習においては、学習データの数が多い方が好ましいと考えられる。そのため、ステップS404においては、シミュレーション取得データ及び計測取得データを用いて、学習モデルに学習を行わせることが考えられる。また、学習の目的等に応じて、ステップS404では、シミュレーション取得データを用い、かつ、計測取得データを用いずに、学習モデルに学習を行わせてもよい。 Further, as described above, when a neural network having an encoder unit 602 and a decoder unit 604 is used, it is considered that the learning of the decoder unit 604 converges relatively early. Therefore, for example, even when only the measurement acquisition data, which is smaller in number than the simulation acquisition data, is used, it is possible to appropriately learn the decoder unit 604. Therefore, in step S404, for example, it is conceivable to have the decoder unit 604 perform learning using the measurement acquisition data and without using the simulation acquisition data. With this configuration, for example, the decoder unit 604, which determines the weight first, can be trained to more appropriately reflect the measurement acquisition data. Further, in this case, in the learning in step S404 performed after that, as described above, the weight of the decoder unit 604 is fixed and the learning is performed. Therefore, with this configuration, the learning that reflects the measurement acquisition data can be appropriately performed even in the learning performed in step S404. Further, in the learning performed on the entire learning model in step S404, it is considered that a large number of training data is preferable. Therefore, in step S404, it is conceivable to have the learning model perform learning using the simulation acquisition data and the measurement acquisition data. Further, depending on the purpose of learning and the like, in step S404, the learning model may be trained using the simulation acquisition data and without using the measurement acquisition data.

また、シミュレーション取得データ及び計測取得データについては、同じ学習モデルの学習用データとして用いるのではなく、例えば図10(b)に示すように、互いに異なる学習モデルに対する学習用データとして用いてもよい。図10(b)は、シミュレーション取得データ及び計測取得データを用い方の更なる変形例を示す。 Further, the simulation acquisition data and the measurement acquisition data are not used as learning data of the same learning model, but may be used as learning data for learning models different from each other, for example, as shown in FIG. 10B. FIG. 10B shows a further modified example of how to use the simulation acquisition data and the measurement acquisition data.

本変形例において、学習済モデルとしては、質感(LSF等)から積層構成(レイアウト)を予測するために用いる予測用モデルと、積層構成に対応する質感を確認するために用いる確認用モデルとを用いる。この場合、予測用モデルとしては、例えば、上記において説明をした積層構成の予測用の学習済モデルを好適に用いることができる。本変形例において、予測用モデルの作成時には、シミュレーション取得データを用い、かつ、計測取得データを用いずに、学習モデルに学習を行わせる。また、より具体的に、予測用モデルとしては、例えば図8等を用いて説明した学習モデルに対してシミュレーション取得データを用いた学習を行わせることで作成する学習済モデル等を好適に用いることができる。また、本変形例において、確認用モデルは、予測用モデルでの予測の結果を確認するために用いる学習済モデルである。確認用モデルとしては、例えば、図8等を用いて説明をした学習モデルにおけるデコーダ部604に対応するニューラルネットワーク等を好適に用いることができる。また、本変形例において、確認用モデルの作成時には、計測取得データを用い、かつ、シミュレーション取得データを用いずに、学習モデルに学習を行わせる。 In this modified example, as the trained model, a prediction model used for predicting the laminated configuration (layout) from the texture (LSF, etc.) and a confirmation model used for confirming the texture corresponding to the laminated configuration are used. Use. In this case, as the prediction model, for example, the trained model for prediction of the laminated structure described above can be preferably used. In this modified example, when the prediction model is created, the learning model is trained using the simulation acquisition data and without using the measurement acquisition data. Further, more specifically, as the prediction model, for example, a trained model created by training the learning model described with reference to FIG. 8 or the like using simulation acquisition data is preferably used. Can be done. Further, in this modification, the confirmation model is a trained model used to confirm the prediction result in the prediction model. As the confirmation model, for example, a neural network or the like corresponding to the decoder unit 604 in the learning model described with reference to FIG. 8 or the like can be preferably used. Further, in this modified example, when the confirmation model is created, the learning model is trained using the measurement acquisition data and without using the simulation acquisition data.

また、本変形例では、例えば、積層構成の予測時において、予測用モデルを用いて積層構成の予測を行った上で、更に、確認用モデルを用いて予測結果の確認を行うことが考えられる。より具体的に、この場合、例えば、予測用モデルが出力する積層構成について、確認用モデルの入力として更に用いることが考えられる。そして、確認用モデルの出力について、予測用モデルの入力として用いた所望の質感(LSF等)と比較を行うことが考えられる。このように構成すれば、例えば、予測用モデルを用いて行う積層構成の予測の結果について、所望の質感が得られる結果であるか否かについて、より適切に確認をすることができる。また、この場合、必要に応じて、例えば所望の質感が得られるように、積層構成の予測の結果を調整すること等が考えられる。このように構成すれば、例えば、所望の質感に対応する積層構成をより適切に取得することができる。 Further, in this modification, for example, at the time of predicting the laminated configuration, it is conceivable to predict the laminated configuration using the prediction model and then confirm the prediction result using the confirmation model. .. More specifically, in this case, for example, it is conceivable to further use the laminated configuration output by the prediction model as an input of the confirmation model. Then, it is conceivable to compare the output of the confirmation model with the desired texture (LSF or the like) used as the input of the prediction model. With this configuration, for example, it is possible to more appropriately confirm whether or not the result of the prediction of the laminated structure performed using the prediction model is the result of obtaining a desired texture. Further, in this case, if necessary, for example, it is conceivable to adjust the result of prediction of the laminated structure so as to obtain a desired texture. With this configuration, for example, a laminated configuration corresponding to a desired texture can be obtained more appropriately.

また、シミュレーション取得データ及び計測取得データの用い方の更なる変形例においては、例えば、シミュレーション取得データを用いて行う学習を行った後に、学習結果を利用して、計測の対象とする試料の作成を行うこと等も考えられる。より具体的に、この場合、例えば、シミュレーション取得データを用いた学習を行うことで、学習を行うために必要な学習データの量を確認することが考えられる。また、この場合、確認した学習データの必要量に合わせて、計測取得データを取得するために用いる試料を作成することが考えられる。このように構成すれば、例えば、必要以上に多くの試料を作成することなく、学習に必要な量の計測取得データを適切に取得することができる。また、この場合、所望の質感に対応する層構成を予測するための学習済モデルについて、シミュレーション取得データを用いずに、計測取得データのみを用いて作成することが考えられる。このように構成した場合も、シミュレーション取得データ及び計測取得データを用いて、所望の質感に対応する層構成の予測等を適切に行うことができる。 Further, in a further modification of the usage of the simulation acquisition data and the measurement acquisition data, for example, after learning to be performed using the simulation acquisition data, the learning result is used to create a sample to be measured. It is also conceivable to do. More specifically, in this case, for example, it is conceivable to confirm the amount of learning data required for learning by performing learning using simulation acquisition data. Further, in this case, it is conceivable to prepare a sample used for acquiring the measurement acquisition data according to the required amount of the confirmed learning data. With this configuration, for example, it is possible to appropriately acquire the amount of measurement acquisition data required for learning without preparing an unnecessarily large number of samples. Further, in this case, it is conceivable to create a trained model for predicting the layer configuration corresponding to the desired texture by using only the measurement acquisition data without using the simulation acquisition data. Even in this configuration, the simulation acquisition data and the measurement acquisition data can be used to appropriately predict the layer configuration corresponding to the desired texture.

続いて、上記において説明をした各構成に関する補足説明等を行う。また、以下においては、説明の便宜上、上記において説明をした変形例等も含めて、本例という。上記においても説明をしたように、本例において、制御PC14(図1参照)は、領域構成予測装置の一例である。また、例えば図4(a)に図示をしたように、本例において、制御PC14は、表示部402、受付部404、通信I/F部406、及び制御部408を有する。この場合、制御部408は、例えば、所定のプログラムに従って動作することで、領域構成予測装置の各部として動作する。より具体的に、制御部408は、所定のプログラムに従って動作することで、例えば、質感予測部、学習済モデル作成部、領域構成予測部、及び造形データ生成部等として動作する。この場合、質感予測部については、例えば、質感予測段階の動作を実行する構成等と考えることができる。学習済モデル作成部については、例えば、学習段階の動作を実行する構成等と考えることができる。領域構成予測部については、例えば、領域構成予測段階の動作を実行する構成等と考えることができる。また、造形データ生成部については、例えば、造形データ生成段階の動作を実行する構成等と考えることができる。また、制御部408は、制御PC14における他の構成について、領域構成予測装置の各構成として動作させてもよい。 Subsequently, supplementary explanations and the like regarding each configuration described above will be given. Further, in the following, for convenience of explanation, the present example will be referred to including the modified example described above. As described above, in this example, the control PC 14 (see FIG. 1) is an example of the area configuration prediction device. Further, for example, as shown in FIG. 4A, in this example, the control PC 14 includes a display unit 402, a reception unit 404, a communication I / F unit 406, and a control unit 408. In this case, the control unit 408 operates as each unit of the area configuration prediction device by operating according to a predetermined program, for example. More specifically, the control unit 408 operates as, for example, a texture prediction unit, a trained model creation unit, a region configuration prediction unit, a modeling data generation unit, and the like by operating according to a predetermined program. In this case, the texture prediction unit can be considered, for example, a configuration for executing an operation in the texture prediction stage. The trained model creation unit can be considered, for example, a configuration for executing an operation in the learning stage. The area configuration prediction unit can be considered, for example, a configuration for executing the operation of the area configuration prediction stage. Further, the modeling data generation unit can be considered, for example, a configuration for executing an operation in the modeling data generation stage. Further, the control unit 408 may operate as each configuration of the region configuration prediction device for other configurations in the control PC 14.

また、上記においては、積層構成を予測する動作に関し、主に、造形装置12(図1参照)において造形する造形物の一部の領域構成に対応する積層構成を予測する動作について、説明をした。しかし、積層構成を予測する動作の変形例においては、このような造形物以外の物の少なくとも一部の領域構成に対応する積層構成の予測を行ってもよい。例えば、2次元の画像を印刷する印刷装置(例えば、インクジェットプリンタ)においては、印刷対象の媒体(メディア)上に様々な色のインクの層を複数重ねることで様々な質感を表現すること等も考えられる。そして、この場合、例えば、媒体上に重ねて形成されるインクの層の重なり方を領域構成と考えて、このような領域構成に対応する積層構成の予測を行ってもよい。また、例えば媒体上にインクの層を重ねることで立体的な形状を形成する印刷装置(いわゆる、2.5Dプリンタ)を用いる場合、媒体上に形成される立体的な形状の表面の構成を領域構成と考えて、このような領域構成に対応する積層構成の予測を行ってもよい。これらの場合にも、上記と同様にして作成した学習済モデルを用いることで、積層構成の予測等を適切に行うことができる。 Further, in the above description, regarding the operation of predicting the laminated structure, mainly the operation of predicting the laminated structure corresponding to a partial area configuration of the modeled object to be modeled by the modeling apparatus 12 (see FIG. 1) has been described. .. However, in the modified example of the operation of predicting the laminated structure, the laminated structure corresponding to at least a part of the region structure of the object other than the modeled object may be predicted. For example, in a printing device (for example, an inkjet printer) that prints a two-dimensional image, it is possible to express various textures by stacking a plurality of layers of ink of various colors on a medium to be printed. Conceivable. Then, in this case, for example, the overlapping method of the ink layers formed on the medium may be considered as the region configuration, and the stacking configuration corresponding to such the region configuration may be predicted. Further, for example, when a printing device (so-called 2.5D printer) that forms a three-dimensional shape by stacking layers of ink on a medium is used, the composition of the surface of the three-dimensional shape formed on the medium is defined as an area. Considering the configuration, the laminated configuration corresponding to such a region configuration may be predicted. In these cases as well, by using the trained model created in the same manner as described above, it is possible to appropriately predict the laminated configuration and the like.

本発明は、例えば領域構成予測方法に好適に利用できる。 The present invention can be suitably used, for example, in a method for predicting region composition.

10・・・造形システム、12・・・造形装置、14・・・制御PC、50・・・造形物、52・・・サポート層、102・・・ヘッド部、104・・・造形台、106・・・走査駆動部、110・・・制御部、122・・・インクジェットヘッド、124・・・紫外線光源、126・・・平坦化ローラ、152・・・内部領域、154・・・着色領域、202・・・層状領域、302・・・真皮領域、304・・・表皮領域、306・・・クリア領域、402・・・表示部、404・・・受付部、406・・・通信I/F部、408・・・制御部、502・・・造形単位層、602・・・エンコーダ部、604・・・デコーダ部 10 ... modeling system, 12 ... modeling device, 14 ... control PC, 50 ... modeled object, 52 ... support layer, 102 ... head part, 104 ... modeling table, 106 ... Scanning drive unit, 110 ... Control unit, 122 ... Inkjet head, 124 ... Ultraviolet light source, 126 ... Flattening roller, 152 ... Internal area, 154 ... Colored area, 202: Layered area, 302: Dermis area, 304: Epidermis area, 306: Clear area, 402: Display unit, 404: Reception unit, 406: Communication I / F Unit, 408 ... Control unit, 502 ... Modeling unit layer, 602 ... Encoder unit, 604 ... Decoder unit

Claims (19)

複数色の着色用の材料を用いて形成する領域の構成である領域構成を予測する領域構成予測方法であって、
着色された層状の領域が複数重なる構成である積層構成と所定の質感との関係をコンピュータシミュレーションにより予測する段階
であり、互いに異なる構成で前記層状の領域が重なる複数種類の前記積層構成について、それぞれの前記積層構成により表現される前記質感を予測する質感予測段階と、
前記積層構成と前記質感との関係とを学習させた学習モデルである学習済モデルを機械学習により生成する段階であり、前記複数種類の積層構成に対して前記質感予測段階において予測した前記質感に基づいて前記学習済モデルを生成する学習段階と、
所望の前記質感に対応する前記領域構成を予測する段階であり、前記学習段階で生成した前記学習済モデルを用いて前記質感に対応する前記積層構成を予測し、当該積層構成に基づき、前記所望の質感に対応する前記領域構成を予測する領域構成予測段階と
を備えることを特徴とする領域構成予測方法。
It is a region configuration prediction method for predicting a region configuration, which is a region configuration formed by using a material for coloring a plurality of colors.
It is a stage of predicting the relationship between a predetermined texture and a laminated structure in which a plurality of colored layered regions are overlapped by computer simulation. The texture prediction stage for predicting the texture expressed by the laminated structure of
It is a stage of generating a trained model which is a learning model in which the relationship between the laminated structure and the texture is learned by machine learning, and the texture predicted in the texture prediction stage for the plurality of types of laminated configurations is obtained. The learning stage to generate the trained model based on
It is a stage of predicting the region configuration corresponding to the desired texture, predicting the laminated configuration corresponding to the texture using the learned model generated in the learning stage, and based on the laminated configuration, the desired A region configuration prediction method comprising a region configuration prediction stage for predicting the region configuration corresponding to the texture of the above.
前記複数色の着色用の材料は、複数色の造形の材料であり、
前記領域構成は、前記複数色の造形の材料を用いて造形物を造形する造形装置において造形しようとする前記造形物の少なくとも一部の領域に対応する構成であることを特徴とする請求項1に記載の領域構成予測方法。
The material for coloring the plurality of colors is a material for modeling the plurality of colors.
Claim 1 is characterized in that the region configuration corresponds to at least a part of a region of the modeled object to be modeled in a modeling apparatus that models a modeled object using the plurality of colors of modeling materials. The area composition prediction method described in 1.
前記領域構成は、それぞれが着色された複数の層状の領域が前記造形物の表面での法線方向と平行な方向において重なる構成であることを特徴とする請求項2に記載の領域構成予測方法。 The region configuration prediction method according to claim 2, wherein the region configuration is a configuration in which a plurality of layered regions, each of which is colored, overlap in a direction parallel to the normal direction on the surface of the modeled object. .. 前記領域構成予測段階は、
前記所望の質感が設定されたコンピュータグラフィックス画像に基づき、当該コンピュータグラフィックス画像に設定されている前記質感に対応するパラメータである設定パラメータを算出する設定パラメータ算出段階と、
前記学習済モデルに対する入力として前記設定パラメータ算出段階で算出した前記設定パラメータを用いて、前記積層構成を示す出力を取得する積層構成取得段階と
を有することを特徴とする請求項1から3のいずれかに記載の領域構成予測方法。
The area composition prediction stage is
Based on the computer graphics image in which the desired texture is set, the setting parameter calculation step of calculating the setting parameter which is the parameter corresponding to the texture set in the computer graphics image, and the setting parameter calculation step.
Any of claims 1 to 3, wherein the set parameter calculated in the setting parameter calculation step is used as an input to the trained model, and the stack configuration acquisition step of acquiring an output indicating the stack configuration is provided. Area composition prediction method described in.
前記質感は、複数の前記層状の領域が重なることで表現される透明感であり、
前記質感予測段階において、前記質感を示すパラメータとして、光の広がり方を示す関数を用いることを特徴とする請求項1から4のいずれかに記載の領域構成予測方法。
The texture is a transparency expressed by overlapping a plurality of the layered regions.
The region configuration prediction method according to any one of claims 1 to 4, wherein a function indicating how light spreads is used as a parameter indicating the texture in the texture prediction stage.
前記質感を示すパラメータとして、線広がり関数(LSF)を用いることを特徴とする請求項5に記載の領域構成予測方法。 The region configuration prediction method according to claim 5, wherein a line spread function (LSF) is used as a parameter indicating the texture. 前記質感予測段階において、前記複数色の着色用の材料のそれぞれに対応する吸収係数及び散乱係数を用いてコンピュータシミュレーションを行うことで、前記積層構成により表現される前記質感を予測することを特徴とする請求項1から6のいずれかに記載の領域構成予測方法。 In the texture prediction stage, the texture represented by the laminated structure is predicted by performing a computer simulation using the absorption coefficient and the scattering coefficient corresponding to each of the materials for coloring the plurality of colors. The area composition prediction method according to any one of claims 1 to 6. それぞれの色の前記着色用の材料に対応する試料を作成する各色試料作成段階と、
前記各色試料作成段階で作成した前記試料の光学的な特性を計測することで前記複数色の着色用の材料のそれぞれに対応する吸収係数及び散乱係数を決定する係数決定段階と
を更に備え、
前記質感予測段階において、前記係数決定段階で決定した吸収係数及び散乱係数を用いて、コンピュータシミュレーションを行うことを特徴とする請求項7に記載の領域構成予測方法。
Each color sample preparation stage for preparing a sample corresponding to the coloring material of each color, and
Further provided with a coefficient determination step of determining the absorption coefficient and the scattering coefficient corresponding to each of the materials for coloring the plurality of colors by measuring the optical characteristics of the sample prepared in each color sample preparation step.
The region configuration prediction method according to claim 7, wherein in the texture prediction step, a computer simulation is performed using the absorption coefficient and the scattering coefficient determined in the coefficient determination step.
前記学習段階は、学習対象のニューラルネットワークである学習対象ニューラルネットワークに学習を行わせる段階であり、
前記学習対象ニューラルネットワークは、前記質感を示すパラメータを入力及び出力とし、前記積層構成を示すパラメータを中間出力とするニューラルネットワークであり、
前記質感を示すパラメータを入力とし、前記積層構成を示すパラメータを出力とするニューラルネットワークであるエンコーダ部と、
前記積層構成を示すパラメータを入力とし、前記質感を示すパラメータを出力とするニューラルネットワークであるデコーダ部と
を有することを特徴とする請求項1から8のいずれかに記載の領域構成予測方法。
The learning stage is a stage in which a learning target neural network, which is a learning target neural network, is made to perform learning.
The learning target neural network is a neural network in which the parameter indicating the texture is used as an input and an output, and the parameter indicating the laminated structure is used as an intermediate output.
An encoder unit that is a neural network that inputs the parameter indicating the texture and outputs the parameter indicating the laminated structure, and
The region configuration prediction method according to any one of claims 1 to 8, further comprising a decoder unit that is a neural network that receives a parameter indicating the laminated structure as an input and outputs a parameter indicating the texture as an output.
前記学習対象ニューラルネットワークは、前記エンコーダ部と前記デコーダ部とをつなげたニューラルネットワークであり、
前記学習段階は、
前記積層構成と前記質感との関係の学習を前記デコーダ部に行わせることで前記デコーダ部における重みを決定するデコーダ部学習段階と、
前記デコーダ部学習段階で決定した前記デコーダ部における重みを固定して前記学習対象ニューラルネットワークに学習を行わせる全体学習段階と
を有することを特徴とする請求項9に記載の領域構成予測方法。
The learning target neural network is a neural network connecting the encoder unit and the decoder unit.
The learning stage is
A decoder unit learning stage in which the weight in the decoder unit is determined by having the decoder unit learn the relationship between the laminated structure and the texture.
The area configuration prediction method according to claim 9, further comprising an overall learning stage in which the weight in the decoder unit determined in the decoder unit learning stage is fixed and the learning target neural network performs learning.
前記学習段階において、
前記質感予測段階において予測した前記質感に基づいて前記積層構成と前記質感との関係を示すデータであるシミュレーション取得データと、作成した試料に対して光学的な特性を計測することで取得される前記積層構成と前記質感との関係を示すデータである計測取得データとを用いて、前記学習済モデルを生成することを特徴とする請求項1から10のいずれかに記載の領域構成予測方法。
In the learning stage
Simulation acquisition data, which is data showing the relationship between the laminated structure and the texture based on the texture predicted in the texture prediction stage, and the acquisition by measuring the optical characteristics of the prepared sample. The region configuration prediction method according to any one of claims 1 to 10, wherein the trained model is generated by using the measurement acquisition data which is the data showing the relationship between the laminated configuration and the texture.
前記学習段階において、前記シミュレーション取得データと前記計測取得データとを区別せずに用いて、前記学習済モデルを生成することを特徴とする請求項11に記載の領域構成予測方法。 The area configuration prediction method according to claim 11, wherein in the learning stage, the learned model is generated by using the simulation acquisition data and the measurement acquisition data without distinguishing them. 前記学習段階は、
前記計測取得データを用いず、前記シミュレーション取得データを用いた学習を学習モデルに対して行わせることで前記シミュレーション取得データを反映した学習モデルである中間生成モデルを生成する第1学習段階と、
前記中間生成モデルに対して前記計測取得データを用いた学習を更に行わせることで前記学習済モデルを生成する第2学習段階と
を有することを特徴とする請求項11に記載の領域構成予測方法。
The learning stage is
The first learning step of generating an intermediate generation model which is a learning model reflecting the simulation acquisition data by causing the learning model to perform learning using the simulation acquisition data without using the measurement acquisition data.
The region configuration prediction method according to claim 11, further comprising learning the intermediate generative model using the measurement acquisition data to generate the trained model. ..
前記学習段階は、学習対象のニューラルネットワークである学習対象ニューラルネットワークに学習を行わせる段階であり、
前記学習対象ニューラルネットワークは、
前記質感を示すパラメータを入力とし、前記積層構成を示すパラメータを出力とするニューラルネットワークであるエンコーダ部と、
前記積層構成を示すパラメータを入力とし、前記質感を示すパラメータを出力とするニューラルネットワークであるデコーダ部と
をつなげたニューラルネットワークであり、前記質感を示すパラメータを入力及び出力とし、前記積層構成を示すパラメータを中間出力とし、
前記学習段階は、
前記積層構成と前記質感との関係の学習を前記デコーダ部に行わせることで前記デコーダ部における重みを決定する段階であるデコーダ部学習段階と、
前記デコーダ部学習段階で決定した前記デコーダ部における重みを固定して前記学習対象ニューラルネットワークに学習を行わせる全体学習段階と
を有し、
前記デコーダ部学習段階において、前記計測取得データを用いた学習を前記デコーダ部に行わせ、
前記全体学習段階において、前記シミュレーション取得データを用いた学習を前記学習対象ニューラルネットワークに行わせることを特徴とする請求項11に記載の領域構成予測方法。
The learning stage is a stage in which a learning target neural network, which is a learning target neural network, is made to perform learning.
The learning target neural network is
An encoder unit that is a neural network that inputs the parameter indicating the texture and outputs the parameter indicating the laminated structure, and
It is a neural network connected to a decoder unit which is a neural network in which a parameter indicating the texture is input and a parameter indicating the texture is output, and the parameter indicating the texture is input and output to show the layered configuration. The parameter is the intermediate output
The learning stage is
A decoder unit learning stage, which is a stage in which the weight in the decoder unit is determined by having the decoder unit learn the relationship between the laminated structure and the texture.
It has an overall learning stage in which the weight in the decoder unit determined in the decoder unit learning stage is fixed and the learning target neural network is made to perform learning.
In the decoder unit learning stage, the decoder unit is made to perform learning using the measurement acquisition data.
The region configuration prediction method according to claim 11, wherein in the overall learning stage, the learning target neural network is made to perform learning using the simulation acquisition data.
前記デコーダ部学習段階において、前記計測取得データを用い、かつ、前記シミュレーション取得データを用いずに、前記デコーダ部に学習を行わせ、
前記全体学習段階において、前記シミュレーション取得データ及び前記計測取得データを用いて、前記学習対象ニューラルネットワークに学習を行わせることを特徴とする請求項14に記載の領域構成予測方法。
In the decoder unit learning stage, the decoder unit is made to perform learning using the measurement acquisition data and without using the simulation acquisition data.
The region configuration prediction method according to claim 14, wherein in the overall learning stage, the learning target neural network is trained using the simulation acquisition data and the measurement acquisition data.
造形装置において造形しようとする造形物を示す造形データを生成する造形データ生成段階を更に備え、
前記造形データは、前記領域構成予測段階で予測した前記領域構成に基づく重ね方で前記造形装置に造形の材料を積層させるデータであることを特徴とする請求項1から15のいずれかに記載の領域構成予測方法。
It is further equipped with a modeling data generation stage that generates modeling data indicating the modeled object to be modeled in the modeling device.
The modeling data according to any one of claims 1 to 15, wherein the modeling data is data in which modeling materials are laminated on the modeling apparatus by a stacking method based on the region configuration predicted in the region configuration prediction stage. Area composition prediction method.
複数色の着色用の材料を用いて形成する領域の構成である領域構成を予測する領域構成予測方法であって、
所望の質感に対応する前記領域構成を予測する段階であり、着色された層状の領域が複数重なる構成である積層構成と所定の前記質感との関係をコンピュータシミュレーションにより予測した結果を学習することで生成された学習済モデルを用いて前記質感に対応する前記積層構成を予測し、当該積層構成に基づき、前記所望の質感に対応する前記領域構成を予測する領域構成予測段階を備えることを特徴とする領域構成予測方法。
It is a region configuration prediction method for predicting a region configuration, which is a region configuration formed by using a material for coloring a plurality of colors.
It is a stage of predicting the region configuration corresponding to a desired texture, and by learning the result of predicting the relationship between the predetermined texture and the laminated configuration in which a plurality of colored layered regions are overlapped by computer simulation. It is characterized by including a region configuration prediction stage in which the stacked configuration corresponding to the texture is predicted using the generated trained model, and the region configuration corresponding to the desired texture is predicted based on the stacked configuration. Area composition prediction method to be performed.
複数色の着色用の材料を用いて形成する領域の構成である領域構成を予測する領域構成予測装置であって、
着色された層状の領域が複数重なる構成である積層構成と所定の質感との関係をコンピュータシミュレーションにより予測する質感予測部と、
前記積層構成と前記質感との関係とを学習させた学習モデルである学習済モデルを機械学習により生成する学習済モデル作成部と、
所望の前記質感に対応する前記領域構成を予測する領域構成予測部と
を備え、
前記質感予測部は、互いに異なる構成で前記層状の領域が重なる複数種類の前記積層構成について、それぞれの前記積層構成により表現される前記質感を予測し、
前記学習済モデル作成部は、前記複数種類の積層構成に対して前記質感予測部において予測した前記質感に基づいて前記学習済モデルを生成し、
前記領域構成予測部は、前記学習済モデル作成部で生成した前記学習済モデルを用いて前記質感に対応する前記積層構成を予測し、当該積層構成に基づき、前記所望の質感に対応する前記領域構成を予測することを特徴とする領域構成予測装置。
It is a region configuration prediction device that predicts the region configuration, which is the configuration of the region formed by using materials for coloring of a plurality of colors.
A texture prediction unit that predicts the relationship between a predetermined texture and a laminated configuration in which a plurality of colored layered regions are overlapped by computer simulation, and a texture prediction unit.
A trained model creation unit that generates a trained model, which is a learning model trained by learning the relationship between the laminated structure and the texture, by machine learning.
A region configuration prediction unit that predicts the region configuration corresponding to the desired texture is provided.
The texture prediction unit predicts the texture expressed by each of the laminated configurations of a plurality of types in which the layered regions overlap with each other.
The trained model creation unit generates the trained model based on the texture predicted by the texture prediction unit for the plurality of types of laminated configurations.
The region configuration prediction unit predicts the laminated configuration corresponding to the texture using the trained model generated by the trained model creation unit, and based on the laminated configuration, the region corresponding to the desired texture. A region configuration predictor characterized by predicting a configuration.
複数色の着色用の材料を用いて形成する領域の構成である領域構成を予測する領域構成予測装置であって、
所望の質感に対応する前記領域構成を予測する領域構成予測部を備え、
前記領域構成予測部は、着色された層状の領域が複数重なる構成である積層構成と所定の前記質感との関係をコンピュータシミュレーションにより予測した結果を学習することで生成された学習済モデルを用いて前記質感に対応する前記積層構成を予測し、当該積層構成に基づき、前記所望の質感に対応する前記領域構成を予測することを特徴とする領域構成予測装置。
It is a region configuration prediction device that predicts the region configuration, which is the configuration of the region formed by using materials for coloring of a plurality of colors.
A region configuration prediction unit that predicts the region configuration corresponding to a desired texture is provided.
The region configuration prediction unit uses a trained model generated by learning the result of predicting the relationship between the predetermined texture and the laminated configuration in which a plurality of colored layered regions are overlapped by computer simulation. A region configuration predicting apparatus characterized in that the laminated configuration corresponding to the texture is predicted, and the region configuration corresponding to the desired texture is predicted based on the laminated configuration.
JP2020056246A 2020-03-26 2020-03-26 Area configuration prediction method and area configuration prediction device Active JP7343879B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020056246A JP7343879B2 (en) 2020-03-26 2020-03-26 Area configuration prediction method and area configuration prediction device
PCT/JP2021/010304 WO2021193185A1 (en) 2020-03-26 2021-03-15 Region configuration prediction method, region configuration prediction device, method for generating shaping data, shaping method, shaping data generation device, shaping system, method for generating printing data, printing method, printing data generation device, and printing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020056246A JP7343879B2 (en) 2020-03-26 2020-03-26 Area configuration prediction method and area configuration prediction device

Publications (2)

Publication Number Publication Date
JP2021154570A true JP2021154570A (en) 2021-10-07
JP7343879B2 JP7343879B2 (en) 2023-09-13

Family

ID=77916582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020056246A Active JP7343879B2 (en) 2020-03-26 2020-03-26 Area configuration prediction method and area configuration prediction device

Country Status (1)

Country Link
JP (1) JP7343879B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002248692A (en) 2001-02-23 2002-09-03 Minolta Co Ltd Three-dimensional shaping system, three-dimensional shaping center, program, memory medium and method for ordering three-dimensional shaping
JP5195306B2 (en) 2008-11-04 2013-05-08 セイコーエプソン株式会社 Material information data acquisition device and display control system including the same

Also Published As

Publication number Publication date
JP7343879B2 (en) 2023-09-13

Similar Documents

Publication Publication Date Title
US11623409B2 (en) System and method for additive manufacturing of an object
JP6902365B2 (en) 3D modeling method and 3D printer
CN102689507A (en) Printing apparatus, printing method, and program
KR20200038566A (en) Model printing method of 3D printer
JP6705007B2 (en) Molding system, molding method, and manufacturing method of molded article
JP2016221962A (en) Image data creation device and three-dimension molding device including the same
TWI674965B (en) Method of slicing and printing multi-colour 3d object
JP2022103448A (en) Modeled object
JP6621873B2 (en) Stereolithography color 3D printing method
JP7343879B2 (en) Area configuration prediction method and area configuration prediction device
CN106256545A (en) Image processing apparatus and image processing method
JP7162219B2 (en) Layer structure prediction method and layer structure prediction device
WO2021193185A1 (en) Region configuration prediction method, region configuration prediction device, method for generating shaping data, shaping method, shaping data generation device, shaping system, method for generating printing data, printing method, printing data generation device, and printing system
JP7336536B2 (en) Conversion processing method, printed matter production method, and printed matter production system
JP6494242B2 (en) Control apparatus, control method, and computer program for printing apparatus
JP6532378B2 (en) Modeling system, control method of modeling operation, modeling control apparatus, and program
JP6922470B2 (en) Information processing device, 3D modeling device, 3D modeling system, setting method, and program
JP2021115796A (en) Manufacturing method of coloring product and ink discharge device
JP7271379B2 (en) Modeling apparatus and modeling method
JP2023146218A (en) Preparation method of molding data, molding data generator, and molding system
US11627236B2 (en) Shaping device and shaping method utilizing color conversion process and color adjustment parameters
WO2022209951A1 (en) Method for estimating color for dental prosthesis, information processing device, method for producing dental prosthesis, information processing method, and program
JP2023120143A (en) Printing device and method
JP2021181170A (en) Molding data generation method, molding method, molding data generation device, molding system, print data generation method, printing method, print data generation device, and printing system
JP2022144648A (en) Molding system and molding method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230824

R150 Certificate of patent or registration of utility model

Ref document number: 7343879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150