WO2021193185A1 - 領域構成予測方法、領域構成予測装置、造形データの生成方法、造形方法、造形データ生成装置、造形システム、印刷データの生成方法、印刷方法、印刷データ生成装置、及び印刷システム - Google Patents

領域構成予測方法、領域構成予測装置、造形データの生成方法、造形方法、造形データ生成装置、造形システム、印刷データの生成方法、印刷方法、印刷データ生成装置、及び印刷システム Download PDF

Info

Publication number
WO2021193185A1
WO2021193185A1 PCT/JP2021/010304 JP2021010304W WO2021193185A1 WO 2021193185 A1 WO2021193185 A1 WO 2021193185A1 JP 2021010304 W JP2021010304 W JP 2021010304W WO 2021193185 A1 WO2021193185 A1 WO 2021193185A1
Authority
WO
WIPO (PCT)
Prior art keywords
region
color
configuration
modeling
texture
Prior art date
Application number
PCT/JP2021/010304
Other languages
English (en)
French (fr)
Inventor
航 荒井
邦夫 八角
津村 徳道
経太 平井
健亮 福本
和輝 永沢
Original Assignee
株式会社ミマキエンジニアリング
国立大学法人千葉大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020056246A external-priority patent/JP7343879B2/ja
Priority claimed from JP2020086703A external-priority patent/JP2021181170A/ja
Application filed by 株式会社ミマキエンジニアリング, 国立大学法人千葉大学 filed Critical 株式会社ミマキエンジニアリング
Publication of WO2021193185A1 publication Critical patent/WO2021193185A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C64/00Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
    • B29C64/30Auxiliary operations or equipment
    • B29C64/386Data acquisition or data processing for additive manufacturing

Definitions

  • the present invention relates to an area composition prediction method and an area composition prediction device.
  • the present invention also relates to a modeling data generation method, a modeling method, a modeling data generation device, a modeling system, a print data generation method, a printing method, a print data generation device, and a printing system.
  • a modeling device for modeling a modeled object using an inkjet head is known (see, for example, Patent Document 1).
  • a modeling device for example, by stacking a plurality of layers of ink formed by an inkjet head, a modeled object is modeled by a layered manufacturing method.
  • a modeling device for modeling a modeled object using an inkjet head
  • a modeling device for example, by stacking a plurality of layers of ink formed by an inkjet head, a modeled object is modeled by a layered manufacturing method.
  • a colored modeled object is modeled by modeling the modeled object while coloring the surface of the modeled object.
  • the texture of the modeled object may differ depending on how the regions (for example, colored layered regions) formed by the modeling material (for example, ink) overlap. For example, when multiple types of inks of different colors are used as modeling materials and areas of various colors are overlapped to express a color, the texture such as transparency on the surface of the modeled object differs depending on how the areas are overlapped. May occur.
  • an object of the present invention is to provide a region configuration prediction method and a region configuration prediction device that can solve the above problems.
  • the present invention provides a modeling data generation method, a modeling method, a modeling data generation device, a modeling system, a print data generation method, a printing method, a print data generation device, and a printing system that can solve the above problems. With the goal.
  • the inventor of the present application does not repeat trial and error every time each modeled object is modeled, but causes a computer to machine-learn the relationship between the laminated structure and the texture corresponding to the structure of the modeled object in advance. , I thought about outputting the corresponding laminated structure by inputting the desired texture. Further, in this case, by creating a plurality of samples in which layers of modeling materials are laminated with different configurations and measuring the samples corresponding to a predetermined texture, the relationship between the laminated configuration and the texture can be determined. I thought about letting the computer do machine learning to acquire and learn the relationship. In addition, it has been found that by actually conducting various experiments and the like, it is possible to appropriately determine the region configuration corresponding to the desired texture by such a method. Furthermore, with respect to such a method, the applicant of the present application has filed an application as Japanese Patent Application No. 2019-63003.
  • the area configuration can be appropriately determined in a short time.
  • a lot of time and effort is required at the stage of acquiring the data necessary for machine learning.
  • machine learning is performed by the above method, it is usually necessary to prepare a large number of samples and perform measurement on each sample. In this case, a lot of labor and time are required at the stage of preparing and measuring the sample.
  • the inventor of the present application considered to predict the relationship between the laminated composition and the texture by computer simulation without preparing a large number of samples by further diligent research. Further, by actually conducting various experiments and the like, it was found that the region configuration corresponding to the desired texture can be appropriately determined even by such a method.
  • the present invention is a region configuration prediction method for predicting a region configuration which is a configuration of a region formed by using a material for coloring of a plurality of colors, and a colored layered region is used. It is a stage of predicting the relationship between the laminated structure which is a plurality of overlapping structures and a predetermined texture by computer simulation, and the plurality of types of the laminated structures in which the layered regions overlap with each other are expressed by the respective laminated structures.
  • a texture prediction stage for predicting the texture and a stage for generating a trained model which is a learning model in which the relationship between the laminated structure and the texture is learned, are generated by machine learning.
  • the relationship between the laminated configuration and the texture can be appropriately predicted by computer simulation. Further, by generating a trained model in which the relationship between the laminated structure and the texture is learned by machine learning for the laminated structure of various configurations, the laminated structure corresponding to the desired texture can be appropriately predicted. Further, based on the predicted laminated structure, the area structure for obtaining a desired texture can be appropriately predicted. Further, in this case, a large number of data (learning data) necessary for machine learning can be appropriately prepared without actually preparing a large number of samples or performing measurement on a large number of samples. In addition, this makes it possible to appropriately reduce the time and effort required to generate the trained model.
  • the region configuration corresponds to at least a part of the region of the modeled object to be modeled by the modeling apparatus that models the modeled object using the modeling materials of a plurality of colors.
  • the region configuration can be considered as a configuration in which a plurality of layered regions, each of which is colored, overlap in a direction parallel to the normal direction on the surface of the modeled object. With this configuration, the region configuration can be appropriately predicted based on the laminated configuration. Further, this makes it possible to appropriately predict the composition of the modeled object for obtaining a desired texture.
  • the coloring material it is also conceivable to use a material other than the modeling material as the coloring material.
  • the ink or the like used in the printing apparatus that prints on the medium can be considered as a material for coloring.
  • the printing apparatus it is conceivable to express various textures by stacking a plurality of layers of inks of various colors on the medium. Then, in this case, the way in which the ink layers formed on the medium are overlapped can be considered as a region configuration.
  • a printing apparatus so-called 2.5D printer
  • the configuration of the three-dimensionally shaped surface formed on the medium can be considered as the region configuration.
  • a computer is made to perform machine learning to generate a trained model.
  • the texture for example, it is conceivable to use a transparency expressed by overlapping a plurality of layered regions.
  • a function indicating how the light spreads as a parameter indicating the texture.
  • a parameter showing such a texture for example, a line spreading function (LSF) or the like can be preferably used.
  • LSF line spreading function
  • the region configuration prediction stage has, for example, a parameter calculation stage and a laminated configuration acquisition stage.
  • the parameter calculation step is a step of calculating a setting parameter which is a parameter corresponding to the texture set in the computer graphics image based on the computer graphics image in which the desired texture is set.
  • the laminated configuration acquisition stage is a stage of acquiring an output indicating the laminated configuration by using the setting parameters calculated in the setting parameter calculation stage as inputs to the trained model.
  • the texture expressed by the laminated structure is predicted by performing a computer simulation using the absorption coefficient and the scattering coefficient corresponding to each of the materials for coloring a plurality of colors.
  • a computer simulation of the same or similar method as the known computer simulation method can be used.
  • a computer simulation by a light scattering Monte Carlo simulation method (MCML method) or the like can be preferably used.
  • the absorption coefficient and the scattering coefficient corresponding to each of the materials for coloring a plurality of colors can be obtained by, for example, measurement for a small number of samples.
  • the region composition prediction method further includes each color sample preparation step and a coefficient determination step.
  • Each color sample preparation step is a step of preparing a sample corresponding to a material for coloring each color. In this case, for example, it is conceivable to prepare a sample using a modeling apparatus.
  • the coefficient determination step is a step of determining the absorption coefficient and the scattering coefficient corresponding to each of the materials for coloring a plurality of colors by measuring the optical characteristics of the sample prepared in each color sample preparation step.
  • a computer simulation is performed using the absorption coefficient and the scattering coefficient determined in the coefficient determination stage.
  • the absorption coefficient and the scattering coefficient corresponding to each of the materials for coloring a plurality of colors can be appropriately determined.
  • this makes it possible to appropriately perform computer simulation at the texture prediction stage with high accuracy.
  • the learning stage for example, deep learning can be preferably used as the machine learning.
  • the learning stage can be considered as, for example, a stage in which the learning target neural network, which is the learning target neural network, performs learning.
  • the learning target neural network for example, a neural network or the like in which a parameter indicating a texture is used as an input and an output and a parameter indicating a laminated structure is used as an intermediate output can be preferably used.
  • a learning target neural network for example, a neural network having an encoder unit and a decoder unit can be preferably used.
  • the encoder unit can be considered as a neural network or the like in which a parameter indicating the texture is input and a parameter indicating the laminated structure is output.
  • the decoder unit can be considered as a neural network or the like in which the parameter indicating the laminated structure is input and the parameter indicating the texture is output.
  • the learning target neural network can be considered as, for example, a neural network connecting an encoder unit and a decoder unit. Further, when such a learning target neural network is used, for example, it is conceivable to have the decoder unit perform learning first, and then make the entire learning target neural network perform learning.
  • the learning stage has, for example, a decoder unit learning stage and an overall learning stage.
  • the decoder unit learning stage can be considered as a stage in which the weight in the decoder unit is determined by having the decoder unit learn the relationship between the laminated structure and the texture.
  • the overall learning stage can be considered as a stage in which the learning of the relationship between the layered configuration and the texture is performed on the entire learning target neural network. Further, in this case, in the overall learning stage, the weight in the decoder unit determined in the decoder unit learning stage is fixed, and the learning target neural network is made to perform learning. With this configuration, the trained model can be generated appropriately.
  • the weight in the neural network is the weight set between the neurons constituting the neural network. Further, when such a learning target neural network is used, in the area configuration prediction stage, a stacked configuration corresponding to the texture is predicted by using a learned model created by having the learning target neural network perform learning. With this configuration, it is possible to appropriately predict the laminated configuration corresponding to the desired texture.
  • a trained model is generated using simulation acquisition data and measurement acquisition data.
  • the simulation acquisition data is data showing the relationship between the laminated structure and the texture based on the texture predicted in the texture prediction stage.
  • the measurement acquisition data is data showing the relationship between the laminated structure and the texture acquired by measuring the optical characteristics of the sample prepared by using a modeling apparatus or the like.
  • the use of the simulation acquisition data and the measurement acquisition data without distinction depends on whether each data is the simulation acquisition data or the measurement acquisition data at the time of learning to generate the trained model. Treat it in the same way without changing the way it is handled. Further, such an operation can be considered as an operation of increasing the number of data used for learning by adding measurement acquisition data. With this configuration, simulation acquisition data and measurement acquisition data can be used easily and appropriately.
  • simulation acquisition data and the measurement acquisition data in different ways so as to make the best use of their respective characteristics. More specifically, with respect to the simulation acquisition data, it can be considered that a large number of data can be created more easily. Further, regarding the measurement acquisition data, it can be considered that the relationship between the texture and the laminated structure is shown with higher accuracy. Then, in this case, for example, it is conceivable to first perform learning using simulation acquisition data to generate a learning model in which learning is advanced, and to have the learning model perform learning using measurement acquisition data. Be done. Further, such an operation can be considered as an operation in which the learning model reflecting the simulation acquisition data is adjusted by using the measurement acquisition data.
  • the learning stage has, for example, a first learning stage and a second learning stage.
  • an intermediate generation model which is a learning model that reflects the simulation acquisition data
  • a trained model is generated by further learning the intermediate generative model using the measurement acquisition data.
  • a learning target neural network having an encoder unit and a decoder unit it is conceivable to use simulation acquisition data and measurement acquisition data according to the configuration of the learning target neural network.
  • the decoder unit learning stage to be performed first, it is conceivable to have the decoder unit perform learning using the measurement acquisition data.
  • the learning target neural network is made to perform learning using the simulation acquisition data.
  • the characteristics of the actually prepared sample can be appropriately reflected in the trained model.
  • the decoder unit learning stage for example, the decoder unit is made to perform learning using the measurement acquisition data and without using the simulation acquisition data.
  • the learning target neural network is made to perform learning by using the simulation acquisition data and the measurement acquisition data. With this configuration, the characteristics of the actually prepared sample can be appropriately reflected in the trained model.
  • the area configuration prediction method further includes, for example, a modeling data generation stage for generating modeling data.
  • the modeling data for example, it is conceivable to generate data in which the modeling material is laminated on the modeling device so that at least a part of the modeled object is formed in the region configuration predicted in the region configuration prediction stage.
  • a region configuration prediction method composed of some of the above features can be considered.
  • the inventor of the present application considered that the colored region formed on the surface of the modeled object is not formed in the same manner as the conventional general configuration, but is formed in a configuration in which a plurality of layered regions are overlapped. .. Further, in this case, attention was paid to the fact that various textures can be expressed as compared with the conventional configuration by superimposing a plurality of colored color regions. Then, through diligent research, by further using a translucent region having a higher translucency than the color region as a part of such a plurality of layered regions, and by making the thickness of the translucent region variable. , I found that it is possible to express more diverse textures. Further, in this case, for example, by generating modeling data indicating a modeled object having such a colored region and modeling the modeled object based on the modeling data, a modeled object capable of expressing various textures is modeled. can do.
  • the present invention is a method for generating modeling data that generates modeling data indicating a modeled object to be modeled by a modeling device, and is a method of generating modeling data, which is a region to be colored in the modeled object. It includes a coloring composition determining step for determining the configuration and a data generation step for generating the modeling data based on the configuration of the coloring region determined in the coloring composition determining step, and the coloring region is a surface of the modeled object.
  • the modeling device it is possible to appropriately generate modeling data indicating a modeled object having a colored region in which a plurality of color regions and translucent regions overlap. Further, by causing the modeling device to perform modeling using such modeling data, it is possible to cause the modeling device to model a modeled object expressing various textures. Further, in this case, the thickness of the translucent region can be made variable by determining the thickness of the translucent region at the stage of determining the thickness of the translucent region. As a result, it is possible to make the modeling device model a modeled object that expresses a wider variety of textures.
  • the fact that the translucency of the translucent region is higher than that of the first color region and the second color region can be considered to be, for example, high translucency to light in the visible light region.
  • the translucent region for example, it is conceivable to form a colorless and transparent region. In this case, the fact that it is colorless can be considered to mean that it is not intentionally colored. Further, the colorlessness can be considered to be formed of a material to which a coloring material is not intentionally added.
  • the translucent region is preferably formed so as to have a transmittance of 60% or more with respect to the light in the visible light region.
  • the transmittance of the translucent region with respect to light in the visible light region is preferably 70% or more, more preferably 80% or more.
  • the modeling device models a three-dimensional (3D) modeled object in which at least a part of the surface is colored.
  • the surface of the modeled object can be considered as an area where colors can be visually recognized from the outside.
  • the modeling apparatus for example, by laminating a modeling material on a flat medium, it is conceivable to model a modeled object in a state of being connected to the medium. In this case, such a modeled object can be considered as a 2.5-dimensional (2.5D) modeled object or the like.
  • 2.5D 2.5-dimensional
  • the modeling apparatus for example, ejects ink, which is a material for modeling, from an inkjet head to model a modeled object by a layered manufacturing method. Further, as a result, the modeling apparatus models a modeled object having a colored region and a light reflecting region. In this case, the light-reflecting region can be considered as a light-reflecting region or the like inside the colored region. Further, in this case, the modeling apparatus forms a region to be colored by using a plurality of color inks as the first color region and the second color region. Further, as the translucent region, for example, a colorless and transparent region formed by using clear ink is formed. With this configuration, a modeled object expressing various textures can be appropriately modeled in the modeling device.
  • each of the first color region and the second color region is formed by using, for example, a plurality of colors of color ink and clear ink.
  • the modeling apparatus uses clear ink to compensate for the change in the amount of multiple color inks used due to the difference in the colors to be colored in each of the first color region and the second color region, depending on the position.
  • the first color region and the second color region are formed so that the thickness in the normal direction does not change.
  • the translucent region is formed only with clear ink, for example.
  • being colorless can be considered, for example, to be considered to be substantially colorless in terms of the quality required for modeling.
  • it is preferable that 80% or more of the amount of ink used for forming the translucent region is the ratio of clear ink (ratio by weight).
  • the ratio of the clear ink in the translucent region is preferably 90% or more, more preferably 95% or more.
  • the thickness of the translucent region in the normal direction can be considered to be variable.
  • the thickness of the first color region and the second color region in the normal direction may be set to a preset constant (fixed) thickness.
  • the thickness of the translucent region is determined according to the texture to be expressed in the modeled object.
  • the modeling device can appropriately model a modeled object that expresses a desired texture. Further, in this case, by making the first color region and the second color region constant and changing the thickness of the translucent region, it becomes possible to more easily and appropriately adjust the texture. ..
  • the thickness of the translucent region at the stage of determining the thickness of the translucent region, it is conceivable to receive an instruction for specifying the thickness of the translucent region from the user and determine the thickness of the translucent region based on the instruction. .. With this configuration, the thickness of the translucent region for obtaining a desired texture can be appropriately determined based on the user's instruction.
  • the thickness of the translucent region may be determined based on a parameter or the like acquired by a method other than the instruction of the user who specifies the thickness of the translucent region.
  • the modeling data generation method further includes, for example, a texture parameter acquisition step of acquiring a texture parameter indicating the texture to be expressed in the modeled object.
  • the thickness of the translucent region is determined based on the texture parameter acquired in the texture parameter acquisition stage. With this configuration, the thickness of the translucent region can be appropriately determined according to the desired texture.
  • the texture parameter acquisition stage for example, it is conceivable to acquire a texture parameter prepared in advance.
  • the texture parameter acquisition stage it is conceivable to acquire the texture parameter associated with the shape data or the like indicating the shape of the modeled object. Further, at the texture parameter acquisition stage, the texture parameter set by accepting the designation of the texture from the user may be acquired. In this case, it is conceivable to acquire a texture parameter indicating the texture set by the user with respect to the computer graphic image (CG image) indicating the modeled object.
  • CG image computer graphic image
  • the translucent region is formed between, for example, the first color region and the second color region. Further, it is also conceivable to form the translucent region inside the second color region, for example. With these configurations, it is possible to make a modeling device appropriately model a modeled object expressing various textures. It is also conceivable that the translucent region is formed outside the first color region, for example.
  • the colored region may have a plurality of translucent regions.
  • the colored region has, for example, an intermediate translucent region and an inner translucent region as the translucent region.
  • the intermediate translucent region can be considered as a translucent region formed between the first color region and the second color region.
  • the inner translucent region can be considered, for example, a translucent region formed inside the second color region in the modeled object.
  • the translucent region thickness determination stage for example, the thickness of the intermediate translucent region and the inner translucent region in the normal direction is determined.
  • the outer translucent region can be considered, for example, a translucent region formed outside the first color region in the modeled object. Further, in this case, in the step of determining the thickness of the translucent region, for example, the thickness of the outer translucent region in the normal direction is further determined. With this configuration, it is possible for the modeling device to appropriately model a modeled object that expresses a wider variety of textures.
  • the colored region may further have a color region other than the first color region and the second color region.
  • the colored region further has, for example, a third color region that is colored with a coloring material inside the second color region in the modeled object.
  • each color of the first color region and the second color region is based on, for example, an appearance image which is an image showing at least a part of the appearance of an object to be modeled as a modeled object. It is conceivable to decide. With this configuration, it is possible to appropriately generate modeling data indicating a modeled object representing an object. More specifically, in the color determination stage, by separating the pigment component of the appearance image by the pigment component separation method, the internal color corresponding to the internal color of the object and the surface of the object are closer than the inside. Determine the surface color corresponding to the color of the part. Further, in this case, for example, the color of the first color region is determined based on the surface color, and the color of the second color region is determined based on the internal color. With this configuration, the colors of the first color region and the second color region can be appropriately determined.
  • the modeling device for example, it is conceivable to model a modeled object (figure, etc.) indicating a human being. Then, in this case, it is conceivable to use an external image showing the color of the surface of human skin.
  • the melanin component which is a pigment component that reflects the color of the melanin pigment in the skin
  • the color of hemoglobin contained in the blood in the skin are reflected by the pigment component separation method based on the appearance image. Separates from the hemoglobin component, which is the pigment component to be used.
  • the surface color is determined based on the melanin component, and the internal color is determined based on the hemoglobin component.
  • the feature of the present invention can be considered not only when a plurality of color regions are formed but also when only one color region is formed in the colored region. Further, the feature of the present invention can be considered as a feature of the modeling method.
  • the modeling method includes, for example, a modeling data generation stage in which modeling data is generated by the above-mentioned modeling data generation method, and a modeling stage in which a modeled object is modeled based on the modeling data generated in the modeling data generation stage. ..
  • a modeling data generation device, a modeling system, or the like having the same characteristics as described above can be considered. In these cases as well, the same effect as described above can be obtained.
  • the feature of the present invention can be considered by applying it to a configuration for printing a two-dimensional (2D) image instead of a configuration for modeling a three-dimensional object.
  • the above-mentioned matters related to modeling can be replaced with matters related to printing.
  • a print data generation method, a printing method, a print data generation device, a printing system, etc. having the same features as described above can be considered. In these cases as well, the same effect as described above can be obtained.
  • various textures can be appropriately expressed in a modeled object.
  • FIG. 1A shows an example of the configuration of the modeling system 10.
  • FIG. 1B shows an example of the configuration of the main part of the modeling apparatus 12.
  • FIG. 1C shows an example of the configuration of the head portion 102 in the modeling apparatus 12.
  • FIG. 2A is a cross-sectional view showing an example of the configuration of the modeled object 50 modeled by the modeling apparatus 12.
  • FIG. 2B shows an example of the configuration of the colored region 154 in the modeled object 50.
  • FIG. 2B shows an example of the texture of a modeled object expressed by using a colored region 154.
  • FIG. 1A shows an example of the configuration of the modeling system 10.
  • FIG. 1B shows an example of the configuration of the main part of the modeling apparatus 12.
  • FIG. 1C shows an example of the configuration of the head portion 102 in the modeling apparatus 12.
  • FIG. 2A is a cross-sectional view showing an example of the configuration of the modeled object 50 modeled by the modeling apparatus 12.
  • FIG. 2B shows an example of the configuration of the colored
  • FIG. 3A is a cross-sectional view showing the composition of human skin in a simplified manner.
  • FIG. 3B shows an example of the configuration of the colored region 154 used when expressing the texture of the skin.
  • FIG. 3C shows an example in which the number of layers of each region constituting the colored region 154 is different. It is a figure explaining the operation which predicts a region composition using a trained model.
  • FIG. 4A shows an example of the configuration of the control PC 14.
  • FIG. 4B is a flowchart showing an example of an operation of generating modeling data in the control PC 14. It is a figure explaining the operation which generates a trained model.
  • FIG. 5A is a flowchart showing an example of the operation of generating the trained model.
  • FIG. 5B is a flowchart showing the operation of step S102 in more detail. It is a figure which explains the measurement performed with respect to the ink sample in more detail.
  • FIG. 6A is a photograph showing an example of an ink sample.
  • FIG. 6B shows an example of a photograph taken at the time of measurement with respect to the ink sample.
  • FIG. 6C shows a mathematical formula representing the dipole model used in this example. It is a figure explaining the simulation performed in this example in more detail. It is a figure which shows an example of the structure of the learning model used in the machine learning executed in this example.
  • FIG. 8A shows an example of the configuration of a deep neural network (DNN) used as a learning model.
  • DNN deep neural network
  • FIG. 8B shows examples of inputs, outputs, and intermediate outputs for the training model. It is a figure explaining the machine learning performed in this example.
  • FIG. 9A is a flowchart showing an example of an operation of causing the learning model to perform learning.
  • FIG. 9B shows an example of the learning curve of the decoder unit 604.
  • FIG. 9C shows an example of the learning curve of the encoder unit 602. It is a figure explaining the modification of the method of using the simulation acquisition data and the measurement acquisition data.
  • FIG. 10A is a flowchart showing a modified example of the operation of generating a trained model using the simulation acquisition data and the measurement acquisition data.
  • FIG. 10B shows a further modified example of how to use the simulation acquisition data and the measurement acquisition data.
  • FIG. 11A shows an example of the configuration of the modeling system 1010.
  • FIG. 11B shows an example of the configuration of the main part of the modeling execution unit 1012 in the modeling system 1010.
  • FIG. 11C shows an example of the configuration of the head unit 1102 in the modeling execution unit 1012.
  • FIG. 12A is a cross-sectional view showing an example of the configuration of the modeled object 1050.
  • FIG. 12B shows an example of the configuration of the colored region 1154 in the modeled object 1050.
  • FIG. 13A is a flowchart showing an example of an operation of modeling the modeled object 1050 in the modeling system 1010.
  • FIG. 13B is a flowchart showing an example of an operation in which the coloring configuration determination unit 1016 determines the configuration of the coloring region 1154. It is a figure explaining in more detail how to determine the thickness of the clear area 1304a-c.
  • FIG. 14A shows an example of an area operation screen which is a screen shown to the user when determining the thickness of the clear areas 1304a to 1c.
  • FIG. 14B shows an example of the default setting which is the setting of the thickness to be displayed first on the area operation screen.
  • FIG. 14A shows an example of an area operation screen which is a screen shown to the user when determining the thickness of the clear areas 1304a to 1c.
  • FIG. 14B shows an example of the default setting which is the setting of the thickness to be displayed first on the area operation screen.
  • FIG. 14 is a diagram illustrating in more detail how to determine the thickness of the clear regions 1304a to 1c.
  • 15 (a) and 15 (b) show an example of an operation of changing the setting of the thickness of the clear areas 1304a to 1c according to the instruction of the user. It is a figure which explains in more detail the operation which determines the color of a plurality of color regions 1302a, b in the coloring composition determination part 1016. It is a figure explaining the condition of the experiment performed by the inventors of this application.
  • FIG. 17A shows the configuration of the sample used as the evaluation target.
  • FIG. 17B shows adjective pairs used for subjective evaluation. It is a graph which shows the result of the factor analysis performed by the inventors of this application.
  • FIG. 19A shows a modified example of the configuration of the colored region 1154.
  • FIG. 19B shows a modified example of the configuration of the modeled object 1050. It is a figure which shows an example of the structure of the printed matter which includes a colored area 1154.
  • FIG. 1 is a diagram illustrating a modeling system 10 that executes a region configuration prediction method according to an embodiment of the present invention.
  • FIG. 1A shows an example of the configuration of the modeling system 10. Except as described below, the modeling system 10 may have the same or similar characteristics as known modeling systems.
  • the modeling system 10 is a system for modeling a three-dimensional modeled object, and includes a modeling device 12 and a control PC 14.
  • the modeling device 12 is a device that executes modeling of a modeled object, and uses ink as a modeling material, and by laminating layers of ink, the modeled object is modeled by a layered manufacturing method.
  • the additive manufacturing method is a method of forming a modeled object by stacking a plurality of layers.
  • the modeled object is, for example, a three-dimensional three-dimensional structure.
  • the ink can be considered, for example, a functional liquid or the like.
  • the ink is an example of a modeling material.
  • the ink can be considered, for example, a liquid discharged from the inkjet head.
  • the inkjet head is an ejection head that ejects a liquid by an inkjet method.
  • the modeling apparatus 12 uses inks of a plurality of colors different from each other to model a colored modeled object.
  • a modeling device 12 for example, a known modeling device can be preferably used. More specifically, as the modeling device 12, for example, a modeling device (3D printer) manufactured by Mimaki Engineering Co., Ltd. can be preferably used.
  • the ink an ultraviolet curable ink (UV ink) that is cured from a liquid state by irradiation with ultraviolet rays is used.
  • UV ink ultraviolet curable ink
  • the control PC 14 is a computer that operates according to a predetermined program, and controls the operation of the modeling device 12 by supplying modeling data indicating a modeled object to be modeled to the modeling device 12.
  • the control PC 14 generates modeling data by setting a desired texture or the like for the three-dimensional data indicating the shape or the like of the modeled object to be modeled.
  • the control PC 14 generates a computer graphic image (hereinafter referred to as a CG image) showing a modeled object based on the three-dimensional data, and while showing the CG image to a user such as a designer who created the three-dimensional data, the texture is displayed. Accept settings etc. from the user.
  • control PC 14 is an example of the area configuration prediction device. The operation of generating modeling data in the control PC 14 will be described in more detail later.
  • FIG. 1B shows an example of the configuration of the main part of the modeling apparatus 12.
  • the modeling apparatus 12 may have the same or similar characteristics as the known modeling apparatus. More specifically, except for the points described below, the modeling apparatus 12 is the same as or similar to a known modeling apparatus that performs modeling by ejecting droplets that are a material of the modeled object 50 using an inkjet head. It may have the characteristics of.
  • the modeling device 12 may further include various configurations necessary for modeling the modeled object 50, for example.
  • the modeling device 12 is a modeling device (3D printer) that models a three-dimensional modeled object 50 by a layered manufacturing method, and includes a head unit 102, a modeling table 104, a scanning drive unit 106, and a control unit 110. ..
  • the head portion 102 is a portion for discharging the material of the modeled object 50.
  • an ultraviolet curable ink is used as the material of the modeled object 50.
  • the ultraviolet curable ink is an example of an ink that is cured according to a predetermined condition. More specifically, the head portion 102 ejects ultraviolet curable ink from a plurality of inkjet heads as a material for the modeled object 50.
  • each layer constituting the modeled object 50 is formed in layers. Further, the head portion 102 further discharges the material of the support layer 52 in addition to the material of the modeled object 50. As a result, the head portion 102 forms a support layer 52 around the modeled object 50 and the like, if necessary.
  • the support layer 52 is a laminated structure that supports at least a part of the modeled object 50 being modeled. The support layer 52 is formed as needed at the time of modeling the modeled object 50, and is removed after the modeling is completed.
  • the modeling table 104 is a trapezoidal member that supports the modeling object 50 being modeled, is arranged at a position facing the inkjet head in the head portion 102, and the modeled object 50 and the support layer 52 being modeled are placed on the upper surface. do. Further, in this example, the modeling table 104 has a configuration in which at least the upper surface can be moved in the stacking direction (Z direction in the drawing), and is driven by the scanning drive unit 106 to model the modeled object 50. At least the upper surface is moved as the process progresses.
  • the stacking direction can be considered, for example, the direction in which the modeling materials are laminated in the additive manufacturing method. Further, in this example, the stacking direction is a direction orthogonal to the main scanning direction (Y direction in the drawing) and the sub scanning direction (X direction in the drawing) set in advance in the modeling apparatus 12.
  • the scanning drive unit 106 is a drive unit that causes the head unit 102 to perform a scanning operation that moves relative to the modeled object 50 being modeled.
  • moving relative to the modeled object 50 being modeled means moving relative to the modeling table 104.
  • having the head portion 102 perform the scanning operation means having the inkjet head included in the head portion 102 perform the scanning operation.
  • the scanning drive unit 106 causes the head unit 102 to perform a main scanning operation (Y scanning), a sub-scanning operation (X scanning), and a stacking direction scanning operation (Z scanning) as scanning operations.
  • the main scanning operation is an operation of ejecting ink while moving the head portion 102 relatively in the main scanning direction with respect to the modeled object 50 being modeled.
  • the sub-scanning operation is an operation of moving the head portion 102 relative to the modeled object 50 being modeled in the sub-scanning direction orthogonal to the main scanning direction.
  • the sub-scanning operation can be considered, for example, an operation of moving relative to the modeling table 104 in the sub-scanning direction by a preset feed amount.
  • the scanning drive unit 106 causes the head unit 102 to perform a sub-scanning operation between the main scanning operations.
  • the stacking direction scanning operation is an operation of moving the head portion 102 in the stacking direction relative to the modeled object 50 being modeled.
  • the scanning drive unit 106 adjusts the relative position of the inkjet head with respect to the modeled object 50 being modeled in the stacking direction by causing the head unit 102 to perform a stacking direction scanning operation in accordance with the progress of the modeling operation.
  • the control unit 110 is configured to include, for example, the CPU of the modeling device 12, and controls the modeling operation in the modeling device 12 by controlling each unit of the modeling device 12. More specifically, the control unit 110 controls each part of the modeling device 12 based on, for example, shape information of the modeled object 50 to be modeled, color information, and the like. According to this example, the modeled object 50 can be appropriately modeled.
  • the head portion 102 in the modeling apparatus 12 has, for example, the configuration shown in FIG. 1 (c).
  • FIG. 1C shows an example of the configuration of the head portion 102.
  • the head portion 102 has a plurality of inkjet heads, a plurality of ultraviolet light sources 124, and a flattening roller 126.
  • a plurality of inkjet heads as shown in the figure, there are an inkjet head 122s, an inkjet head 122w, an inkjet head 122y, an inkjet head 122m, an inkjet head 122c, an inkjet head 122k, and an inkjet head 122t.
  • each inkjet head has a nozzle row in which a plurality of nozzles are arranged in a predetermined nozzle row direction on a surface facing the modeling table 104.
  • the nozzle row direction is a direction parallel to the sub-scanning direction.
  • the inkjet head 122s is an inkjet head that ejects the material of the support layer 52.
  • the material of the support layer 52 a known material for the support layer can be preferably used.
  • the inkjet head 122w is an inkjet head that ejects white (W color) ink.
  • the white ink is an example of a light-reflecting ink, and is used, for example, when forming a region having a property of reflecting light (light-reflecting region) in the modeled object 50. This light reflection region reflects light incident from the outside of the modeled object 50, for example, when the surface of the modeled object 50 is colored in full color expression.
  • the full-color expression can be considered, for example, a color expression performed by a possible combination of the subtractive color mixing method using process color ink.
  • the inkjet head 122y, the inkjet head 122m, the inkjet head 122c, and the inkjet head 122k are coloring inkjet heads used when modeling the colored model 50, and are of a plurality of color inks (coloring inks) used for coloring. Each ink is ejected. More specifically, the inkjet head 122y ejects yellow (Y color) ink. The inkjet head 122m ejects magenta (M color) ink. The inkjet head 122c ejects cyan (C color) ink. Further, the inkjet head 122k ejects black (K color) ink.
  • each color of YMCK is an example of a process color used for full-color expression.
  • the ink of each color of YMCK is an example of a material for coloring a plurality of colors and a material for modeling a plurality of colors.
  • the inkjet head 122t is an inkjet head that ejects clear ink.
  • Clear ink is an ink that is colorless and transparent (T) with respect to visible light.
  • the plurality of ultraviolet light sources 124 are light sources (UV light sources) for curing the ink, and generate ultraviolet rays for curing the ultraviolet curable ink. Further, in this example, each of the plurality of ultraviolet light sources 124 is arranged on one end side and the other end side of the head portion 102 in the main scanning direction so as to sandwich an array of inkjet heads between them.
  • the ultraviolet light source 124 for example, a UV LED (ultraviolet LED) or the like can be preferably used. It is also conceivable to use a metal halide lamp, a mercury lamp, or the like as the ultraviolet light source 124.
  • the flattening roller 126 is a flattening means for flattening a layer of ink formed during modeling of the modeled object 50. The flattening roller 126 flattens the ink layer by contacting the surface of the ink layer and removing a part of the ink before curing during the main scanning operation.
  • the ink layer constituting the modeled object 50 can be appropriately formed. Further, by forming a plurality of layers of ink in layers, the modeled object 50 can be appropriately modeled.
  • the specific configuration of the head portion 102 is not limited to the configuration described above, and can be variously modified.
  • the head portion 102 may further have an inkjet head for colors other than the above as an inkjet head for coloring.
  • the arrangement of the plurality of inkjet heads in the head portion 102 can be variously modified. For example, some inkjet heads may be displaced from other inkjet heads in the sub-scanning direction.
  • FIG. 2 is a diagram illustrating the configuration of the modeled object 50.
  • FIG. 2A is a cross-sectional view showing an example of the configuration of the modeled object 50 modeled by the modeling apparatus 12.
  • FIG. 2B shows an example of the configuration of the colored region 154 in the modeled object 50.
  • the modeling device 12 models a modeled object 50 whose surface is colored at least partly.
  • the surface of the modeled object 50 can be considered as, for example, a region where colors can be visually recognized from the outside of the modeled object 50.
  • the modeling apparatus 12 models the modeled object 50 by the additive manufacturing method.
  • the modeling apparatus 12 forms the modeled object 50 by stacking layers of ink having a predetermined thickness in the stacking direction. More specifically, in this case, the modeling apparatus 12 forms the modeled object 50 by forming the ink layers shown as the modeling unit layer 502 in the drawing in layers.
  • the modeling device 12 models a modeled object 50 having an internal area 152 and a colored area 154.
  • the internal region 152 is a region constituting the interior of the modeled object 50, and is formed inside the modeled object 50 so as to be surrounded by the colored region 154.
  • the internal region 152 is formed as a region that also serves as a light-reflecting region by being formed of a light-reflecting ink such as white ink.
  • a light reflection region may be formed separately from the internal region 152.
  • the internal region 152 can be formed with, for example, an ink of any color. Further, in this case, the light reflection region is formed between the internal region 152 and the colored region 154.
  • the colored region 154 is an region to be colored in the modeled object 50, and the thickness (depth from the outer peripheral surface) in the normal direction on the surface of the modeled object 50 is increased by using inks of a plurality of colors for coloring. By being formed on the surface of the modeled object 50 so as to be constant, it is formed in a state of being colored in various colors. Further, in this example, the modeling apparatus 12 forms a colored region 154 in the modeled object 50 by using each color of CMYK and clear ink. Further, the modeling apparatus 12 may further use, for example, W color ink as the coloring ink.
  • the modeling apparatus 12 forms a colored region 154 having a structure in which a plurality of layered regions 202 overlap each other. Further, in this case, the modeling apparatus 12 is formed by individually coloring each layered region 202 with various colors. Further, the modeling device 12 forms the plurality of layered regions 202 so as to overlap each other in a direction parallel to the normal direction on the surface of the modeled object 50. In this case, the normal direction on the surface of the modeled object 50 can be considered as, for example, a direction orthogonal to the surface at each position on the surface of the modeled object 50. With this configuration, various textures can be expressed in the colored region 154. Further, in FIG. 2B, the difference in color of each layered region 202 is shown with different shaded patterns for convenience of illustration.
  • the layered region 202 constituting the colored region 154 can be considered as, for example, a region having a substantially constant thickness and extending in a direction orthogonal to the normal direction.
  • the modeling apparatus 12 models the modeled object 50 by the additive manufacturing method.
  • the modeling unit layer 502 which is a layer of each ink laminated by the additive manufacturing method, is used as it is as each layered region 202 constituting the colored region 154. It is conceivable to use it.
  • the colored region 154 is formed along the side surface so that the thickness in the normal direction is constant. Further, in this case, the structure of the colored region 154 is such that a plurality of layered regions 202 along the side surface are overlapped. Then, in this case, the layered region 202 can be considered as a layered region or the like different from the modeling unit layer 502. Further, the layered region 202 can be considered as a layered region or the like for expressing the texture in the colored region 154. Further, it is preferable that each layered region 202 constituting the colored region 154 is formed with a predetermined constant thickness.
  • the amount of ink is appropriately supplemented by using clear ink, which is a colorless and transparent ink, so that the thickness of the layered region 202 does not differ due to the difference in color of the layered region 202. ..
  • compensation using clear ink can be considered, for example, compensation for a difference in the amount of colored ink used due to a difference in color in each layered region 202.
  • various textures can be expressed in the colored region 154 by forming the colored region 154 having a structure in which a plurality of layered regions 202 are overlapped.
  • by expressing the transparency for example, it is conceivable to form a colored region 154 that reproduces the texture of human skin with high quality.
  • FIG. 3 is a diagram showing an example of the texture of a modeled object expressed using the colored region 154, and shows an example of the configuration of the colored region 154 when expressing the texture of human skin.
  • FIG. 3A is a cross-sectional view showing the composition of human skin in a simplified manner.
  • human skin has a multi-layered structure in which the dermis and epidermis are layered on the subcutaneous tissue. Therefore, in this example, for example, the texture of the skin is reproduced by using the colored region 154 in which the layered regions 202 are overlapped in the region configuration (layer structure) that imitates the multi-layered structure of the skin.
  • the region configuration can be considered, for example, a configuration corresponding to at least a part of the region of the modeled object.
  • FIG. 3B shows an example of the configuration of the colored region 154 used when expressing the texture of the skin.
  • the colored region 154 has a dermis region 302, an epidermis region 304, and a clear region 306, as shown in the figure.
  • the dermis region 302 is a region corresponding to the dermis in human skin. Further, in human skin, the dermis usually has a reddish color due to the influence of blood flowing through blood vessels in the subcutaneous tissue. Therefore, in this example, the dermis region 302 is formed by overlapping the layered regions 202 of the reddish color.
  • the epidermis region 304 is a region corresponding to the epidermis in human skin. In this case, the epidermis can be considered as, for example, a region showing a skin color which is the surface color of human skin. Therefore, the epidermis region 304 is formed by overlapping the layered regions 202 of the skin color system.
  • a clear region 306 which is a region formed by clear ink, is formed above (outside) the dermis region 302 and the epidermis region 304.
  • the clear region 306 is formed only with clear ink.
  • the clear region 306 is formed, for example, in a state where a small amount of colored ink is mixed, mainly using clear ink.
  • various textures can be expressed by changing the number of layers of the layered region 202 constituting each of the dermis region 302, the epidermis region 304, and the clear region 306, and the color of each layered region 202. Can be done.
  • FIG. 3C shows an example in which the number of layers of each region constituting the colored region 154 is different.
  • the number of layers of the layered region 202 constituting the dermis region 302 is 4
  • the number of layers of the layered region 202 constituting the epidermis region 304 is 2
  • the number of layers of the layered region 202 constituting the clear region 306 is 2.
  • An example is shown in the case where the number of layers of is 3.
  • the number of layers of the layered region 202 constituting the dermis region 302 is set to 3
  • the number of layers of the layered region 202 constituting the epidermis region 304 is set to 5
  • the number of layers of the layered region 202 constituting the clear region 306 is set to 5.
  • An example is shown when the number is 2.
  • various textures can be expressed by changing the number of layers and the color of the layered region 202 constituting each region, for example. Further, depending on the required texture, a part of these regions may be omitted.
  • the total of the layered regions 202 in the colored region 154 is preferably about 10 layers or less. Further, in this example, the total of the layered regions 202 constituting the colored region 154 is fixed to 10 layers. Therefore, when the number of layered regions 202 constituting any of the regions increases or decreases, the number of layered regions 202 constituting any of the other regions decreases or increases. With this configuration, for example, the thickness of the colored region 154 can be kept constant even when the texture expressed by the colored region 154 changes.
  • each layered region 202 constituting the dermis region 302 and the color of each layered region 202 constituting the epidermis region 304 may be selected from a color group prepared in advance.
  • the color group is a group including a plurality of colors.
  • the color group used in this example can be considered as, for example, a group including only a part of all the colors that can be expressed by the modeling apparatus 12 (see FIG. 1). In this case, as a color group corresponding to each region, it is conceivable to use a color group containing a combination of colors different from each other.
  • a color group including a color used in the layered region 202 constituting the dermis region 302 it is conceivable to use a color group including a plurality of reddish colors.
  • a color group including the color used in the layered region 202 constituting the epidermis region 304 it is conceivable to use a color group including a plurality of skin color systems.
  • various textures can be expressed by forming the colored region 154 having a structure in which the layered regions 202 colored with various colors are overlapped.
  • the model is used to predict the laminated configuration corresponding to the desired texture.
  • the region configuration corresponding to the laminated configuration is predicted.
  • the data for generating the trained model the data acquired by performing the computer simulation (hereinafter referred to as the simulation acquisition data) is used. Therefore, the operation of predicting the region configuration using the trained model, the operation of generating the trained model using the simulation acquisition data, and the like will be described below.
  • FIG. 4 is a diagram for explaining the operation of predicting the region configuration using the trained model.
  • the control PC 14 in the modeling system 10 predicts the area configuration.
  • the control PC 14 having the configuration shown in FIG. 4 (a).
  • FIG. 4A shows an example of the configuration of the control PC 14.
  • the control PC 14 has a display unit 402, a reception unit 404, a communication I / F unit 406, and a control unit 408.
  • the control PC 14 for example, it is conceivable to use a computer that operates according to a predetermined program. In this case, it can be considered that each part of the computer operates as each part of the control PC 14.
  • the display unit 402 is a display device that displays characters, images, and the like. As the display unit 402, for example, a computer monitor or the like can be preferably used. Further, in this example, the display unit 402 displays, for example, a CG image or the like showing a modeled object to be modeled by the modeling device 12 (see FIG. 1).
  • the reception unit 404 is an input device that receives a user's instruction. As the reception unit 404, for example, a computer input device (for example, a mouse, a keyboard, etc.) can be preferably used. Further, in this example, the reception unit 404 receives an instruction from the user to set the texture of the CG image displayed on the display unit 402, for example. Further, in this case, in this example, as the texture, the setting of the texture corresponding to the transparency is accepted.
  • the communication I / F unit 406 is an interface unit for communicating with an external device of the control PC 14.
  • the communication I / F unit 406 for example, a communication interface unit in a computer or the like can be preferably used.
  • the control PC 14 communicates with the modeling device 12 and other computers via the communication I / F unit 406.
  • the modeling device 12 for example, it is conceivable to supply modeling data.
  • the communication with other computers for example, communication with a computer storing the trained model can be considered.
  • the control PC 14 communicates with another computer via the communication I / F unit 406 to obtain a prediction result obtained by predicting, for example, the texture set in the CG image using the trained model. Get from another computer.
  • control PC 14 can appropriately perform a prediction operation using, for example, a trained model.
  • the prediction operation using the trained model can be considered as, for example, the prediction operation using the result of machine learning.
  • control PC 14 may perform prediction using the trained model by using a trained model stored in a storage unit or the like of the control PC 14 (not shown) without communicating with another computer, for example. ..
  • the control unit 408 is configured to control the operation of each unit in the control PC 14.
  • the control unit 408 for example, a computer CPU or the like can be preferably used.
  • the control PC 14 generates modeling data based on the texture set for the CG image by the user.
  • the control unit 408 predicts the region configuration of the modeled object 50 corresponding to the texture (desired texture) specified by the user, for example, based on the result of the prediction performed using the trained model. Then, modeling data is generated based on the predicted area configuration. Further, the control unit 408 supplies (outputs) the generated modeling data to the modeling device 12 via the communication I / F unit 406.
  • the modeling device 12 can appropriately perform modeling of a modeled object that reproduces a desired texture.
  • FIG. 4B is a flowchart showing an example of an operation of generating modeling data in the control PC 14.
  • the control PC 14 first displays a CG image showing a modeled object on the display unit 402, and receives an instruction to specify the texture from the user via the reception unit 404 (S102). ). Further, as a result, the control PC 14 sets the texture of the CG image.
  • Setting the texture on the CG image may mean, for example, setting the texture on at least a part of the objects shown by the CG image.
  • the texture to be set for the CG image as described above, the texture corresponding to the transparency is used.
  • the control PC 14 creates, for example, a CG image showing the modeled object based on the three-dimensional data indicating the shape of the modeled object, and displays it on the display unit 402.
  • the three-dimensional data for example, data showing the shape of the modeled object to be modeled in a general-purpose format can be preferably used.
  • a CG image in which the texture is set in advance may be received from the outside of the control PC 14.
  • the control PC 14 calculates a setting parameter which is a parameter corresponding to the texture set in the CG image based on the CG image in which the texture is set (S104).
  • the operation of step S104 is an example of the operation of the parameter calculation stage.
  • the control PC 14 calculates the setting parameters by, for example, performing a simulation (computer simulation) of irradiating the CG image with light.
  • a function indicating how the light spreads is used as the setting parameter corresponding to the texture.
  • a predetermined function for example, it can be considered that a value calculated by the predetermined function is used as a parameter.
  • a line spread function (LSF: Line Spread Function) is used as such a function.
  • the operation of calculating the setting parameter is an operation of setting the texture specified by the user for the CG image and then acquiring the LSF corresponding to the texture by simulation. For example, by performing a simulation of irradiating a CG image in which a texture is set with light (for example, a laser beam), an LS F corresponding to the texture is acquired. Further, as this simulation, for example, it is conceivable to perform a simulation of irradiating linear light in the same manner as in the case of measuring LSF on a sample (patch) or a modeled object actually created.
  • the LSF can be appropriately acquired from the transition of the pixel value by performing a simulation of irradiating the surface of the object shown by the CG image with point-like light with a spotlight.
  • PSF Point Spread Function
  • the control PC 14 acquires the laminated configuration (layout) corresponding to the setting parameters using the trained model created in advance (S106).
  • the laminated structure can be considered, for example, a structure in which a plurality of colored layered regions are overlapped.
  • this laminated structure may be considered as, for example, a structure used when creating a trained model in order to show how a plurality of layered regions 202 (see FIG. 2) constituting the colored region 154 of the modeled object 50 are overlapped. can.
  • this laminated structure for example, it corresponds to how the modeling unit layers 502 (see FIG.
  • the laminated structure of this example can be considered to be a structure in which ink layers are overlapped in an overlapping manner corresponding to the area configuration of the colored region 154 (see FIG. 2) in the modeled object 50.
  • step S106 can be considered as, for example, an operation of acquiring an output indicating the stacked configuration by using the setting parameters calculated in step S104 as inputs to the trained model.
  • using the setting parameter as an input can be considered, for example, giving a setting parameter expressed in a format that can be input to the trained model.
  • the laminated configuration corresponding to the texture set in the CG image can be appropriately acquired by using the trained model. Further, as a result, for example, it is possible to appropriately predict the laminated structure corresponding to the desired texture.
  • the control PC 14 predicts the region configuration in which the plurality of layered regions 202 overlap in the colored region 154 of the modeled object 50 based on the prediction result of the laminated configuration.
  • predicting the region configuration can be considered, for example, predicting the configuration of the colored region 154 for expressing the texture specified by the user.
  • the laminated structure predicted by using the trained model has a structure in which the ink layers are overlapped in an overlapping manner corresponding to the area configuration of the colored region 154 in the modeled object 50. And so on.
  • the control PC 14 predicts a configuration in which a plurality of layered regions 202 are overlapped in a stacking manner corresponding to the stacking style of the ink layers in the laminated configuration.
  • the region configuration can be appropriately predicted.
  • the control PC 14 can be considered to function as, for example, an area configuration prediction device.
  • the operation of step S106 is an example of the operation of the layered configuration acquisition stage.
  • the series of operations performed in steps S104 to S106 is an example of the operations in the area configuration prediction stage.
  • the region configuration prediction stage is, for example, a stage of predicting the region configuration corresponding to a desired texture.
  • the region configuration prediction stage may be considered as, for example, a stage of predicting a laminated configuration corresponding to a texture using a trained model and predicting a region configuration corresponding to a desired texture based on the laminated configuration.
  • the series of operations performed in S102 to S106 can be considered as an example of the operations in the region configuration prediction stage.
  • the control PC 14 After predicting the area configuration corresponding to the texture specified by the user, the control PC 14 generates modeling data indicating the modeled object to be modeled based on the prediction result (S108).
  • the operation of step S108 is an example of the operation of the modeling data generation stage.
  • the control PC 14 generates modeling data, for example, data for laminating ink layers on the modeling apparatus 12 so that the colored region 154 is formed in the region configuration acquired in step S106. According to this example, for example, it is possible to appropriately predict the region configuration corresponding to the desired texture. Further, by generating modeling data based on the prediction result of the region configuration, for example, the modeling device 12 can appropriately perform modeling of a modeled object that can obtain a desired texture.
  • FIG. 5 is a diagram illustrating an operation of generating a trained model.
  • FIG. 5A is a flowchart showing an example of the operation of generating the trained model.
  • the simulation acquisition data acquired by performing the simulation is used as the data for generating the trained model.
  • a parameter indicating the characteristics of the ink used for modeling in the modeling apparatus 12 is used.
  • the characteristics of this ink are acquired by creating an ink sample (3D printer ink sample) which is a sample corresponding to the ink of each color and performing a predetermined measurement on the ink sample.
  • an ink sample is prepared for ink of at least a part of the colors used in the modeling apparatus 12, and a predetermined measurement is performed on the ink sample to acquire the characteristics of the ink (S202). ).
  • the absorption coefficient and the scattering coefficient of the ink of each color are determined as the characteristics of the ink based on the result of this measurement.
  • the absorption coefficient and the scattering coefficient of the ink are not directly acquired by measurement, but are acquired by measuring a predetermined state reflecting the absorption coefficient and the scattering coefficient and performing a predetermined calculation process. do.
  • step S202 a simulation is executed using the characteristics of the ink acquired in step S202 (S204). Further, in this example, in this simulation, the texture expressed by each of the laminated configurations is predicted for a plurality of types of laminated configurations in which a plurality of layered regions colored with different configurations are overlapped. Further, in step S204, the relationship between the laminated structure and the predetermined texture is predicted by simulation.
  • step S204 is an example of the operation of the texture prediction stage.
  • step S204 for example, it is conceivable to use a texture corresponding to the transparency as the texture.
  • the transparency can be considered, for example, the transparency expressed by overlapping a plurality of layered regions.
  • a function indicating how the light spreads is used as a parameter indicating the texture expressed by the laminated structure.
  • a line spread function LSF
  • the data showing the relationship between the laminated structure and the texture based on the texture predicted by the simulation performed in step S204 can be considered as the simulation acquisition data.
  • the simulation can be considered as performing the prediction of the state corresponding to the specified input by the calculation by the computer.
  • the calculation on the computer can be considered as, for example, an operation of calculating the output corresponding to the input according to a predetermined rule.
  • this rule can be considered as, for example, a rule described by a mathematical formula.
  • a trained model is generated by causing a computer to perform machine learning using the result (S206).
  • a trained model is generated by machine learning based on the texture predicted in step S204 for a plurality of types of laminated configurations.
  • the trained model can be considered as a learning model or the like in which the relationship between the laminated structure and the texture is trained.
  • the operation of step S206 is an example of the operation of the learning stage.
  • step S206 for example, deep learning can be preferably used as the machine learning.
  • step S206 can be considered as, for example, a step of causing the learning target neural network, which is the learning target neural network, to perform learning.
  • a trained model used for predicting the region configuration can be appropriately created.
  • FIG. 5B is a flowchart showing the operation of step S202 in more detail.
  • an ink sample is prepared for the ink of at least a part of the colors used in the modeling apparatus 12 (S212).
  • ink samples are prepared for the inks of each color of YMCK and the clear inks.
  • the ink sample for each color can be considered as an example of the sample to be measured, for example.
  • the sample corresponding to the ink of each color of YMCK can be considered as an example of the sample corresponding to the material for coloring, for example.
  • the operation of step S212 is an example of the operation of each color sample preparation stage.
  • Each color sample preparation stage can be considered, for example, a stage of preparing a sample corresponding to a material for coloring each color.
  • the characteristics of the ink of each color are acquired by performing a predetermined measurement (S214), and the absorption coefficient and the scattering coefficient of the ink of each color are determined based on the result (S216).
  • the measurement performed on the ink sample and the method of determining the absorption coefficient and the scattering coefficient will be described in more detail later.
  • the operations performed in steps S214 and S216 are examples of operations in the coefficient determination stage.
  • the coefficient determination stage is considered to be, for example, a stage of determining the absorption coefficient and the scattering coefficient corresponding to each of the materials for coloring of a plurality of colors by measuring the optical characteristics of the sample prepared in each color sample preparation stage. be able to. According to this example, for example, by performing measurement on a small number of ink samples, the absorption coefficient and the scattering coefficient corresponding to the inks of each color can be appropriately determined.
  • FIG. 6 is a diagram for explaining in more detail the measurement and the like performed on the ink sample.
  • FIG. 6A is a photograph showing an example of an ink sample, and shows an example of an ink sample actually created by the inventor of the present application.
  • FIG. 6B shows an example of a photograph taken at the time of measurement with respect to the ink sample.
  • FIG. 6C shows a mathematical formula representing the dipole model used in this example.
  • ink samples are created for each color of YMCK ink and clear ink.
  • an ink sample of that color is created by forming a plurality of layers of ink of each color in layers.
  • the ink sample of each color can be considered as, for example, a sample in which layers of ink of one color are stacked.
  • a sample for a color other than the above may be further prepared. In this case, for example, it is conceivable to further prepare an ink sample for white.
  • the light scattering phenomenon is measured by irradiating the upper surface of each ink sample with light by a point light source and taking a picture of the ink sample. ..
  • the point light source laser light of red color (R color), green color (G color), and blue color (B color) is used.
  • the exposure times are 1/1000 second, 1/250 second, 1/60 second, 1/15 second, 1/4 second, 1 second, and 4 seconds, respectively.
  • the light source of the laser light a known smart beam laser projector or the like can be preferably used.
  • the photographing is performed by a known digital camera in a dark room. Further, in this case, it is preferable to mount a polarizing plate in front of the lens of the camera to reduce the influence of the surface reflection component. Further, when irradiating the laser beam, it is conceivable to reproduce the point light source in a pseudo manner by projecting an image having a high pixel value only in the center of the image with a projector and, for example, narrowing the projected light with a slit. In this case, the resolution of the projected image may be adjusted to the resolution of the projector.
  • the operation of taking a picture of the ink sample in this way can be considered as the operation of measuring the ink sample. Then, after measuring the ink sample in this way, the absorption coefficient and the scattering coefficient of the ink of each color are determined based on the photograph taken. Further, in this example, the absorption coefficient and the scattering coefficient are determined by applying the data shown by the photograph taken to the dipole model.
  • the scattering term can be considered as a term having an absorption coefficient and a scattering coefficient as parameters. Then, in this case, the absorption coefficient and the scattering coefficient can be estimated by approximating the result of measuring the scattering phenomenon with a dipole model.
  • the operation of determining the absorption coefficient and the scattering coefficient can be considered as, for example, an operation of estimating the absorption coefficient and the scattering coefficient using a dipole model. Further, in this case, for example, it is conceivable to determine the absorption coefficient and the scattering coefficient by fixing the values such as the anisotropic parameter and the relative refractive index to predetermined values and performing fitting to the dipole model. ..
  • correction may be made as necessary.
  • a correction for example, it is conceivable to perform a correction in consideration of the reflectance of each ink sample. Further, in this case, it is conceivable to separately measure and obtain the reflectance of the ink sample.
  • the dipole model is an example of a model showing the characteristics of the ink sample using the absorption coefficient and the scattering coefficient.
  • a model other than the dipole model may be used in the modified example of the method of determining the absorption coefficient and the scattering coefficient. Further, in this case, it is conceivable to perform the measurement for the ink sample according to the model to be used.
  • the absorption coefficient and the scattering coefficient corresponding to the inks of each color used in the modeling apparatus 12 can be appropriately determined.
  • this makes it possible to appropriately perform a simulation that reflects the characteristics of the ink to be used in the subsequent simulation.
  • FIG. 7 is a diagram for explaining the simulation performed in this example in more detail.
  • the texture is predicted by executing a simulation using the characteristics of the ink acquired in advance. Further, in this simulation, the texture expressed by each laminated configuration is predicted for a plurality of types of laminated configurations having different configurations. Further, in this case, for example, as shown in the figure, a laminated structure in which ink layers of various colors are laminated is considered, and the texture obtained by each laminated structure (texture expressed by the laminated structure) is of each color. Calculated by computer simulation using the ink absorption coefficient and scattering coefficient.
  • a laminated structure a structure in which a white layer as a base is used as the lowest layer and a predetermined number of layers are overlapped on the white layer is considered.
  • various colors that can be expressed by the combination of the plurality of colors of ink used in the modeling apparatus 12 are used.
  • the number of layers in the laminated structure may be the same as the number of layered regions 202 (see FIG. 2) constituting the colored region 154 (see FIG. 2) of the modeled object 50. Further, it is conceivable to select the color of each layer in the laminated structure from a color group prepared in advance.
  • a color group it is conceivable to use a color group including a plurality of types of colors used as the color of the layered region 202.
  • the coloring region 154 it is conceivable to use a region in which the layered regions 202 are overlapped in a region configuration imitating the multi-layered structure of human skin.
  • the laminated structure shown in FIG. 7 a structure in which layers corresponding to the layered regions 202 of the dermis region 302, the epidermis region 304, and the clear region 306 (see FIG. 3) are overlapped is used.
  • the color of each layered region 202 is area-wise. Make an expression.
  • the colors of each layer in the simulation performed in this example are expressed in volume by the ratio of the inks of each color contained in the unit volume.
  • the absorption coefficient and the scattering coefficient of the inks of each color are used, and the light scattering Monte Carlo simulation method (MCML method) is used to obtain the laminated structure. Predict the texture to be produced.
  • the light scattering Monte Carlo simulation method can be considered, for example, the Monte Carlo method for obtaining a solution of the transport equation when the target substance is a multilayer turbid medium.
  • the scattering and absorption generated for the incident light in each layer in the laminated structure are stochastically calculated to predict the reflected light. ..
  • the application of the light scattering Monte Carlo simulation method to the laminated structure can be performed in the same manner as or in the same manner as the known usage of the light scattering Monte Carlo simulation method.
  • a function indicating how the light spreads is used as a parameter indicating the texture predicted by this simulation.
  • a line spread function (LSF) is used.
  • LSF line spread function
  • FIG. 8 shows an example of the configuration of the learning model used in the machine learning executed in this example.
  • FIG. 8A shows an example of the configuration of a deep neural network (DNN) used as a learning model.
  • FIG. 8B shows examples of inputs, outputs, and intermediate outputs for the training model.
  • the learning model can be considered, for example, a model having parameters that are changed by performing machine learning.
  • the trained model can be considered as, for example, a learning model after adjusting the parameters by performing predetermined learning.
  • deep learning is used as machine learning.
  • DNN is used as the learning model.
  • the learning model for learning can be considered as an example of the neural network to be learned.
  • a neural network having an encoder unit 602 and a decoder unit 604 is used as a learning model.
  • the encoder unit 602 can be considered as, for example, a neural network or the like that takes a predetermined parameter as an input and outputs a predetermined parameter different from the input.
  • the decoder unit 604 can be considered as, for example, a neural network or the like in which the parameter output by the encoder unit 602 is used as an input and the same parameter as the input of the encoder unit 602 is output as an output.
  • the learning model used in this example can be considered as, for example, a neural network in which the encoder unit 602 and the decoder unit 604 are connected. It is conceivable to use a multi-layer neural network having three or more layers for each of the encoder unit 602 and the decoder unit 604.
  • the input to the encoder unit 602 can be considered as the input to the learning model (the entire learning model).
  • the output of the encoder unit 602 can be considered as an intermediate output in the learning model.
  • the output of the decoder unit 604 can be considered as the output of the learning model.
  • a line spreading function (LSF) is used as an input and an output of the learning model.
  • LSF line spreading function
  • each component of RGB as a vector having about 100 elements and use it as an input and an output.
  • the LSF used as the input and output of the learning model can be considered as an example of the parameter indicating the texture.
  • a parameter indicating a laminated configuration is used for the output of the encoder unit 602, which is the intermediate output of the learning model.
  • the laminated configuration is the laminated configuration used for predicting the texture by simulation, which was described with reference to FIG. 7.
  • a parameter indicating the laminated structure a parameter indicating the color of each layer stacked in the laminated structure is used.
  • the number of layers to be laminated in the laminated structure is fixed, and the laminated structure is shown by using a vector composed of numbers (color numbers) indicating the colors of the respective layers.
  • the color number for example, it is conceivable to prepare a color group including a plurality of colors and associate the number with each color included in the color group. Further, in FIG. 8B, for convenience of illustration, the difference in color of each layer is illustrated with different shaded patterns.
  • the number of layers in the laminated structure may be, for example, about 10 layers.
  • the color number an integer value associated with each color is used. Therefore, in the encoder unit 602, a soft quantization layer is provided immediately before the output so that the output value becomes a value close to an integer value.
  • the soft quantization layer can be considered, for example, a configuration in which the output value is brought close to an integer value by a differentiable function.
  • a known function used for such a purpose can be preferably used.
  • a substantially stepped function that changes smoothly so as to be differentiable.
  • FIG. 9 is a diagram illustrating machine learning performed in this example.
  • FIG. 9A is a flowchart showing an example of an operation of causing the learning model to perform learning.
  • the decoder unit 604 is trained first, and then the entire learning model is trained.
  • the weight in the decoder unit 604 is determined by having the decoder unit 604 learn the relationship between the laminated configuration and the texture using the simulation acquisition data (S302).
  • the correspondence between the laminated configuration and the texture is determined based on the texture calculated by simulation for various laminated configurations. It can be considered that the weight of the decoder unit 604 is adjusted so as to reproduce it.
  • the weight in the neural network such as the encoder unit 602 and the decoder unit 604 is a weight set between the neurons constituting the neural network.
  • step S302 is an example of the decoder unit learning stage.
  • step S306 the weight in the decoder unit 604 determined in step S302 is fixed, and the entire learning model is trained. Further, in this case, the weight in the encoder unit 602 is adjusted so that the input to the encoder unit 602 and the output from the decoder unit 604 are the same.
  • the encoder unit 602 will reflect the relationship between the laminated configuration and the texture indicated by the simulation acquisition data while maintaining the relationship between the laminated configuration and the texture learned by the decoder unit 604.
  • the weight can be adjusted.
  • the entire learning model can be appropriately trained based on the simulation acquisition data.
  • the operation of step S306 is an example of the operation of the overall learning stage. Further, in this case, the learning model trained in this way can be considered as a trained model used when predicting the layered configuration.
  • the parameter indicating the laminated structure is used as the intermediate output in the learning model. Therefore, when predicting the laminated structure, it is conceivable to use this intermediate output as a value indicating the laminated structure. With such a configuration, for example, it is possible to appropriately predict the laminated configuration corresponding to a desired texture. Further, this intermediate output is the output of the encoder unit 602 in the learning model. Therefore, the trained encoder unit 602 may be used as the trained model when predicting the laminated configuration. Also in this case, when creating the trained model, it is preferable to use the neural network having the encoder unit 602 and the decoder unit 604 as the training target neural network. Even in such a configuration, for example, it is possible to appropriately predict the laminated configuration corresponding to the desired texture.
  • the trained encoder unit 602 When the trained encoder unit 602 is used as the trained model, it seems that it is sufficient to train only the encoder unit 602 based on the simulation acquisition data without using the decoder unit 604. However, when learning based on the simulation acquisition data is directly performed by the encoder unit 602 without using the decoder unit 604, it is conceivable that it takes more time to complete the learning. Further, for example, it is conceivable that the number of required simulation acquisition data will increase significantly. Further, in this case, even if the number of simulation acquisition data is significantly increased, the learning may not be completed properly. On the other hand, according to this example, for example, by setting the weight of the decoder unit 604 first and then adjusting the weight of the encoder unit 602, the encoder unit 602 can be learned efficiently and appropriately. be able to.
  • FIG. 9B shows an example of the learning curve of the decoder unit 604.
  • FIG. 9C shows an example of the learning curve of the encoder unit 602.
  • the horizontal axis is the number of epochs.
  • the vertical axis shows the output result of the loss function.
  • the learning curve of the encoder unit 602 can be considered as, for example, the learning curve of the entire learning model in which the encoder unit 602 and the decoder unit 604 are combined.
  • the learning has converged early in the decoder unit 604.
  • the encoder unit 602 also converges when the number of epochs approaches 20.
  • both the encoder unit 602 and the decoder unit 604 can estimate the validation data with sufficiently high accuracy.
  • the loss value for the test data divided earlier was 0.1460, and it was possible to estimate the unknown data with the same accuracy as the training data. Further, it was confirmed that the loss value at the time when the learning converged on the encoder unit 602 was sufficiently small, and the stacking configuration could be predicted appropriately.
  • the trained model is generated by using the simulation acquisition data acquired by the simulation. Then, in this case, for example, a large number of data necessary for learning can be appropriately prepared without actually preparing a large number of samples or performing measurement on a large number of samples. Further, as a result, for example, the time and effort required to generate the trained model can be appropriately reduced.
  • the trained model may be generated by further using the data other than the simulation acquisition data.
  • data acquired by actually creating a sample (patch) and performing measurement (hereinafter referred to as measurement acquisition data). )
  • measurement acquisition data is acquired by actually creating a sample corresponding to various laminated configurations and performing measurement on the sample corresponding to a texture such as transparency (texture of interest).
  • the trained model is generated by training the learning model using the simulation acquisition data and the measurement acquisition data. Even in this configuration, by using the simulation acquisition data, the number of required samples can be significantly reduced as compared with the case where a trained model is generated using only the measurement acquisition data, for example.
  • the measurement acquisition data can be considered as, for example, data showing the relationship between the laminated structure and the texture acquired by measuring the optical characteristics of the sample prepared by using a modeling apparatus or the like. ..
  • a learning model for example, it is conceivable to generate a trained model by using the simulation acquisition data and the measurement acquisition data without distinguishing them.
  • using the simulation acquisition data and the measurement acquisition data without distinguishing them is handled depending on whether each data is the simulation acquisition data or the measurement acquisition data at the time of learning to generate the trained model. Treat it in the same way without changing the direction.
  • such an operation can be considered as, for example, an operation of increasing the number of data used for learning by adding measurement acquisition data. With this configuration, for example, simulation acquisition data and measurement acquisition data can be used easily and appropriately.
  • the simulation acquisition data can be considered as, for example, data that can more easily create a large number of data.
  • the measurement acquisition data can be considered as, for example, data showing the relationship between the texture and the laminated structure with higher accuracy.
  • FIG. 10 is a diagram illustrating a modified example of how to use the simulation acquisition data and the measurement acquisition data.
  • FIG. 10A is a flowchart showing a modified example of the operation of generating a trained model using the simulation acquisition data and the measurement acquisition data.
  • step S402 learning using simulation acquisition data (initial learning) is performed to generate a learning model in which learning is advanced (S402), and learning using measurement acquisition data is performed on the learning model (S402). Additional learning) is performed (S404).
  • Such an operation can be considered as, for example, an operation of adjusting the learning model reflecting the simulation acquisition data by using the measurement acquisition data.
  • the operation of step S402 is an example of the operation of the first learning stage.
  • the first learning stage can be considered, for example, a stage in which learning using simulation acquisition data is performed on the learning model without using measurement acquisition data.
  • an intermediate generation model which is a learning model reflecting the simulation acquisition data, is generated by learning using the measurement acquisition data.
  • step S404 is an example of the operation of the second learning stage.
  • the second learning stage can be considered, for example, a stage in which learning using the measurement acquisition data is performed on the learning model after the first learning stage.
  • the trained model is generated by further learning the intermediate generation model generated in step S402 using the measurement acquisition data.
  • the simulation acquisition data and the measurement acquisition data can be appropriately used so as to make the best use of their respective characteristics.
  • a trained model that reflects the characteristics of the actually prepared sample can be efficiently created.
  • a trained model capable of predicting the relationship between the texture and the laminated structure with higher accuracy can be appropriately generated.
  • the operation of generating the trained model in this modified example can be considered as, for example, the operation of performing transfer learning.
  • the intermediate generative model generated in step S402 can be considered as, for example, the first trained model generated by learning using the simulation acquisition data.
  • the trained model generated in step S402 can be considered as a second trained model generated by transfer learning using the measurement acquisition data and the first trained model. Further, in this case, by performing transfer learning by such a method, a trained model that reflects the measured and acquired data can be efficiently and appropriately created as compared with the case of performing learning using only the measured and acquired data, for example. can do.
  • step S402 when a neural network having an encoder unit 602 and a decoder unit 604 (see FIG. 8) as shown in FIG. 8A is used as a learning model, simulation acquisition data and measurement acquisition data are used according to the configuration of the learning model. It is also possible to use it.
  • step S402 it is conceivable to have the decoder unit 604 perform learning using the measurement acquisition data.
  • step S404 it is conceivable that the learning using the simulation acquisition data is performed on the entire learning model.
  • the operation of step S402 is also an example of the decoder unit learning stage.
  • the operation of step S404 is also an example of the overall learning stage.
  • the simulation acquisition data and the measurement acquisition data can be appropriately used according to the configuration of the learning model. Further, as a result, for example, a trained model that reflects the characteristics of the actually prepared sample can be efficiently created.
  • step S404 it is conceivable to have the decoder unit 604 perform learning using the measurement acquisition data and without using the simulation acquisition data.
  • the decoder unit 604 which determines the weight first, can be trained to more appropriately reflect the measurement acquisition data.
  • step S404 in the learning in step S404 performed after that, as described above, the weight of the decoder unit 604 is fixed and the learning is performed. Therefore, with this configuration, the learning that reflects the measurement acquisition data can be appropriately performed even in the learning performed in step S404. Further, in the learning performed on the entire learning model in step S404, it is considered that a large number of training data is preferable. Therefore, in step S404, it is conceivable to have the learning model perform learning using the simulation acquisition data and the measurement acquisition data. Further, depending on the purpose of learning and the like, in step S404, the learning model may be trained using the simulation acquisition data and without using the measurement acquisition data.
  • simulation acquisition data and the measurement acquisition data are not used as learning data of the same learning model, but may be used as learning data for learning models different from each other, for example, as shown in FIG. 10 (b).
  • FIG. 10B shows a further modified example of how to use the simulation acquisition data and the measurement acquisition data.
  • the trained model a prediction model used for predicting the laminated configuration (layout) from the texture (LSF, etc.) and a confirmation model used for confirming the texture corresponding to the laminated configuration are used.
  • the prediction model for example, the trained model for prediction of the laminated structure described above can be preferably used.
  • the prediction model when the prediction model is created, the learning model is trained using the simulation acquisition data and without using the measurement acquisition data.
  • the prediction model for example, a trained model created by training the learning model described with reference to FIG. 8 or the like using simulation acquisition data can be preferably used.
  • the confirmation model is a trained model used to confirm the prediction result in the prediction model.
  • the confirmation model for example, a neural network or the like corresponding to the decoder unit 604 in the learning model described with reference to FIG. 8 or the like can be preferably used. Further, in this modified example, when the confirmation model is created, the learning model is trained using the measurement acquisition data and without using the simulation acquisition data.
  • this modification for example, at the time of predicting the laminated configuration, it is conceivable to predict the laminated configuration using the prediction model and then confirm the prediction result using the confirmation model. .. For example, it is conceivable to further use the laminated configuration output by the prediction model as an input of the confirmation model. Then, it is conceivable to compare the output of the confirmation model with the desired texture (LSF or the like) used as the input of the prediction model. With this configuration, for example, it is possible to more appropriately confirm whether or not the result of the prediction of the laminated structure performed using the prediction model is the result of obtaining a desired texture. Further, in this case, if necessary, for example, it is conceivable to adjust the result of prediction of the laminated structure so as to obtain a desired texture. With this configuration, for example, a laminated configuration corresponding to a desired texture can be obtained more appropriately.
  • the learning result is used to create a sample to be measured. It is also conceivable to do. For example, it is conceivable to confirm the amount of learning data required for learning by performing learning using simulation acquisition data. Further, in this case, it is conceivable to prepare a sample used for acquiring the measurement acquisition data according to the required amount of the confirmed learning data. With this configuration, for example, it is possible to appropriately acquire the amount of measurement acquisition data required for learning without preparing an unnecessarily large number of samples.
  • the control PC 14 (see FIG. 1) is an example of the area configuration prediction device. Further, for example, as shown in FIG. 4A, in this example, the control PC 14 includes a display unit 402, a reception unit 404, a communication I / F unit 406, and a control unit 408. In this case, the control unit 408 operates as each unit of the area configuration prediction device by operating according to a predetermined program, for example.
  • control unit 408 operates as, for example, a texture prediction unit, a trained model creation unit, a region configuration prediction unit, a modeling data generation unit, and the like by operating according to a predetermined program.
  • the texture prediction unit can be considered, for example, a configuration for executing an operation in the texture prediction stage.
  • the trained model creation unit can be considered, for example, a configuration for executing an operation in the learning stage.
  • the area configuration prediction unit can be considered, for example, a configuration for executing the operation of the area configuration prediction stage.
  • the modeling data generation unit can be considered, for example, a configuration for executing an operation in the modeling data generation stage.
  • the control unit 408 may operate as each configuration of the region configuration prediction device for other configurations in the control PC 14.
  • the operation of predicting the laminated structure mainly the operation of predicting the laminated structure corresponding to a partial area configuration of the modeled object to be modeled by the modeling apparatus 12 (see FIG. 1) has been described. ..
  • the laminated structure corresponding to at least a part of the region structure of the object other than the modeled object may be predicted.
  • a printing device for example, an inkjet printer
  • the overlapping method of the ink layers formed on the medium may be considered as the region configuration, and the stacking configuration corresponding to such the region configuration may be predicted.
  • the composition of the surface of the three-dimensional shape formed on the medium is defined as an area.
  • the laminated configuration corresponding to such a region configuration may be predicted. In these cases as well, by using the trained model created in the same manner as described above, it is possible to appropriately predict the laminated configuration and the like.
  • FIG. 11 is a diagram illustrating a modeling system 1010 that executes a method for generating modeling data according to an embodiment of the present invention.
  • FIG. 11A shows an example of the configuration of the modeling system 1010. Except as described below, the modeling system 1010 may have the same or similar characteristics as known modeling systems.
  • the modeling system 1010 is a system for modeling a three-dimensional modeled object, and includes a modeling execution unit 1012, a modeling data generation unit 1014, and a coloring composition determination unit 1016.
  • the modeling execution unit 1012 is configured to execute modeling of a modeled object in the modeling system 1010, and uses ink as a modeling material, and by laminating ink layers, the modeled object is modeled by a layered manufacturing method.
  • the additive manufacturing method can be considered as a method of forming a modeled object by stacking a plurality of layers.
  • the modeled object can be considered, for example, a three-dimensional three-dimensional structure or the like.
  • the ink can be considered, for example, a functional liquid or the like.
  • the ink is an example of a modeling material.
  • the ink can be considered, for example, a liquid discharged from the inkjet head.
  • the inkjet head is an ejection head that ejects a liquid by an inkjet method.
  • the modeling execution unit 1012 uses inks of a plurality of colors different from each other to model a colored modeled object.
  • a modeling execution unit 1012 for example, a known modeling apparatus can be preferably used. More specifically, as the modeling execution unit 1012, for example, a modeling device (3D printer) manufactured by Mimaki Engineering Co., Ltd. can be preferably used.
  • the ink an ultraviolet curable ink (UV ink) that is cured from a liquid state by irradiation with ultraviolet rays is used. Further, in this example, the modeling execution unit 1012 executes the modeling operation based on the modeling data received from the modeling data generation unit 1014.
  • UV ink ultraviolet curable ink
  • the modeling data can be considered, for example, data indicating a modeled object to be modeled by the modeling device. More specifically, in this example, as the modeling data, data indicating the configuration of each region constituting the modeled object is used. Further, in this case, the modeling data shows at least the configuration of the colored region, which is the region to be colored in the modeled object. The configuration of the colored region in this example will be described in more detail later.
  • the modeling execution unit 1012 can be considered as an example of the modeling device. Further, depending on the configuration of the modeling system 1010, the entire modeling system 1010 can be considered as an example of the modeling device. Further, for example, a portion in which the modeling execution unit 1012 and the modeling data generation unit 1014 are combined can be considered as an example of the modeling apparatus. Further, in this example, the modeling execution unit 1012 forms an ink layer corresponding to the slice data by ejecting ink based on the slice data indicating the cross section of the modeled object.
  • the modeling execution unit 1012 forms a layer of ink constituting each position of the modeled object in the stacking direction based on the slice data showing the cross sections of the modeled objects at different positions in the stacking direction.
  • the stacking direction can be considered to be the direction in which the modeling materials are laminated in the additive manufacturing method.
  • the modeling data generation unit 1014 has a configuration for generating modeling data to be supplied to the modeling execution unit 1012, and by supplying the modeling data to the modeling execution unit 1012, the operation of modeling executed by the modeling execution unit 1012 is controlled.
  • the modeling data generation unit 1014 for example, a computer or the like that operates according to a predetermined program can be preferably used.
  • the modeling data generation unit 1014 generates modeling data based on the configuration of the coloring region determined by the coloring composition determination unit 1016. More specifically, in this example, the modeling data generation unit 1014 generates modeling data indicating a modeled object having a colored region having a configuration determined by the coloring composition determination unit 1016, and transmits the modeling data to the modeling execution unit 1012. By supplying the data, the modeling execution unit 1012 is made to model a modeled object having a colored region having a configuration determined by the modeling execution unit 1012.
  • the modeling data generated by the modeling data generation unit 1014 can be considered as, for example, data indicating the shape of the modeled object and the color of each position of the modeled object. Further, in this example, the modeling data indicates the color of each position of the entire modeled object including the inside of the modeled object as the color of each position of the modeled object. Further, as described above, in this example, the modeling execution unit 1012 performs modeling of the modeled object based on the slice data. In this case, the modeling data generation unit 1014 generates slice data as modeling data, for example. Regarding the generation of slice data as modeling data, it can be considered that the data showing each cross section of each position of the modeled object is generated as modeling data for the configuration determined by the coloring composition determining unit 1016.
  • the slice data is generated by the modeling execution unit 1012.
  • the modeling data generation unit 1014 generates modeling data that collectively shows the entire modeled object.
  • the modeling execution unit 1012 generates slice data by performing a slicing process for separating the modeling data received from the modeling data generation unit 1014.
  • the modeling data generated by the modeling data generation unit 1014 can be considered as data indicating a modeled object in a state before the slicing process is performed.
  • the coloring configuration determination unit 1016 is a configuration for determining the configuration of the coloring region in the modeled object, and by transmitting the configuration of the determined coloring region to the modeling data generation unit 1014, the modeling object including the coloring region having the determined configuration is shown.
  • the modeling data is generated by the modeling data generation unit 1014.
  • the coloring composition determination unit 1016 for example, a computer or the like that operates according to a predetermined program can be preferably used. Further, in this case, as the computer for the coloring configuration determination unit 1016, for example, a dedicated computer different from that for the modeling data generation unit 1014 may be used, and a computer (one computer) common to that for the modeling data generation unit 1014. May be used. Further, in this example, the coloring composition determining unit 1016 determines the composition of the coloring region for expressing a desired texture. The configuration of the colored region determined by the coloring configuration determining unit 1016 will be described in more detail later.
  • FIG. 11B shows an example of the configuration of the main part of the modeling execution unit 1012.
  • the modeling execution unit 1012 may have the same or similar characteristics as the known modeling apparatus. More specifically, except for the points described below, the modeling execution unit 1012 is the same as or the same as a known modeling apparatus that performs modeling by ejecting droplets that are the material of the modeled object 1050 using an inkjet head. It may have similar characteristics.
  • the modeling execution unit 1012 may further include various configurations necessary for modeling the modeled object 1050 and the like.
  • the modeling execution unit 1012 is a modeling device (3D printer) that models a three-dimensional modeled object 1050 by a laminated modeling method, and is a head unit 1102, a modeling table 1104, a scanning drive unit 1106, and a modeling control unit 1110. To be equipped.
  • the head portion 1102 is a portion for discharging the material of the modeled object 1050.
  • an ultraviolet curable ink is used as the material of the modeled object 1050.
  • the ultraviolet curable ink is an example of an ink that is cured according to a predetermined condition. More specifically, the head portion 1102 ejects ultraviolet curable ink from a plurality of inkjet heads as a material for the modeled object 1050.
  • each layer constituting the modeled object 1050 is formed in layers. Further, the head portion 1102 further discharges the material of the support layer 1052 in addition to the material of the modeled object 1050. As a result, the head portion 1102 forms a support layer 1052 around the modeled object 1050 or the like, if necessary.
  • the support layer 1052 is a laminated structure that supports at least a part of the modeled object 1050 being modeled. The support layer 1052 is formed as needed at the time of modeling the modeled object 1050, and is removed after the modeling is completed.
  • the modeling table 1104 is a trapezoidal member that supports the modeled object 1050 being modeled, is arranged at a position facing the inkjet head of the head portion 1102, and the modeled object 1050 and the support layer 1052 being modeled are placed on the upper surface. do. Further, in this example, the modeling table 1104 has a configuration in which at least the upper surface can be moved in the stacking direction (Z direction in the drawing), and is driven by the scanning drive unit 1106 to model the modeled object 1050. At least the upper surface is moved as the process progresses. Further, in this example, the stacking direction is a direction orthogonal to the main scanning direction (Y direction in the figure) and the sub scanning direction (X direction in the drawing) set in advance in the modeling execution unit 1012.
  • the scanning drive unit 1106 is a drive unit that causes the head unit 1102 to perform a scanning operation that moves relative to the modeled object 1050 being modeled.
  • moving relative to the modeled object 1050 being modeled means moving relative to the modeling table 1104.
  • having the head portion 1102 perform a scanning operation means having the inkjet head of the head portion 1102 perform a scanning operation.
  • the scanning drive unit 1106 causes the head unit 1102 to perform a main scanning operation (Y scanning), a sub-scanning operation (X scanning), and a stacking direction scanning operation (Z scanning) as scanning operations.
  • the main scanning operation can be considered as an operation of ejecting ink while moving the head portion 1102 relatively in the main scanning direction with respect to the modeled object 1050 being modeled.
  • the sub-scanning operation can be considered as an operation of moving the head portion 1102 relative to the modeled object 1050 being modeled in the sub-scanning direction orthogonal to the main scanning direction. Further, the sub-scanning operation can be considered, for example, an operation of moving relative to the modeling table 1104 in the sub-scanning direction by a preset feed amount.
  • the scanning drive unit 1106 causes the head unit 1102 to perform a sub-scanning operation between the main scanning operations.
  • the stacking direction scanning operation is an operation of moving the head portion 1102 in the stacking direction relative to the modeled object 1050 being modeled.
  • the scanning drive unit 1106 causes the head unit 1102 to perform the stacking direction scanning operation in accordance with the progress of the modeling operation by moving the modeling table 1104 in the stacking direction, for example. As a result, the scanning drive unit 1106 adjusts the relative position of the inkjet head with respect to the modeled object 1050 being modeled in the stacking direction.
  • the modeling control unit 1110 has a configuration including, for example, the CPU of the modeling execution unit 1012, and controls the modeling operation in the modeling execution unit 1012 by controlling each unit of the modeling execution unit 1012. Further, in this example, the modeling control unit 1110 executes modeling so that a modeled object 1050 having a colored region having a configuration determined by the modeling executing unit 1012 is modeled based on the modeling data received from the modeling data generation unit 1014. Each part of the part 1012 is controlled. According to this example, the modeled object 1050 can be appropriately modeled.
  • the head portion 1102 of the modeling execution unit 1012 has, for example, the configuration shown in FIG. 11 (c).
  • FIG. 11C shows an example of the configuration of the head portion 1102.
  • the head portion 1102 has a plurality of inkjet heads, a plurality of ultraviolet light sources 1204, and a flattening means 1206.
  • a plurality of inkjet heads as shown in the figure, there are an inkjet head 1202s, an inkjet head 1202w, an inkjet head 1202y, an inkjet head 1202m, an inkjet head 1202c, an inkjet head 1202k, and an inkjet head 1202t.
  • each inkjet head has a nozzle row in which a plurality of nozzles are arranged in a predetermined nozzle row direction on a surface facing the modeling table 1104.
  • the nozzle row direction is a direction parallel to the sub-scanning direction.
  • the inkjet head 1202s is an inkjet head that ejects the material of the support layer 1052.
  • the material of the support layer 1052 a known material for the support layer can be preferably used.
  • the inkjet head 1202w is an inkjet head that ejects white (W color) ink.
  • the white ink is an example of a light-reflecting ink, and is used, for example, when forming a region having a property of reflecting light (light-reflecting region) in the modeled object 1050. This light reflection region reflects light incident from the outside of the modeled object 1050, for example, when the surface of the modeled object 1050 is colored in full color expression.
  • the full-color expression can be considered, for example, a color expression performed by a possible combination of the subtractive color mixing method using process color ink.
  • the inkjet head 1202y, the inkjet head 1202m, the inkjet head 1202c, and the inkjet head 1202k are coloring inkjet heads used when modeling a colored model 1050, and are used for coloring a plurality of color inks (colored inks for coloring). ), Each ink is ejected. More specifically, the inkjet head 1202y ejects yellow (Y color) ink. The inkjet head 1202 m ejects magenta (M color) ink. The inkjet head 1202c ejects cyan (C color) ink. Further, the inkjet head 1202k ejects black (K color) ink.
  • each color of YMCK is an example of a process color used for full-color expression.
  • the ink of each color of YMCK is an example of a material for coloring a plurality of colors and a material for modeling a plurality of colors.
  • the inkjet head 1202t is an inkjet head that ejects clear ink.
  • the clear ink can be considered as a colorless and transparent (T) ink with respect to visible light.
  • the plurality of ultraviolet light sources 1204 are light sources (UV light sources) for curing ink, and generate ultraviolet rays that cure ultraviolet curable ink. Further, in this example, each of the plurality of ultraviolet light sources 1204 is arranged on one end side and the other end side of the head portion 1102 in the main scanning direction so as to sandwich an array of inkjet heads between them.
  • the ultraviolet light source 1204 for example, a UV LED (ultraviolet LED) or the like can be preferably used. It is also conceivable to use a metal halide lamp, a mercury lamp, or the like as the ultraviolet light source 1204.
  • the flattening means 1206 is a flattening means for flattening a layer of ink formed during modeling of the modeled object 1050. The flattening means 1206 flattens the ink layer by contacting the surface of the ink layer and removing a part of the ink before curing, for example, during the main scanning operation.
  • the ink layer constituting the modeled object 1050 can be appropriately formed. Further, by forming a plurality of layers of ink on top of each other, the modeled object 1050 can be appropriately modeled.
  • the specific configuration of the head portion 1102 is not limited to the configuration described above, and can be variously modified.
  • the head portion 1102 may further have an inkjet head for colors other than the above as an inkjet head for coloring.
  • the arrangement of the plurality of inkjet heads in the head portion 1102 can be variously modified. For example, some inkjet heads may be displaced from other inkjet heads in the sub-scanning direction.
  • FIG. 12 is a diagram illustrating a configuration of a modeled object 1050 modeled by the modeling execution unit 1012 (see FIG. 11).
  • FIG. 12A is a cross-sectional view showing an example of the configuration of the modeled object 1050.
  • FIG. 12B is a diagram showing an example of the configuration of the colored region 1154 in the modeled object 1050, and shows an example of the configuration of the cross section of the colored region 1154 together with the light reflection region 1152.
  • the modeling execution unit 1012 models a modeled object 1050 in which at least a part of the surface is colored.
  • the surface of the modeled object 1050 can be considered as, for example, a region where colors can be visually recognized from the outside of the modeled object 1050. More specifically, in this example, the modeling execution unit 1012 models a modeled object 1050 having a light reflection region 1152 and a colored region 1154, for example, as shown in the drawing.
  • the light reflection region 1152 is a light reflective region formed inside the coloring region 1154 and reflecting at least visible light.
  • the light reflection region 1152 functions as a background of the colored region 1154 by being formed of white ink containing a white pigment such as titanium oxide so as to be surrounded by the colored region 1154.
  • the light reflection region 1152 is formed as a region that also serves as an internal region constituting the interior of the modeled object 1050.
  • an internal region may be formed separately from the light reflection region 1152. In this case, it is conceivable that the light reflection region 1152 is formed between the internal region and the colored region 1154.
  • the internal region may be formed of any ink other than the material of the support layer 1052 ejected from the inkjet head 1202s (see FIG. 11).
  • the colored region 1154 is a region to be colored in the modeled object 1050, and is formed in a state of being colored in various colors by being formed on the surface of the modeled object 1050 using inks of a plurality of colors for coloring. Will be done. Further, in this example, the modeling execution unit 1012 forms a colored region 1154 in the modeled object 1050 by using, for example, inks of each color of YMCK and clear ink. The modeling execution unit 1012 may further use, for example, W color ink as the coloring ink. Further, in this example, the modeling execution unit 1012 forms a colored region 1154 having a configuration in which a plurality of color regions 1302 and a plurality of clear regions 1304 overlap, for example, as shown in FIG.
  • each of the plurality of color regions 1302 and the plurality of clear regions 1304 is a layered region that overlaps in a direction parallel to the normal direction, which is a direction orthogonal to the surface of the modeled object 1050.
  • the layered region can be considered, for example, a region having a substantially constant thickness and extending in a direction orthogonal to the normal direction.
  • the fact that the thickness is substantially constant can be considered, for example, to be considered to be constant within a range corresponding to the required coloring quality and the like.
  • the normal direction can be considered as, for example, a direction orthogonal to the surface at each position on the surface of the modeled object 1050.
  • FIG. 12B for convenience of illustration, an example of the configuration of the colored region 1154 is shown in the range where the normal directions are aligned in the same direction.
  • the normal direction changes depending on the position of the surface of the modeled object 1050.
  • each of the plurality of color regions 1302 and the plurality of clear regions 1304 are oriented in a direction parallel to the normal direction. It will overlap.
  • the colored region 1154 has two color regions 1302 as shown in the drawing in which the color region 1302a and the color region 1302b are distinguished from each other. Further, as shown in the drawing, the clear area 1304a, the clear area 1304b, and the clear area 1304c are distinguished and have three clear areas 1304.
  • the color region 1302a is an example of a first color region that is colored using a coloring material.
  • the color region 1302b is an example of a second color region that is colored by using a coloring material inside the first color region in the modeled object.
  • the clear regions 1304a to 1304 are examples of translucent regions formed by using a transparent material in a state of higher translucency than the first color region and the second color region.
  • the clear regions 1304a to c are examples of translucent regions formed inside the first color region in the modeled object. As shown in the figure, these color regions 1302 and clear regions 1304 are formed so that the clear regions 1304 and the color regions 1302 alternately overlap each other outside the light reflection region 1152.
  • the thicknesses of the clear regions 1304a to 1c may be different from each other.
  • the color of the color region 1302a and the color of the color region 1302a are determined by independently determining the color of the color region 1302a and the color of the color region 1302b. Different from the color of 1302b. It can be considered that the color regions 1302a and 1302a and b are individually colored with various colors to form the color regions 1302a and b.
  • the amount of ink is appropriately supplemented by using clear ink so that the thicknesses of the color regions 1302a and b do not change due to the difference in color.
  • Compensation using clear ink can be considered, for example, compensation for a difference in the amount of colored ink used caused by a difference in color in the color regions 1302a and b.
  • the color regions 1302a and b can be considered as regions formed by using the colored ink for coloring and the clear ink.
  • the color regions 1302a and 1302a and b can be considered as, for example, regions that are colored using a plurality of color inks.
  • the color regions 1302a and b can be considered as, for example, regions formed by using color inks and clear inks of a plurality of colors.
  • the modeling execution unit 1012 for example, the amount of a plurality of color inks used due to the difference in the colors colored in the color regions 1302a and 1302a and b. It can be considered as an operation of using clear ink so as to compensate for the change in. Further, in this case, the modeling execution unit 1012 forms the color regions 1302a and b by performing such compensation so that the thickness in the normal direction does not change depending on the position. With this configuration, each of the color regions 1302a and 1302b can be appropriately colored with various colors. Further, in this case, the amount of clear ink to be replenished can be considered to be larger when coloring with a bright color or a light color.
  • the clear region 1304a is an example of an outer translucent region which is a translucent region formed outside the first color region.
  • the clear region 1304b is an example of an intermediate translucent region which is a translucent region formed between the first color region and the second color region.
  • the clear region 1304c is an example of an inner translucent region which is a translucent region formed inside the second color region.
  • the clear areas 1304a to 1304 can be considered as, for example, colorless and transparent areas. In this case, the fact that it is colorless can be considered, for example, that it is not intentionally colored. Further, the colorlessness can be considered, for example, to be formed of a material to which a coloring material is not intentionally added.
  • the clear ink can be considered as a material to which a coloring material is not intentionally added.
  • the modeling execution unit 1012 forms the colorless and transparent clear regions 1304a to c by forming each of the clear regions 1304a to c using only the clear ink.
  • Each of the clear regions 1304a to 1cc is preferably formed so as to have a transmittance of 60% or more with respect to the light in the visible light region.
  • the transmittance of each of the clear regions 1304a to 1c can be considered as the total transmittance of each thickness (thickness in the normal direction) of the clear regions 1304a to c.
  • the transmittance of each of the clear regions 1304a to 1c in the visible light region with respect to light is preferably 70% or more, more preferably 80% or more.
  • each of the clear regions 1304a to 1c the fact that they are colorless can be considered to be substantially colorless in terms of the quality required for modeling. Further, depending on the texture required for the modeled object, it is conceivable to further use an ink of a color other than the clear ink to form at least a part of the clear regions 1304a to 1c. In this case, it is conceivable to form a slightly colored and substantially transparent region as any of the clear regions 1304a to 1304. Further, in this case, it is preferable that 80% or more of the amount of ink used for forming each of the clear regions 1304a to 1c is the ratio of clear ink (ratio by weight ratio).
  • the ratio of the clear ink in each of the clear regions 1304a to 1c is preferably 90% or more, more preferably 95% or more.
  • the clear regions 1304a to 1304 can be appropriately formed.
  • various textures can be expressed in the colored region 1154.
  • the modeling execution unit 1012 can appropriately model the modeled object 1050 that expresses various textures.
  • the modeling execution unit 1012 models the modeled object 1050 by the additive manufacturing method.
  • the direction in which the layers of the inks laminated by the additive manufacturing method (hereinafter referred to as the modeling unit layer) overlap, and the color region 1302a in the coloring region 1154,
  • the direction in which b and the clear areas 1304a to c overlap is the same.
  • each of the color regions 1302a and b and the clear regions 1304a to 1c is formed with a thickness that is an integral multiple of the modeling unit layer.
  • each of the color regions 1302a and 1302a and b is formed by a predetermined number of modeling unit layers on the upper surface side and the lower surface side in the stacking direction.
  • the thickness of each of the color regions 1302a and 1302b can be set to a preset constant (fixed) thickness.
  • each of the color regions 1302a and 1302b is formed by one modeling unit layer. In this case, it can be considered that the thicknesses of the color regions 1302a and 1302a and b are the same as the thickness of the modeling unit layer.
  • each of the clear regions 1304a to 1c having a variable thickness is formed by an n-layer (n is an integer of 0 or more) modeling unit layers.
  • n is an integer of 0 or more
  • the thickness of each of the clear regions 1304a to 1c can be changed in various ways. Further, in this case, it can be considered that the thickness of each of the clear regions 1304a to 1c is n times the thickness of the modeling unit layer.
  • the color areas 1302a and b and the clear areas 1304a to c in the colored area 1154 are along the surface of the modeled object 1050. It will overlap. Then, in this case, the thickness of each of the color regions 1302a and b and the clear regions 1304a to 1304 is substantially the same as the thickness on the upper surface side and the lower surface side of the modeled object 1050, depending on the accuracy that can be realized by the modeling operation. It is conceivable to form so as to be. With this configuration, it is possible to appropriately form the colored region 1154 in which the color regions 1302a and b and the clear regions 1304a to 1c overlap in the normal direction.
  • FIG. 13 is a diagram illustrating the operation performed in the modeling system 1010 in more detail.
  • FIG. 13A is a flowchart showing an example of an operation of modeling the modeled object 1050 in the modeling system 1010.
  • the coloring composition determining unit 1016 determines the configuration of the colored region 1154 in the modeled object 1050 (S1102). More specifically, in this example, the coloring configuration determination unit 1016 determines the colors of the color regions 1302a and b in the coloring region 1154 and the thickness of the clear regions 1304a to c as the configuration of the coloring region 1154. In this case, it is conceivable to determine the color of the color regions 1302a and b and the thickness of the clear regions 1304a to c for each position in the coloring region 1154.
  • the operation in which the coloring composition determination unit 1016 determines the configuration of the coloring region 1154 in step S1102 is an example of the operation in the coloring composition determination stage.
  • the operation of determining the configuration of the colored region 1154 will be described in more detail later with reference to FIG. 13 (b).
  • the modeling data generation unit 1014 After the coloring configuration determination unit 1016 determines the configuration of the coloring region 1154, the modeling data generation unit 1014 generates modeling data so as to reflect the determined configuration of the coloring region 1154 (S1104).
  • the operation of the modeling data generation unit 1014 can be considered as an operation of generating modeling data based on the configuration of the coloring region 1154 determined in the coloring configuration determination stage.
  • the operation in which the modeling data generation unit 1014 generates modeling data in step S1104 is an example of the operation in the data generation stage.
  • the modeling data generation unit 1014 has shape data indicating the shape of the modeled object 1050 to be modeled by the modeling execution unit 1012, and a coloring region determined by the coloring composition determination unit 1016. Based on the configuration of 1154, modeling data showing the colors at each position of the light reflection region 1152 and the coloring region 1154 in the modeled object 1050 is generated. Further, as described above, it is conceivable that the modeling data generation unit 1014 generates slice data showing the cross section of the modeled object 1050 at each position in the stacking direction as the modeling data.
  • the modeling data indicates the color of each position of the light reflection region 1152 and the coloring region 1154
  • the color of each position of the light reflection region 1152 and the coloring region 1154 at the position of each cross section is shown in each cross section. It can be considered that the slice data corresponding to the position indicates.
  • the shape of the modeling object 1050 to be modeled by the modeling execution unit 1012 is determined by generating the modeling data.
  • the operation of the modeling data generation unit 1014 in step S1104 to generate the modeling data also serves as, for example, the operation of the shape determination step of determining the shape of the modeled object 1050.
  • the operations performed by the coloring configuration determination unit 1016 and the modeling data generation unit 1014 in steps S1102 and S1104 are examples of operations in the modeling data generation stage.
  • the configuration in which the modeling data generation unit 1014 and the coloring configuration determination unit 1016 are combined can be considered as an example of the modeling data generation device.
  • the modeling execution unit 1012 executes an operation of modeling the modeled object 1050 (S1106).
  • the modeling execution unit 1012 forms the modeled object 1050 by superimposing and forming a plurality of ink layers based on the modeling data.
  • the operation performed by the modeling execution unit 1012 in step S1106 is an example of the operation in the modeling stage.
  • FIG. 13B is a flowchart showing an example of an operation in which the coloring configuration determination unit 1016 determines the configuration of the coloring region 1154.
  • the coloring configuration determining unit 1016 when determining the configuration of the colored region 1154, the coloring configuration determining unit 1016 first acquires shape data indicating the shape of the modeled object 1050 and surface color data indicating the surface color of the modeled object 1050 (). S1202).
  • the shape data for example, data (3D data) showing a three-dimensional shape in a known format can be used. Further, in this case, for example, 3D data showing a three-dimensional shape in a general-purpose format that does not depend on the configuration of the modeling execution unit 1012 or the like can be used.
  • the surface color data for example, data indicating the color of each position on the surface of the modeled object can be used. More specifically, as the surface color data, for example, data of a texture image attached to the surface of a three-dimensional shape indicated by the shape data can be preferably used. Further, the surface color data can be considered as, for example, data for designating the color of each position on the surface of the modeled object 1050 without specifying the configuration of the colored region 1154 in the modeled object 1050.
  • the surface color data data showing an appearance image is used.
  • the appearance image is an image showing at least a part of the appearance of the object to be modeled as the modeled object 1050 (the object to be modeled).
  • the surface color data indicates an appearance image, it can be considered that, for example, at least a part of the color of the surface of the modeled object 1050 indicated by the surface color data constitutes the appearance image.
  • an image showing the overall appearance of the object is used as the surface color data.
  • the appearance of the object can be considered, for example, the state shown in the photograph of the object.
  • the shape data and the surface color data acquired by the coloring configuration determination unit 1016 in step S1202 can be considered as, for example, input data indicating the basic configuration of the modeled object to be modeled in the modeling system 1010.
  • the coloring configuration determination unit 1016 determines the respective colors of the plurality of color regions 1302a and b in the coloring region 1154 (S1204).
  • the operation in which the coloring configuration determination unit 1016 determines the colors of the color regions 1302a and 1302 in step S1204 is an example of the operation of the color determination stage and the operation of the color determination process.
  • the coloring composition determining unit 1016 determines the color for each of the plurality of color regions 1302a and b that overlap in the normal direction with respect to each position on the surface of the modeled object 1050 based on the shape data and the surface color data. do.
  • the coloring configuration determination unit 1016 may determine different colors for the plurality of color regions 1302a and 1302a and b. The method of determining the colors of the plurality of color regions 1302a and 1302a and b will be described in more detail later.
  • the coloring configuration determining unit 1016 further increases the thickness of each of the plurality of clear regions 1304a to 1c in the colored region 1154 (thickness in the normal direction). Is determined (S1206).
  • the operation of the coloring configuration determination unit 1016 in step S1206 to determine the thickness of each of the plurality of clear regions 1304a to 1c is the operation of the translucent region thickness determination step and the operation of the translucent region thickness determination process. This is an example.
  • the coloring composition determining unit 1016 determines the thickness of each of the plurality of clear areas 1304a to 1c according to the texture to be expressed in the modeled object 1050. More specifically, in this case, the coloring configuration determination unit 1016 receives an instruction from the user to specify the thickness of each of the plurality of clear areas 1304a to c, and based on this instruction, the plurality of clear areas 1304a to 1304a to the plurality of clear areas 1304a to c. Determine the thickness of each of c. With this configuration, the thickness of the clear areas 1304a to 1c for obtaining a desired texture can be appropriately determined based on the user's instruction.
  • the coloring composition determining unit 1016 may determine the thicknesses of the plurality of clear regions 1304a to 1c, which are different from each other. Further, the thickness of each of the plurality of clear regions 1304a to 1c may differ depending on the position in the modeled object 1050. In this case, the coloring configuration determination unit 1016 determines the thickness of each of the plurality of clear areas 1304a to 1c at each position, for example, based on the thickness instruction specified by the user for each position of the modeled object 1050. With this configuration, different textures can be appropriately expressed depending on the position of the modeled object 1050.
  • the thickness of each of the plurality of clear areas 1304a to 1c may not be changed for each position, but may be changed for each modeled object 1050.
  • the coloring configuration determination unit 1016 determines the thickness of each of the plurality of clear regions 1304a to 1c at each position based on the thickness instruction specified by the user with respect to the entire modeled object 1050. With this configuration, it is possible to more easily determine the thickness of each of the plurality of clear regions 1304a to 1c corresponding to the desired texture. The method of determining the thickness of the clear regions 1304a to 1c will be described in more detail later.
  • the configuration of the colored region 1154 for obtaining a desired texture can be appropriately determined.
  • the coloring configuration determination unit 1016 supplies information indicating the configuration of the determined coloring region 1154 to the modeling data generation unit 1014.
  • the shape data is also used when the modeling data generation unit 1014 generates the modeling data. Therefore, the coloring configuration determination unit 1016 supplies the shape data to the modeling data generation unit 1014 together with the data indicating the configuration of the determined coloring region 1154. With this configuration, the modeling data generation unit 1014 can appropriately generate modeling data that reflects the configuration of the coloring region 1154 determined by the coloring composition determination unit 1016.
  • modeling execution unit 1012 perform modeling of the modeling object 1050 based on the modeling data generated by the modeling data generation unit 1014, the modeling of the modeling object 1050 that can obtain a desired texture can be appropriately performed by the modeling execution unit 1012. Can be done.
  • a modeled object 1050 expressing various textures is provided to the modeling execution unit 1012. It can be modeled. In addition, this makes it possible to appropriately express various textures in the modeled object 1050.
  • the thicknesses of the plurality of color regions 1302a and b in the colored region 1154 are constant (fixed), and only the thicknesses of the clear regions 1304a to c are variable, so that the texture can be more easily and appropriately obtained. It becomes possible to perform adjustments and the like. Further, in this case, by setting the colors of the plurality of color regions 1302a and b independently of each other, it is possible to express more various textures in the colored region 1154.
  • FIG. 14A shows an example of an area operation screen which is a screen shown to the user when determining the thickness of the clear areas 1304a to 1c.
  • FIG. 14B shows an example of the default setting which is the setting of the thickness to be displayed first on the area operation screen.
  • 15 (a) and 15 (b) show an example of an operation of changing the setting of the thickness of the clear areas 1304a to 1c according to the instruction of the user.
  • the coloring configuration determination unit 1016 receives an instruction from the user to specify the thickness of each of the plurality of clear areas 1304a to 1c, and based on this instruction. , The thickness of each of the plurality of clear areas 1304a to 1304 is determined. Then, in this case, it is conceivable to accept a user's instruction via a GUI (graphical user interface) using a computer monitor or an input / output device used as the coloring configuration determination unit 1016. Further, in this case, for example, it is conceivable to display the area operation screen shown in FIG. 14A on the monitor.
  • GUI graphical user interface
  • the area indicated by the reference numeral Sp as transparent protection is the area corresponding to the clear area 1304a (see FIG. 12) in the colored area 1154.
  • the region designated by the reference numeral S1c as the first color is a region corresponding to the color region 1302a (see FIG. 12).
  • the region indicated by the reference numeral S1t as the first transparent is a region corresponding to the clear region 1304b (see FIG. 12).
  • the region designated by the reference numeral S2c as the second color is a region corresponding to the color region 1302b (see FIG. 12).
  • the region indicated by the reference numeral S2t as second transparent is a region corresponding to the clear region 1304c (see FIG. 12).
  • the area indicated by the reference numeral S3 as “addition” indicates a newly added area.
  • the region indicated by the reference numeral Sr as reflection indicates a light reflection region 1152.
  • the buttons indicated by the reference numerals Sa are buttons for instructing addition or deletion of operations on the area.
  • the button indicated by the reference numeral Ss is a button for switching whether the area to be added is a color area or a clear area (transparent area).
  • the numerical value shown next to each area indicates a user's instruction to specify the thickness of each area.
  • a region operation screen it is possible to appropriately receive an instruction on the thickness of each region or the like constituting the colored region 1154 from the user.
  • the buttons Sa and Ss for example, the user's instruction regarding the addition or deletion of the area can be appropriately received.
  • the coloring configuration determination unit 1016 it is conceivable that the content of the default setting as shown in FIG. 14B, for example, is displayed to the user on the area operation screen before receiving the user's instruction. Further, as the default setting, for example, it is conceivable to use the setting content of the previous setting. Further, the coloring configuration determination unit 1016 changes the display content on the area operation screen according to the operation of the user, for example, as shown in FIGS. 15A and 15B.
  • FIG. 15A shows an example of an operation of deleting the clear area 1304a which is the transparent protection area and adding the clear area 1304c which is the second transparent area to the default setting shown in FIG. 14B.
  • the user deletes the clear area 1304a by selecting the area Sp and pressing the button Sa, and further adds the clear area 1304c by selecting the additional area S3 and pressing the button Ss.
  • the thickness of the clear region 1304c is specified by numerical input, for example, 420 ⁇ m is set in the figure.
  • FIG. 15B shows an example of an operation in which the color area 1302 is further added below the clear area 1304c and the clear area 1304 is further added below the color area 1302.
  • the user selects the additional area S3 and presses the button Ss to add a new color area 1302 (third color area).
  • the thickness of the color region 1302 is specified by numerical input, for example, 320 ⁇ m is set in the drawing.
  • a new clear area 1304 (third transparent area) is added.
  • the thickness of the clear region 1304 is specified by numerical input, for example, 420 ⁇ m is set in the drawing. According to this example, it is possible to appropriately accept the user's instruction for adding or deleting the area.
  • the area operation is performed in consideration of the case where a modeled object having a structure different from the specific structure of the modeled object described with reference to FIGS. 11 to 13 is modeled. Shows examples of screens and operations.
  • the items to be displayed on the area operation screen and the operations on the screen may be appropriately changed according to the configuration of the modeled object and the like.
  • the thickness of the color region 1302 is fixed to a fixed thickness without being variable. In this case, it is conceivable that the thickness of the color area 1302 is constant even on the area operation screen.
  • the light reflection region 1152 is formed as a region that also serves as an internal region of the modeled object 1050.
  • the display of the item related to the light reflection region 1152 may be omitted on the region operation screen.
  • the indication of the thickness of the light reflection region 1152 for example, it is conceivable to use it as the lower limit value of the required thickness.
  • the modeling execution unit 1012 or the modeling data generation unit 1014 confirms whether or not the required thickness of the light reflection region 1152 can be secured.
  • the coloring configuration determination unit 1016 may determine the thickness of the clear areas 1304a to c by a method other than simply causing the user to input numerical values.
  • the coloring configuration determination unit 1016 creates, for example, a computer graphic image (CG image) that predicts the state of the modeled object 1050 modeled by the modeling execution unit 1012, and displays the computer graphic image (CG image) to the user while displaying the plurality of models. It is conceivable to receive an instruction from the user to specify the thickness of each of the clear areas 1304a to 1304.
  • CG image computer graphic image
  • the change in the state of the modeled object 1050 that occurs when the thickness of each of the plurality of clear areas 1304a to c is changed with the thickness of each of the plurality of clear areas 1304a to c as a variable is given to the user.
  • the user can appropriately determine the thickness of the clear areas 1304a to 1c for obtaining a desired texture.
  • the thickness of each of the plurality of clear regions 1304a to 1c can be appropriately determined according to the texture to be expressed in the modeled object 1050.
  • the coloring configuration determination unit 1016 determines the thickness of each of the plurality of clear areas 1304a to c based on a parameter or the like acquired by a method other than the instruction of the user who specifies the thickness of the clear areas 1304a to c. You may. In this case, the coloring configuration determination unit 1016 acquires, for example, a texture parameter indicating the texture to be expressed in the modeled object 1050 in the operation of determining the configuration of the coloring region 1154. The operation of acquiring the texture parameter can be considered as, for example, the operation of the texture parameter acquisition stage. Further, the coloring configuration determination unit 1016 may further perform an operation of acquiring a texture parameter in the operation of step S1206, for example.
  • the operation of the coloring configuration determination unit 1016 in step S1206 in the operation shown in FIG. 14B also serves as an example of the operation in the texture parameter acquisition stage. Further, in this case, the coloring configuration determination unit 1016 determines the thickness of each of the plurality of clear regions 1304a to 1c based on the texture parameter acquired by the operation of the texture parameter acquisition stage. Even with this configuration, the thickness of each of the plurality of clear regions 1304a to 1c can be appropriately determined according to the desired texture.
  • the coloring composition determination unit 1016 acquires the texture parameter from data or the like prepared in advance in addition to the shape data and the surface color data.
  • the texture parameter for example, it is conceivable to use a parameter indicating the overall texture of the three-dimensional shape indicated by the shape data.
  • the texture indicated by the texture parameter for example, it is conceivable to use the transparency expressed in the colored region 1154 or the like.
  • the transparency can be considered, for example, a texture that reflects the degree of light transmission to the colored region 1154. Further, such a texture can be considered as, for example, a translucent feeling. Further, it is also conceivable to use a texture other than the transparent feeling as the texture indicated by the texture parameter according to the object or the like represented by the modeled object 1050.
  • the coloring configuration determination unit 1016 may acquire the texture parameter based on the instruction of the user.
  • the texture parameter can be considered as a parameter or the like set by accepting the designation of the texture from the user. More specifically, in this case, the coloring configuration determination unit 1016 displays a CG image showing the modeled object 1050 to the user, and acquires a texture parameter indicating the texture set by the user for the CG image. Etc. are conceivable. Even in this configuration, the texture parameters can be appropriately acquired.
  • the thickness of each of the plurality of clear areas 1304a to 1304 is not directly specified by the user, but the desired texture is specified by the user without causing the user to perform trial and error or the like. , It is possible to more easily and appropriately determine the thickness of each of the plurality of clear areas 1304a to 1304.
  • FIG. 16 is a diagram for explaining in more detail the operation of determining the colors of the plurality of color regions 1302a and b in the coloring configuration determination unit 1016.
  • the coloring composition determining unit 1016 determines the respective colors of the plurality of color regions 1302a and bb based on the surface color data showing the appearance image.
  • the appearance image for example, it is conceivable to use a photographed image obtained by photographing an object to be modeled. More specifically, in this case, it is conceivable to use an image obtained by photographing the entire object as an external appearance image.
  • the appearance image is not limited to an image obtained by photographing the entire object, and an image obtained by photographing a part of the object may be used. More specifically, when the object of modeling is a human being, an image obtained by photographing a part of human skin may be used as an external appearance image.
  • the surface color data it is conceivable to use data indicating the entire color of the object including the part other than the photographed portion based on the photographed image obtained by photographing a part of the human skin. Further, even in such a case, it can be considered that the operation is to determine the colors of the plurality of color regions 1302a and bb based on the surface color data showing the appearance image.
  • the coloring composition determining unit 1016 determines the respective colors of the plurality of color regions 1302a and b by separating the dye components of the appearance image by the dye component separation method.
  • the separation of the dye component by the dye component separation method can be performed in the same manner as or in the same manner as a known method. More specifically, the separation of the dye component by the dye component separation method can be performed by the method disclosed in the following paper by Tsumura et al. N. Tsumura, N. Ojima, K. Sato, M. Shiraishi, H. Shimizu, H. Nabeshima, S. Akazaki, K. Hori, Y. Miyake, “Image-based skin color and texture analysis / synthesis by extracting hemoglobin and melanin information in the skin, ”ACM Transactionson Graphics (TOG), 2003.
  • FIG. 16 shows an example of how to determine the colors of a plurality of color regions 1302a and b in the case where a modeled object (for example, a figure or the like) indicating a human being is modeled by the modeling execution unit 1012.
  • a modeled object for example, a figure or the like
  • at least a part of the modeled object 1050 forms a colored region 1154 that expresses the color of the human skin that is the object of modeling.
  • an external appearance image it is conceivable to use an image showing the color of the surface of human skin. More specifically, in this case, it is conceivable to use an image of human skin as at least a part of the appearance image.
  • the coloring composition determining unit 1016 uses the dye component separation method to obtain an image of a blood vessel (blood vessel image) corresponding to an image inside the object and a portion closer to the surface of the object based on the appearance image.
  • the image of the stain corresponding to the image is determined.
  • the blood vessel image can be considered as, for example, an image reflecting a color corresponding to the blood vessel.
  • the blood vessel image can be considered as, for example, an image reflecting a hemoglobin component, that is, a blood color.
  • the stain image can be considered, for example, an image that reflects the color corresponding to the stain on the skin.
  • the stain image can be considered as, for example, an image reflecting the melanin component, that is, the color of pigmentation.
  • the coloring composition determining unit 1016 determines the internal color corresponding to the internal color of the object based on the blood vessel image. Further, based on the stain image, the surface color corresponding to the color of the portion of the object closer to the surface is determined.
  • the surface color can be considered, for example, a color corresponding to a portion closer to the surface of the object than the inside of the object corresponding to the internal color.
  • the coloring composition determining unit 1016 determines the color as each of the internal color and the surface color not for each detailed unit such as the resolution unit of modeling but for each range of a certain width. More specifically, for example, when forming a colored region 1154 expressing the color of human skin, it is conceivable to determine the internal color and the surface color for each skin portion. It is also conceivable to determine the internal color and the surface color for each area specified by the user. In these cases, the internal color and surface color may be determined only for a part of the modeled object 1050. Further, it is conceivable to set the internal color and the surface color for the entire modeled object 1050. Further, the internal color and the surface color can be considered as the average color in a predetermined region inside or near the surface of the object.
  • the coloring composition determination unit 1016 of this example is a pigment component that reflects the color of the melanin pigment by the pigment component separation method based on the appearance image.
  • the melanin component and the hemoglobin component which is a pigment component that reflects the color of hemoglobin, are separated.
  • an image (skin image) of the skin taken by an RGB camera that outputs R (red) G (green) B (blue) signals is used as an appearance image, and information corresponding to the melanin component is obtained by independent component analysis.
  • a melanin component image which is an image showing the distribution of the melanin component and a hemoglobin component image which is an image showing the distribution of the hemoglobin component are generated.
  • the coloring composition determining unit 1016 generates a stain image as a melanin component image.
  • a blood vessel image is generated as a hemoglobin component image.
  • the coloring composition determination unit 1016 determines each of the surface color and the internal color based on each of the stain image and the blood vessel image.
  • the surface color is determined based on the melanin component by determining each of the surface color and the internal color based on each of the melanin component image and the hemoglobin component image, and the hemoglobin is determined. It can be considered that the internal color is determined based on the components.
  • the internal color and surface color can be appropriately determined when the colored region 1154 expressing the color of human skin is formed.
  • the coloring composition determining unit 1016 further determines the color of the color region 1302a based on the surface color, and determines the color of the color region 1302b based on the internal color. With this configuration, the colors of the plurality of color regions 1302a and b in the coloring region 1154 can be appropriately determined.
  • the internal color and the surface color can be considered as the average color in a predetermined region inside or near the surface of the object.
  • the average in each range (each region) that determines the internal color and the surface color is not the local distribution of the melanin component and the hemoglobin component in the image. It can be considered to indicate a melanin component or a hemoglobin component. Further, in this case, it is also conceivable to further create a shadow component image showing the distribution of the shadow in the appearance image and remove the influence of the shadow from the melanin component image and the hemoglobin component image based on the shadow component image.
  • the appearance image can be considered as, for example, an RGB image in which colors are expressed by the RGB3 primary colors of the additive color mixing method. Further, in this case, it is conceivable to generate an RGB image as a hemoglobin component image and a melanin component image.
  • the modeling execution unit 1012 of this example uses ink of each color of YMCK, which is obtained by converting RGB of the additive color mixing method into the subtractive color mixing method, as the colored ink for coloring.
  • the coloring composition determination unit 1016 determines the internal color by, for example, converting the colors indicated by each of the hemoglobin component image and the melanin component image from RGB to YMCK. Further, in this case, it is preferable to perform the color conversion in consideration of the characteristics of the ink used in the modeling execution unit 1012. More specifically, in this case, it is conceivable to perform color conversion using an ICC profile or the like that reflects the characteristics of the ink used in the modeling execution unit 1012 as the characteristics of the device. Further, the color conversion may be performed not by using the ICC profile but by using, for example, a trained model created in advance by machine learning.
  • the trained model is obtained by measuring the colors of the samples (samples) of various colors created by the modeling execution unit 1012 and letting the learning model learn the relationship between the sample configuration and the color measurement result. It is conceivable to create it. Further, the trained model may be created by performing predetermined measurement on a small number of samples and computer simulation, instead of actually creating a large number of samples of various colors and performing color measurement. .. In this case, for example, it is conceivable to prepare a sample (ink sample) corresponding to the ink of each color used in the modeling execution unit 1012 and measure the characteristics of the ink of each color. In addition, based on the characteristics of the ink of each color, the color measurement results are predicted by computer simulation for the composition of virtual samples of various colors, and a trained model is created by training these relationships in the learning model. It is conceivable to do.
  • FIG. 17 is a diagram for explaining the conditions of the experiments conducted by the inventors of the present application, and among various experiments conducted to confirm the texture and the like that can be expressed by using the colored regions 1154 having various configurations.
  • the conditions for the evaluation of the experiment for evaluating the relationship between the thickness of the clear regions 1304b and c and the texture of the modeled object 1050 (subjective evaluation) are shown.
  • FIG. 17A shows the configuration of the sample used as the evaluation target.
  • FIG. 17B shows adjective pairs used for subjective evaluation.
  • the colored region 1154 in the modeled object 1050 modeled by the modeling execution unit 1012 in this example has a plurality of color regions 1302a and b and a plurality of clear regions 1304a to c. Further, in this case, various textures are expressed by making the thickness of each of the plurality of clear areas 1304a to 1304 variable. In this case, it is considered that by changing the thickness of each of the plurality of clear regions 1304a to 1c, the way of transmitting light to the colored region 1154 and the way of reflecting light in the colored region 1154 are changed. Further, as a result, for example, it is considered that the glossiness and transparency (semi-transparency) of the colored region 1154 change.
  • the object is formed by overlapping a plurality of color regions 1302a and b that are colored with colors corresponding to the internal color and the surface color of the object to be modeled. Express the color of.
  • the clear areas 1304b and c inside the color area 1302a on the side close to the surface of the modeled object 1050 have a particularly large influence on the texture such as transparency.
  • the influence on the texture between the clear region 1304b formed between the plurality of color regions 1302a and b and the clear region 1304c formed between the color region 1302b and the light reflection region 1152 It is possible that there will be a difference in the way of doing things. Therefore, the inventors of the present application prepare samples having different thicknesses of the clear regions 1304b and c, and perform subjective evaluation to confirm the relationship between the composition of the colored region 1154 and the texture. Evaluation was made.
  • the thicknesses of the clear regions 1304b and c were set to various thicknesses by changing the number of layers of the modeling unit layers to be stacked in order to form the clear regions 1304b and c, respectively. More specifically, in this evaluation, as shown by the numbers 2, 4 and 6 as the thickness of the clear regions 1304b and c in FIG. 17A, the modeling unit is obtained for each of the thicknesses of the clear regions 1304b and c. The thickness was changed to 2 times, 4 times, and 6 times the thickness of the layer. Then, nine kinds of samples were prepared by a possible combination of the thickness of the clear region 1304b and the thickness of the clear region 1304c. In addition, conditions other than the thickness of the clear regions 1304b and c, such as the color and thickness of the color regions 1302a and b, were common to all the samples.
  • the inventor of the present application performs factor analysis on the evaluation data showing the result of the subjective evaluation in order to numerically express that the texture differs depending on the sample, and obtains the skin parameter indicating the predetermined state of the skin. It was extracted and further evaluated. More specifically, the inventors of the present application performed factor analysis on the evaluation results showing the results of the subjective evaluation described above, with the number of factors being three. In this factor analysis, for convenience of the experiment, the factor analysis was performed by averaging the evaluation results of 9 subjects. In addition, factor analysis was performed using a known machine learning library.
  • FIG. 18 is a graph showing the results of factor analysis performed by the inventors of the present application.
  • a factor group that reflects a predetermined state of the skin as shown as a skin-like factor group in the figure, can be considered.
  • the first factor used on the vertical axis of the graph may be used as the skin-likeness factor
  • the weighted average value using the factor loading amount for the items belonging to the skin-likeness factor may be used as the skin parameter.
  • various values were calculated in the range of about 0 to 1.5. This result can be considered to indicate that it was possible to confirm numerically that the texture differs depending on the sample.
  • the number of color regions 1302 may be set to a number other than two.
  • the colored region 1154 has, for example, three or more color regions 1302.
  • Such a configuration can also be considered as a configuration in which a clear region 1304 is formed between each of the three or more color regions 1302.
  • the configuration of the colored region 1154 when determining the configuration of the colored region 1154, it is conceivable to individually determine the thickness in the normal direction for each of the plurality of clear regions 1304 in the colored region 1154. With this configuration, for example, a wider variety of textures can be expressed in the colored region 1154.
  • N color regions 1302 of the first, second, ..., N (N is an integer of 3 or more) are used. It can also be considered as having a configuration or the like. Further, in this case, it can be considered that a clear region 1304 having a variable thickness is formed between each of the first, second, ..., And Nth color regions 1302.
  • FIG. 19 is a diagram illustrating a modified example of the colored region 1154 and the modeled object 1050.
  • FIG. 19A shows a modified example of the configuration of the colored region 1154.
  • the configurations with the same reference numerals as those in FIGS. 11 to 18 may have the same or similar characteristics as the configurations in FIGS. 11 to 18.
  • the colored region 1154 has one color region 1302 and a plurality (two) clear regions 1304a and b. Further, in this case, the clear region 1304a is formed on the outside of the color region 1302 in the modeled object 1050 (see FIG. 12). The clear region 1304b is formed between the light reflection region 1152 and the color region 1302 in the modeled object 1050. Also in this case, for example, by making the thicknesses of the clear regions 1304a and b variable, various textures can be expressed in the colored region 1154.
  • FIG. 19B shows a modified example of the configuration of the modeled object 1050.
  • the 2.5D modeled object can be considered, for example, a modeled object 1050 or the like, which is modeled by laminating a modeling material (for example, ink) on a flat medium (media) 60.
  • the 2.5D modeled object can be considered as, for example, a modeled object in a state of being connected to the medium 1060.
  • the modeled object 1050 is modeled with a configuration including a light reflection region 1152 and a colored region 1154 as shown in the figure, and is the same as or described above.
  • the colored region 1154 By forming the colored region 1154 with the same configuration, various textures can be expressed in the colored region 1154.
  • the number of clear regions 1304 in the colored region 1154 may also be different from the case specifically described above.
  • various textures can be expressed by making the thickness of the clear area 1304 variable.
  • the thickness of the color region 1302 color regions 1302a, b, etc.
  • the thickness of the color region 1302 may also be variable depending on the quality and texture required for the modeled object 1050. With this configuration, it is possible to express a wider variety of textures.
  • the object for expressing the texture in the colored region 1154 may be the texture of an object other than human skin.
  • various objects are used by using a plurality of color regions 1302a and b that are colored in colors corresponding to the internal color and the surface color of the object and by making the thickness of the clear area 1304 variable. It is possible to appropriately express various textures of objects.
  • the shadow is applied to the image showing the color inside and near the surface of the object (for example, the hemoglobin component image and the melanin component image).
  • the shadow component image may be used for a purpose other than such a purpose, for example.
  • the shadow component image it is conceivable to use the shadow component image as data indicating height information on the surface of the object. In this case, for example, it is conceivable to correct the shape data based on the negative component image.
  • the colored region 1154 has been mainly described with respect to the region possessed by the modeled object 1050 modeled by the modeling execution unit 1012 in the modeling system 1010 (see FIG. 11).
  • the colored region 1154 having the configuration described above may be used in other than the modeled object 1050.
  • the matters related to modeling described above can be considered by substituting the matters related to printing. More specifically, in this case, it is conceivable to use a printing system instead of the modeling system 1010.
  • the modeling execution unit 1012 it is conceivable to use a printing device that prints by an inkjet method. Further, it is conceivable to use print data instead of modeling data.
  • FIG. 20 shows an example of the configuration of a printed matter including the colored region 1154.
  • the configurations with the same reference numerals as those in FIGS. 11 to 19 may have the same or similar characteristics as the configurations in FIGS. 11 to 19.
  • the printed matter can be considered as a print product or the like created by forming the colored region 1154 on the medium 1060.
  • the medium 1060 a known printing medium such as printing paper, film, or cloth can be preferably used.
  • the medium 1060 itself is white, or that a light reflecting region 1152 is formed on the medium 1060.
  • the colored region 1154 can be formed by printing on the medium 1060 so as to superimpose a plurality of ink layers on the printing execution unit (printing apparatus).
  • the colored region 1154 has a plurality of color regions 1302a, b and a plurality of clear regions 1304a-c.
  • a printing apparatus having a print execution unit, and a print data generation unit and corresponding to the modeling execution unit 1012, the modeling data generation unit 1014, and the coloring composition determination unit 1016 (see FIG. 11) in the modeling system 1010. It is conceivable to create a printed matter in a printing system including a print data generation device having a coloring composition determining unit.
  • the coloring composition determination unit determines the composition of the coloring region 1154 in the printed matter in the same manner as or in the same manner as in the case of determining the composition of the coloring region 1154 in the modeled object 1050.
  • the print data generation unit generates print data based on the configuration of the coloring region 1154 determined by the coloring composition determination unit (print data generation stage).
  • the print execution unit executes a print operation to create a printed matter (printing stage). Even in this configuration, for example, by making the thickness of the clear region 1304 in the colored region 1154 variable, it is possible to appropriately create printed matter expressing various textures.
  • the present invention can be suitably used for, for example, a region configuration prediction method.
  • the present invention can be suitably used as a method for generating modeling data and the like.
  • Decoder unit 1010 ... Modeling system, 1012 ... Modeling execution unit, 1014 ... Modeling data generation unit, 1016 ... Coloring configuration determination unit, 1050 ... Modeled object, 1052 ... Support layer, 1060 ... Medium, 1102 ... Head unit, 1104 ... Modeling table, 1106. ... Scanning drive unit, 1110 ... Modeling control unit, 1152 ... Light reflection area, 1154 ... Colored area, 1202 ... Inkjet head, 1204 ... Ultraviolet light source, 1206 ... Flattening means 1,302 ... Color area, 1304 ... Clear area

Landscapes

  • Chemical & Material Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Materials Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Manufacturing & Machinery (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)

Abstract

所望の質感を得るための領域構成を適切に予測する。 複数色の着色用の材料を用いて形成する領域構成を予測する領域構成予測方法であって、着色された層状の領域が複数重なる積層構成と所定の質感との関係をコンピュータシミュレーションにより予測する質感予測段階(S204)と、積層構成と質感との関係とを学習させた学習モデルである学習済モデルを機械学習により生成する学習段階(S206)と、学習段階で生成した学習済モデルを用いて質感に対応する積層構成を予測し、当該積層構成に基づき、所望の質感に対応する領域構成を予測する領域構成予測段階とを備える。

Description

領域構成予測方法、領域構成予測装置、造形データの生成方法、造形方法、造形データ生成装置、造形システム、印刷データの生成方法、印刷方法、印刷データ生成装置、及び印刷システム
 本発明は、領域構成予測方法及び領域構成予測装置に関する。
 また、本発明は、造形データの生成方法、造形方法、造形データ生成装置、造形システム、印刷データの生成方法、印刷方法、印刷データ生成装置、及び印刷システムに関する。
 従来、インクジェットヘッドを用いて造形物を造形する造形装置(3Dプリンタ)が知られている(例えば、特許文献1参照。)。このような造形装置においては、例えば、インクジェットヘッドにより形成するインクの層を複数層重ねることにより、積層造形法で造形物を造形する。
 また、従来、インクジェットヘッドを用いて造形物を造形する造形装置(3Dプリンタ)が知られている(例えば、特許文献1参照。)。このような造形装置においては、例えば、インクジェットヘッドにより形成するインクの層を複数層重ねることにより、積層造形法で造形物を造形する。また、このような造形装置では、例えば、造形物の表面に対して着色を行いつつ造形物の造形を行うことで、着色された造形物を造形する。
特開2015-071282号公報
 造形装置で造形物を造形する場合、造形の材料(例えば、インク)で形成される領域(例えば、着色された層状の領域)の重なり方により、造形物の質感に違いが生じる場合がある。例えば、互いに異なる色の複数種類のインクを造形の材料として用い、様々な色の領域を重ねて色を表現する場合、領域の重ね方によって、造形物の表面における透明感等の質感に違いが生じる場合がある。
 そのため、このような場合、ユーザ(例えば、デザイナ等)の所望の質感が得られる構成で造形の材料の領域が重なるように、造形物の造形を行うことが望まれる。そして、この場合、例えば、領域の重ね方(領域構成)について、所望の質感が得られる構成を適切に予測することが望まれる。そこで、本発明は、上記の課題を解決できる領域構成予測方法及び領域構成予測装置を提供することを目的とする。
 また、近年、造形装置の用途の広がり等により、より高い品質での着色がされた造形物を造形することが望まれている。例えば、人間を示す造形物を造形する場合等において、人間の肌の質感等を高い品質で再現するように造形物の着色を行うこと等が望まれている。そこで、本発明は、上記の課題を解決できる造形データの生成方法、造形方法、造形データ生成装置、造形システム、印刷データの生成方法、印刷方法、印刷データ生成装置、及び印刷システムを提供することを目的とする。
 造形物の造形時において、所望の質感が得られる領域構成を決定するためには、通常、実際に造形物を造形すること等で試行錯誤を行うことが必要である。しかし、造形物の造形には、多くの時間がかかるため、このような試行錯誤が必要になると、造形物の構成を決定するために要する手間が大きく増大することになる。
 これに対し、本願の発明者は、個々の造形物を造形する毎に試行錯誤を繰り返すのではなく、造形物の構成に対応する積層構成と質感との関係を予めコンピュータに機械学習させておき、所望の質感を入力することで対応する積層構成を出力させることを考えた。また、この場合において、互いに異なる構成で造形の材料の層を積層させた複数の試料を作成し、試料に対して所定の質感に対応する計測を行うことで、積層構成と質感との関係を取得し、その関係を学習する機械学習をコンピュータに行わせることを考えた。また、実際に様々な実験等を行うことで、このような方法で所望の質感に対応する領域構成を適切に決定できることを見出した。更には、このような方法に関し、本願の出願人は、特願2019-63003号として、出願を行った。
 このような方法で領域構成を決定する場合、例えば機械学習が完了した後においては、短時間で適切に領域構成を決定することができる。しかし、この場合も、機械学習に必要なデータを取得する段階において、多くの手間や時間を要することになる。例えば、上記のような方法で機械学習を行う場合、通常、多数の試料を作成して、それぞれの試料に対する計測を行うことが必要になる。そして、この場合、試料の作成や計測を行う段階において、多くの手間や時間を要することになる。
 これに対し、本願の発明者は、更なる鋭意研究により、多数の試料を作成することなく、コンピュータシミュレーションにより、積層構成と質感との関係を予測することを考えた。また、実際に様々な実験等を行うことで、このような方法でも、所望の質感に対応する領域構成を適切に決定できることを見出した。
 また、本願の発明者は、更なる鋭意研究により、このような効果を得るために必要な特徴を見出し、本発明に至った。上記の課題を解決するために、本発明は、複数色の着色用の材料を用いて形成する領域の構成である領域構成を予測する領域構成予測方法であって、着色された層状の領域が複数重なる構成である積層構成と所定の質感との関係をコンピュータシミュレーションにより予測する段階であり、互いに異なる構成で前記層状の領域が重なる複数種類の前記積層構成について、それぞれの前記積層構成により表現される前記質感を予測する質感予測段階と、前記積層構成と前記質感との関係とを学習させた学習モデルである学習済モデルを機械学習により生成する段階であり、前記複数種類の積層構成に対して前記質感予測段階において予測した前記質感に基づいて前記学習済モデルを生成する学習段階と、所望の前記質感に対応する前記領域構成を予測する段階であり、前記学習段階で生成した前記学習済モデルを用いて前記質感に対応する前記積層構成を予測し、当該積層構成に基づき、前記所望の質感に対応する前記領域構成を予測する領域構成予測段階とを備えることを特徴とする。
 このように構成すれば、積層構成と質感との関係をコンピュータシミュレーションによって適切に予測することができる。また、様々な構成の積層構成について、積層構成と質感との関係を機械学習で学習させた学習済モデルを生成することで、所望の質感に対応する積層構成を適切に予測することができる。また、予測した積層構成に基づき、所望の質感を得るための領域構成を適切に予測することができる。また、この場合、実際に多数の試料を作成することや多数の試料に対する計測等を行うことなく、機械学習に必要な多数のデータ(学習データ)を適切に準備することができる。また、これにより、学習済モデルを生成するために要する手間や時間等を適切に低減することができる。
 この構成において、複数色の着色用の材料としては、例えば、複数色の造形の材料を用いることが考えられる。この場合、領域構成について、複数色の造形の材料を用いて造形物を造形する造形装置において造形しようとする造形物の少なくとも一部の領域に対応する構成等と考えることができる。また、領域構成について、それぞれが着色された複数の層状の領域が造形物の表面での法線方向と平行な方向において重なる構成等と考えることもできる。このように構成すれば、積層構成に基づいて領域構成を適切に予測することができる。また、これにより、所望の質感を得るための造形物の構成を適切に予測することができる。
 尚、着色用の材料として造形の材料以外の材料を用いること等も考えられる。この場合、媒体(メディア)に対して印刷を行う印刷装置において用いるインク等について、着色用の材料と考えることもできる。また、この場合、印刷装置では、媒体上に様々な色のインクの層を複数重ねることで様々な質感を表現することが考えられる。そして、この場合、媒体上に重ねて形成されるインクの層の重なり方について、領域構成と考えることができる。また、印刷装置としては、媒体上にインクの層を重ねることで立体的な形状を形成する印刷装置(いわゆる、2.5Dプリンタ)を用いること等も考えられる。この場合、媒体上に形成される立体的な形状の表面の構成について、領域構成と考えることができる。
 また、この構成において、学習段階では、例えば、コンピュータに機械学習を行わせることで、学習済モデルを生成する。また、質感としては、例えば、複数の層状の領域が重なることで表現される透明感等を用いることが考えられる。この場合、質感予測段階において、質感を示すパラメータとしては、例えば、光の広がり方を示す関数を用いることが考えられる。このような質感を示すパラメータとしては、例えば、線広がり関数(LSF)等を好適に用いることができる。このように構成すれば、所望の透明感に対応する積層構成等の予測を適切に行うことができる。
 また、この構成において、領域構成予測段階は、例えば、パラメータ算出段階及び積層構成取得段階を有する。この場合、パラメータ算出段階とは、所望の質感が設定されたコンピュータグラフィックス画像に基づき、当該コンピュータグラフィックス画像に設定されている質感に対応するパラメータである設定パラメータを算出する段階である。また、積層構成取得段階とは、学習済モデルに対する入力として設定パラメータ算出段階で算出した設定パラメータを用いて、積層構成を示す出力を取得する段階である。このように構成すれば、所望の質感の指定を適切に受け付け、その質感に対応する積層構成を適切に出力することができる。
 また、質感予測段階においては、例えば、複数色の着色用の材料のそれぞれに対応する吸収係数及び散乱係数を用いてコンピュータシミュレーションを行うことで、積層構成により表現される質感を予測する。このように構成すれば、積層構成に対応する質感の予測をコンピュータシミュレーションによって適切に行うことができる。質感予測段階では、公知のコンピュータシミュレーションの手法と同一又は同様の手法のコンピュータシミュレーションを用いることができる。例えば、質感予測段階では、光散乱モンテカルロシミュレーション法(MCML法)でのコンピュータシミュレーション等を好適に用いることができる。
 また、複数色の着色用の材料のそれぞれに対応する吸収係数及び散乱係数については、例えば、少数の試料に対する計測等で取得することが考えられる。この場合、領域構成予測方法は、各色試料作成段階及び係数決定段階を更に備える。各色試料作成段階とは、それぞれの色の着色用の材料に対応する試料を作成する段階である。この場合、例えば、造形装置を用いて試料を作成することが考えられる。また、係数決定段階は、各色試料作成段階で作成した試料の光学的な特性を計測することで複数色の着色用の材料のそれぞれに対応する吸収係数及び散乱係数を決定する段階である。また、この場合、質感予測段階では、係数決定段階で決定した吸収係数及び散乱係数を用いて、コンピュータシミュレーションを行う。このように構成すれば、複数色の着色用の材料のそれぞれに対応する吸収係数及び散乱係数を適切に決定することができる。また、これにより、質感予測段階でのコンピュータシミュレーションを高い精度で適切に行うことができる。
 また、学習段階において、機械学習としては、例えば、深層学習(ディープラーニング)等を好適に用いることができる。この場合、学習段階について、例えば、学習対象のニューラルネットワークである学習対象ニューラルネットワークに学習を行わせる段階等と考えることができる。また、この場合、学習対象ニューラルネットワークとしては、例えば、質感を示すパラメータを入力及び出力とし、積層構成を示すパラメータを中間出力とするニューラルネットワーク等を好適に用いることができる。このような学習対象ニューラルネットワークとしては、例えば、エンコーダ部及びデコーダ部を有するニューラルネットワーク等を好適に用いることができる。この場合、エンコーダ部について、質感を示すパラメータを入力とし、積層構成を示すパラメータを出力とするニューラルネットワーク等と考えることができる。また、デコーダ部について、積層構成を示すパラメータを入力とし、質感を示すパラメータを出力とするニューラルネットワーク等と考えることができる。このように構成すれば、積層構成と質感との関係を学習させた学習済モデルを適切に生成することができる。また、エンコーダ部及びデコーダ部のそれぞれとしては、3層以上の多層のニューラルネットワークを用いることが好ましい。
 また、この場合、学習対象ニューラルネットワークについて、例えば、エンコーダ部とデコーダ部とをつなげたニューラルネットワーク等と考えることができる。また、このような学習対象ニューラルネットワークを用いる場合、例えば、先にデコーダ部に学習を行わせ、その後に学習対象ニューラルネットワークの全体に学習を行わせることが考えられる。この場合、学習段階は、例えば、デコーダ部学習段階及び全体学習段階を有する。デコーダ部学習段階については、積層構成と質感との関係の学習をデコーダ部に行わせることでデコーダ部における重みを決定する段階等と考えることができる。全体学習段階については、積層構成と質感との関係の学習を学習対象ニューラルネットワークの全体に行わせる段階等と考えることができる。また、この場合、全体学習段階では、デコーダ部学習段階で決定したデコーダ部における重みを固定して、学習対象ニューラルネットワークに学習を行わせる。このように構成すれば、学習済モデルの生成を適切に行うことができる。
 ここで、ニューラルネットワークにおける重みとは、ニューラルネットワークを構成するニューロン間に設定される重みのことである。また、このような学習対象ニューラルネットワークを用いる場合、領域構成予測段階では、学習対象ニューラルネットワークに学習を行わせることで作成した学習済モデルを用いて、質感に対応する積層構成を予測する。このように構成すれば、所望の質感に対応する積層構成の予測を適切に行うことができる。
 また、所望の質感に対応する積層構成の予測をより高い精度で行おうとする場合には、コンピュータシミュレーション以外の方法で取得したデータを更に用いること等も考えられる。この場合、例えば、様々な積層構成に対応する試料を実際に作成して、注目する質感に対応する計測を試料に対して行うこと等が考えられる。このように構成した場合も、コンピュータシミュレーションにより取得したデータを用いることで、必要な試料の数を大幅に削減することができる。
 学習段階では、例えば、シミュレーション取得データ及び計測取得データを用いて、学習済モデルを生成する。シミュレーション取得データとは、質感予測段階において予測した質感に基づいて積層構成と質感との関係を示すデータである。また、計測取得データとは、造形装置等を用いて作成した試料に対して光学的な特性を計測することで取得される積層構成と質感との関係を示すデータである。このように構成すれば、高い精度で質感と積層構成との関係を予測できる学習済モデルを適切に生成することができる。
 また、この場合、学習段階では、例えば、シミュレーション取得データと計測取得データとを区別せずに用いて、学習済モデルを生成することが考えられる。この場合、シミュレーション取得データと計測取得データとを区別せずに用いることについては、学習済モデルを生成するための学習時において、それぞれのデータがシミュレーション取得データ及び計測取得データのいずれであるかによって扱い方を変えずに、同じように扱うことである。また、このような動作については、計測取得データを追加することで学習に用いるデータの数を増やす動作等と考えることもできる。このように構成すれば、容易かつ適切にシミュレーション取得データ及び計測取得データを用いることができる。
 また、シミュレーション取得データ及び計測取得データについては、それぞれの特徴を活かすように、異なる用い方で用いることも考えられる。より具体的には、シミュレーション取得データについては、多数のデータをより容易に作成できると考えることができる。また、計測取得データについては、質感と積層構成との関係をより高い精度で示していると考えることができる。そして、この場合、例えば、最初にシミュレーション取得データを用いた学習を行わせて学習を進めた学習モデルを生成し、その学習モデルに対して計測取得データを用いた学習を行わせること等が考えられる。また、このような動作については、シミュレーション取得データを反映した学習モデルに対する調整を計測取得データを用いて行う動作等と考えることもできる。
 また、この場合、学習段階は、例えば、第1学習段階及び第2学習段階を有する。この場合、第1学習段階では、計測取得データを用いず、シミュレーション取得データを用いた学習を学習モデルに対して行わせることで、シミュレーション取得データを反映した学習モデルである中間生成モデルを生成する。また、第2学習段階では、中間生成モデルに対して計測取得データを用いた学習を更に行わせることで学習済モデルを生成する。このように構成すれば、シミュレーション取得データ及び計測取得データについて、それぞれの特徴を活かすよう適切に用いることができる。また、これにより、より高い精度で質感と積層構成との関係を予測できる学習済モデルを適切に生成することができる。
 また、エンコーダ部及びデコーダ部を有する学習対象ニューラルネットワークを用いる場合、学習対象ニューラルネットワークの構成に合わせてシミュレーション取得データ及び計測取得データを用いること等も考えられる。例えば、先に行うデコーダ部学習段階において、計測取得データを用いた学習をデコーダ部に行わせることが考えられる。また、この場合、全体学習段階では、シミュレーション取得データを用いた学習を学習対象ニューラルネットワークに行わせる。このように構成すれば、実際に作成した試料の特性を学習済モデルにより適切に反映させることができる。デコーダ部学習段階では、例えば、計測取得データを用い、かつ、シミュレーション取得データを用いずに、デコーダ部に学習を行わせる。また、全体学習段階では、例えば、シミュレーション取得データ及び計測取得データを用いて、学習対象ニューラルネットワークに学習を行わせる。このように構成すれば、実際に作成した試料の特性を学習済モデルにより適切に反映させることができる。
 また、複数色の着色用の材料として複数色の造形の材料を用いる場合等において、所望の質感に対応する積層構成を予測した後には、予測結果に基づき、造形しようとする造形物を示す造形データを生成することが考えられる。この場合、領域構成予測方法は、例えば、造形データを生成する造形データ生成段階を更に備える。造形データとしては、例えば、領域構成予測段階で予測した領域構成で造形物の少なくとも一部が形成されるように造形装置に造形の材料を積層させるデータを生成することが考えられる。このように構成すれば、所望の質感が得られる造形物の造形を造形装置に適切に行わせることができる。
 また、本発明の構成として、上記の一部の特徴から構成される領域構成予測方法等を考えることもできる。この場合、領域構成予測段階の動作に着目した領域構成予測方法等を考えることもできる。また、本発明の構成として、例えば、上記の領域構成予測方法に対応する領域構成予測装置を用いること等も考えられる。これらの場合も、上記と同様の効果を得ることができる。
 また、本願の発明者は、造形物の表面に形成する着色領域について、従来の一般的な構成と同じように形成するのではなく、複数の層状の領域が重なる構成で形成することを考えた。また、この場合において、着色された複数のカラー領域を重ねることで、従来の構成と比べて多様な質感を表現できることに着目した。そして、鋭意研究により、このような複数の層状の領域の一部としてカラー領域よりも透光性が高い透光性領域を更に用い、かつ、透光性領域の厚さを可変にすることで、より多様な質感を表現できることを見出した。また、この場合、例えば、このような着色領域を備える造形物を示す造形データを生成して、その造形データに基づいて造形物の造形を行うことで、多様な質感を表現できる造形物を造形することができる。
 また、本願の発明者は、更なる鋭意研究により、このような効果を得るために必要な特徴を見出し、本発明に至った。上記の課題を解決するために、本発明は、造形装置において造形する造形物を示す造形データを生成する造形データの生成方法であって、前記造形物において着色がされる領域である着色領域の構成を決定する着色構成決定段階と、前記着色構成決定段階で決定する前記着色領域の構成に基づいて前記造形データを生成するデータ生成段階とを備え、前記着色領域は、前記造形物の表面と直交する方向である法線方向に複数の層状の領域が重なる領域であり、前記複数の層状の領域として、着色用の材料を用いて着色される第1カラー領域と、前記造形物における前記第1カラー領域よりも内側において着色用の材料を用いて着色される第2カラー領域と、前記造形物における前記第1カラー領域よりも内側において透明な材料を用いて前記第1カラー領域及び前記第2カラー領域よりも透光性の高い状態で形成される透光性領域とを有し、前記着色構成決定段階は、前記第1カラー領域及び前記第2カラー領域のそれぞれの色を決定する色決定段階と、前記法線方向における前記透光性領域の厚さを決定する透光性領域厚決定段階とを有する。
 このように構成すれば、複数のカラー領域及び透光性領域が重なる着色領域を備える造形物を示す造形データを適切に生成することができる。また、このような造形データを用いて造形装置に造形を行わせることで、多様な質感を表現する造形物を造形装置に造形させることができる。更に、この場合において、透光性領域厚決定段階で透光性領域の厚さを決定することで、透光性領域の厚さを可変にすることができる。これにより、より多様な質感を表現する造形物を造形装置に造形させることができる。
 この構成において、透光性領域の透光性が第1カラー領域及び第2カラー領域よりも高いことについては、例えば、可視光領域の光に対する透光性が高いこと等と考えることができる。透光性領域としては、例えば、無色で透明な領域を形成することが考えられる。この場合、無色であることについては、意図的に着色を行っていないこと等と考えることができる。また、無色であることについては、色材を意図的に添加していない材料で形成されること等と考えることもできる。透光性領域については、可視光領域の光に対し、60%以上の透過率になるように形成することが好ましい。可視光領域の光に対する透光性領域の透過率は、好ましくは70%以上、更に好ましくは80%以上である。
 また、この構成において、造形装置は、例えば、表面の少なくとも一部が着色された3次元(3D)の造形物を造形することが考えられる。この場合、造形物の表面については、外部から色彩が視認できる領域等と考えることができる。また、造形装置においては、例えば、平面状の媒体(メディア)の上に造形の材料を積層することで、媒体とつながった状態の造形物を造形すること等も考えられる。この場合、このような造形物について、2.5次元(2.5D)の造形物等と考えることもできる。
 また、この構成において、造形装置は、例えば、造形の材料となるインクをインクジェットヘッドから吐出することで、積層造形法で造形物を造形する。また、これにより、造形装置は、着色領域及び光反射領域を備える造形物を造形する。この場合、光反射領域については、着色領域の内側において光反射性に形成される領域等と考えることができる。また、この場合、造形装置は、第1カラー領域及び第2カラー領域として、複数色のカラーインクを用いて着色がされる領域を形成する。また、透光性領域として、例えば、クリアインクを用いて形成される無色で透明な領域を形成する。このように構成すれば、多様な質感を表現する造形物を造形装置において適切に造形することができる。
 また、より具体的に、この構成において、第1カラー領域及び第2カラー領域のそれぞれについては、例えば、複数色のカラーインク及びクリアインクを用いて形成することが考えられる。この場合、造形装置は、第1カラー領域及び第2カラー領域のそれぞれに着色する色の違いによって生じる複数色のカラーインクの使用量の変化を補填するようにクリアインクを用いることで、位置によって法線方向における厚みに変化が生じないように、第1カラー領域及び第2カラー領域を形成する。このように構成すれば、第1カラー領域及び第2カラー領域のそれぞれに対し、様々な色での着色を適切に行うことができる。
 また、この場合、透光性領域については、例えば、クリアインクのみで形成することが考えられる。透光性領域に関し、無色であることについては、例えば、造形に求められる品質において実質的に無色であると見なせること等と考えることができる。また、造形物に求められる質感等によっては、クリアインク以外の色のインクを更に用いて透光性領域を形成すること等も考えられる。この場合、透光性領域の形成に用いるインクの量のうち、80%以上をクリアインクの割合(重量比での割合)にすることが好ましい。透光性領域におけるクリアインクの割合は、好ましくは90%以上、更に好ましくは95%以上である。このように構成すれば、わずかに色をつけたほぼ透明な透光性領域を適切に形成することができる。
 また、この構成において、色決定段階では、例えば、第1カラー領域及び第2カラー領域に対し、互いに異なる色を決定する。このように構成すれば、多様な質感を表現する造形物を造形装置に適切に造形させることができる。また、これにより、造形物において多様な質感を適切に表現することができる。
 また、この構成において、透光性領域の法線方向における厚さについては、可変であると考えることができる。これに対し、第1カラー領域及び第2カラー領域の法線方向における厚さについては、予め設定された一定(固定)の厚さにすることが考えられる。また、この場合、透光性領域厚決定段階では、例えば、造形物において表現しようとする質感に応じて透光性領域の厚さを決定する。このように構成すれば、所望の質感を表現する造形物を造形装置に適切に造形させることができる。また、この場合、第1カラー領域及び第2カラー領域を一定にした上で透光性領域の厚さを可変とすることで、より容易かつ適切に質感の調整等と行うことが可能になる。また、この構成において、透光性領域厚決定段階では、透光性領域の厚さを指定する指示をユーザから受け付け、当該指示に基づき、透光性領域の厚さを決定することが考えられる。このように構成すれば、ユーザの指示に基づいて、所望の質感を得るための透光性領域の厚さを適切に決定することができる。
 また、透光性領域厚決定段階では、透光性領域の厚さを指定するユーザの指示以外の方法で取得するパラメータ等に基づいて、透光性領域の厚さを決定してもよい。この場合、造形データの生成方法は、例えば、造形物において表現しようとする質感を示す質感パラメータを取得する質感パラメータ取得段階を更に備える。また、この場合、透光性領域厚決定段階では、質感パラメータ取得段階で取得する質感パラメータに基づき、透光性領域の厚さを決定する。このように構成すれば、所望の質感に合わせた透光性領域の厚さを適切に決定することができる。質感パラメータ取得段階では、例えば、予め用意された質感パラメータを取得することが考えられる。この場合、造形物の形状を示す形状データ等と対応付けられた質感パラメータを取得することが考えられる。また、質感パラメータ取得段階では、質感の指定をユーザから受け付けることで設定される質感パラメータを取得してもよい。この場合、造形物を示すコンピュータグラフィック画像(CG画像)に対してユーザが設定する質感を示す質感パラメータを取得すること等が考えられる。
 また、この構成において、透光性領域については、例えば、第1カラー領域と第2カラー領域との間に形成することが考えられる。また、透光性領域について、例えば、第2カラー領域の内側に形成すること等も考えられる。これらのように構成すれば、多様な質感を表現する造形物を造形装置に適切に造形させることができる。また、透光性領域について、例えば、第1カラー領域の外側に形成すること等も考えられる。
 また、着色領域は、複数の透光性領域を有してもよい。この場合、着色領域は、透光性領域として、例えば、中間透光性領域及び内側透光性領域を有する。中間透光性領域については、第1カラー領域と第2カラー領域との間に形成される透光性領域等と考えることができる。内側透光性領域については、例えば、造形物において第2カラー領域よりも内側に形成される透光性領域等と考えることができる。また、この場合、透光性領域厚決定段階では、例えば、中間透光性領域及び内側透光性領域のそれぞれの法線方向における厚さを決定する。このように構成すれば、より多様な質感を表現する造形物を造形装置に適切に造形させることができる。また、着色領域は、外側透光性領域を更に有してもよい。外側透光性領域については、例えば、造形物において第1カラー領域よりも外側に形成される透光性領域等と考えることができる。また、この場合、透光性領域厚決定段階では、例えば、外側透光性領域の法線方向における厚さを更に決定する。このように構成すれば、より多様な質感を表現する造形物を造形装置に適切に造形させることができる。
 また、着色領域は、第1カラー領域及び第2カラー領域以外のカラー領域を更に有してもよい。この場合、着色領域は、例えば、造形物における第2カラー領域よりも内側において着色用の材料を用いて着色される第3カラー領域を更に有する。また、この場合、それぞれの着色領域の間に透光性領域を形成することが考えられる。より具体的に、この場合、着色領域は、第1カラー領域と第2カラー領域との間に形成される透光性領域と、第2カラー領域と第3カラー領域との間に形成される透光性領域とを含む複数の透光性領域を有する。また、この場合、透光性領域厚決定段階では、複数の透光性領域のそれぞれの法線方向における厚さを決定する。このように構成すれば、より多様な質感を表現する造形物を造形装置に適切に造形させることができる。また、着色領域は、4つ以上のカラー領域を有してもよい。
 また、この構成において、色決定段階では、第1カラー領域及び第2カラー領域のそれぞれの色について、例えば、造形物として造形する対象物の外観の少なくとも一部を示す画像である外観画像に基づいて決定することが考えられる。このように構成すれば、対象物を表現する造形物を示す造形データを適切に生成できる。また、より具体的に、色決定段階では、色素成分分離法により外観画像の色素成分を分離することで、対象物の内部の色に対応する内部色と、内部よりも対象物の表面に近い部分の色に対応する表面色とを決定する。また、この場合、例えば、表面色に基づいて第1カラー領域の色を決定し、内部色に基づいて第2カラー領域の色を決定する。このように構成すれば、第1カラー領域及び第2カラー領域のそれぞれの色を適切に決定することができる。
 また、更に具体的に、造形装置では、例えば、人間を示す造形物(フィギュア等)を造形することが考えられる。そして、この場合、人間の肌の表面の色を示す外観画像を用いることが考えられる。また、この場合、色決定段階では、外観画像に基づき、色素成分分離法により、例えば、肌におけるメラニン色素の色を反映する色素成分であるメラニン成分と、肌において血液が含むヘモグロビンの色を反映する色素成分であるヘモグロビン成分とを分離する。そして、メラニン成分に基づいて表面色を決定し、ヘモグロビン成分に基づいて内部色を決定する。このように構成すれば、人間の肌の質感を表現する場合における第1カラー領域及び第2カラー領域のそれぞれの色を適切に決定することができる。
 また、本発明の特徴については、必ずしも複数のカラー領域を形成する場合に限らず、着色領域において1つのカラー領域のみを形成する場合に着目して考えることもできる。また、本発明の特徴は造形方法の特徴として考えることもできる。この場合、造形方法は、例えば、上記の造形データの生成方法によって造形データを生成する造形データ生成段階と、造形データ生成段階で生成する造形データに基づいて造形物を造形する造形段階とを備える。また、本発明の特徴として、上記と同様の特徴を有する造形データ生成装置や造形システム等を考えることもできる。これらの場合も、上記と同様の効果を得ることができる。
 また、本発明の特徴は、立体物を造形する構成ではなく、2次元(2D)の画像を印刷する構成に適用して考えることもできる。この場合、上記における造形に関する事項について、印刷に関する事項に置き換えて考えることができる。より具体的に、この場合、造形装置に代えて印刷装置を用い、造形データに代えて印刷データを用いて、造形物に代えて印刷物を作成することが考えられる。また、この場合、本発明の特徴として、上記と同様の特徴を有する印刷データの生成方法、印刷方法、印刷データ生成装置、及び印刷システム等を考えることもできる。これらの場合も、上記と同様の効果を得ることができる。
 本発明によれば、所望の質感を得るための領域構成を適切に予測することができる。
 また、本発明によれば、造形物において多様な質感を適切に表現することができる。
本発明の一実施形態に係る領域構成予測方法を実行する造形システム10について説明をする図である。図1(a)は、造形システム10の構成の一例を示す。  図1(b)は、造形装置12の要部の構成の一例を示す。図1(c)は、造形装置12におけるヘッド部102の構成の一例を示す。 造形物50の構成について説明をする図である。図2(a)は、造形装置12において造形する造形物50の構成の一例を示す断面図である。図2(b)は、造形物50における着色領域154の構成の一例を示す。 着色領域154を用いて表現する造形物の質感の一例を示す図である。図3(a)は、人間の肌の構成を簡略化して示す断面図である。図3(b)は、肌の質感を表現する場合に用いる着色領域154の構成の一例を示す。図3(c)は、着色領域154を構成する各領域の層数を異ならせた例を示す。 学習済モデルを用いて領域構成を予測する動作について説明をする図である。図4(a)は、制御PC14の構成の一例を示す。図4(b)は、制御PC14において造形データを生成する動作の一例を示すフローチャートである。 学習済モデルを生成する動作について説明をする図である。図5(a)は、学習済モデルを生成する動作の一例を示すフローチャートである。図5(b)は、ステップS102の動作をより詳細に示すフローチャートである。 インクサンプルに対して行う計測等について更に詳しく説明をする図である。図6(a)は、インクサンプルの一例を示す写真である。図6(b)は、インクサンプルに対する計測時に撮影する写真の例を示す。図6(c)は、本例において用いるダイポールモデルを表す数式を示す。 本例において行うシミュレーションについて更に詳しく説明をする図である。 本例において実行する機械学習で利用する学習モデルの構成の一例を示す図である。図8(a)は、学習モデルとして用いる深層ニューラルネットワーク(DNN)の構成の一例を示す。図8(b)は、学習モデルに対する入力、出力、及び中間出力の例を示す。 本例において行う機械学習について説明をする図である。図9(a)は、学習モデルに学習を行わせる動作の一例を示すフローチャートである。図9(b)は、デコーダ部604の学習曲線の一例を示す。図9(c)は、エンコーダ部602の学習曲線の一例を示す。 シミュレーション取得データ及び計測取得データを用い方の変形例について説明をする図である。図10(a)は、シミュレーション取得データ及び計測取得データを用いて学習済モデルを生成する動作の変形例を示すフローチャートである。  図10(b)は、シミュレーション取得データ及び計測取得データを用い方の更なる変形例を示す。 本発明の一実施形態に係る造形データの生成方法を実行する造形システム1010について説明をする図である。図11(a)は、造形システム1010の構成の一例を示す。図11(b)は、造形システム1010における造形実行部1012の要部の構成の一例を示す。図11(c)は、造形実行部1012におけるヘッド部1102の構成の一例を示す。 造形実行部1012において造形する造形物1050の構成について説明をする図である。図12(a)は、造形物1050の構成の一例を示す断面図である。図12(b)は、造形物1050における着色領域1154の構成の一例を示す。 造形システム1010において行う動作について更に詳しく説明をする図である。図13(a)は、造形システム1010において造形物1050を造形する動作の一例を示すフローチャートである。図13(b)は、着色構成決定部1016が着色領域1154の構成を決定する動作の一例を示すフローチャートである。 クリア領域1304a~cの厚さの決定の仕方について更に詳しく説明をする図である。図14(a)は、クリア領域1304a~cの厚さの決定時にユーザに示す画面である領域操作画面の一例を示す。図14(b)は、領域操作画面において最初に表示する厚さの設定であるデフォルト設定の一例を示す。 図14と共にクリア領域1304a~cの厚さの決定の仕方について更に詳しく説明をする図である。図15(a)、(b)は、ユーザの指示に応じてクリア領域1304a~cの厚さの設定を変更する動作の例を示す。 着色構成決定部1016において複数のカラー領域1302a、bの色を決定する動作について更に詳しく説明をする図である。 本願の発明者らが行った実験の条件について説明をする図である。図17(a)は、評価対象として用いた試料の構成を示す。図17(b)は、主観評価に用いた形容詞対を示す。 本願の発明者らが行った因子分析の結果を示すグラフである。 着色領域1154や造形物1050の変形例について説明をする図である。図19(a)は、着色領域1154の構成の変形例を示す。図19(b)は、造形物1050の構成の変形例を示す。 着色領域1154を備える印刷物の構成の一例を示す図である。
 [第1発明群]
 以下、本発明に係る実施形態を、図面を参照しながら説明する。図1は、本発明の一実施形態に係る領域構成予測方法を実行する造形システム10について説明をする図である。図1(a)は、造形システム10の構成の一例を示す。以下において説明をする点を除き、造形システム10は、公知の造形システムと同一又は同様の特徴を有してよい。
 本例において、造形システム10は、立体的な造形物を造形するシステムであり、造形装置12及び制御PC14を備える。造形装置12は、造形物の造形を実行する装置であり、造形の材料としてインクを用い、インクの層を積層することにより、積層造形法で造形物を造形する。この場合、積層造形法とは、複数の層を重ねて造形物を造形する方法のことである。造形物とは、例えば、立体的な三次元構造物のことである。インクについては、例えば、機能性の液体等と考えることができる。また、本例において、インクは、造形の材料の一例である。インクについては、例えば、インクジェットヘッドから吐出する液体等と考えることもできる。この場合、インクジェットヘッドとは、インクジェット方式で液体を吐出する吐出ヘッドのことである。
 また、本例において、造形装置12は、互いに異なる色の複数色のインクを用いて、着色された造形物を造形する。このような造形装置12としては、例えば、公知の造形装置を好適に用いることができる。より具体的には、造形装置12としては、例えば、ミマキエンジニアリング社製の造形装置(3Dプリンタ)等を好適に用いることができる。また、本例において、インクとしては、紫外線の照射により液体状態から硬化する紫外線硬化型のインク(UVインク)を用いる。
 制御PC14は、所定のプログラムに応じて動作するコンピュータであり、造形しようとする造形物を示す造形データを造形装置12へ供給することにより、造形装置12の動作を制御する。本例において、制御PC14は、造形しようとする造形物の形状等を示す立体データに対し、所望の質感の設定等を行って、造形データを生成する。この場合、制御PC14は、造形物を示すコンピュータグラフィック画像(以下、CG画像という)を立体データに基づいて生成し、立体データを作成したデザイナ等のユーザに対してCG画像を示しつつ、質感の設定等を、ユーザから受け付ける。そして、設定された質感で造形装置12に造形物を造形させる造形データを生成する。また、本例において、制御PC14は、領域構成予測装置の一例である。制御PC14において造形データを生成する動作については、後に更に詳しく説明をする。
 続いて、造形装置12のより具体的な構成や造形装置12において造形する造形物の構成等について、更に詳しく説明をする。図1(b)は、造形装置12の要部の構成の一例を示す。以下に説明をする点を除き、造形装置12は、公知の造形装置と同一又は同様の特徴を有してよい。より具体的には、以下に説明をする点を除き、造形装置12は、インクジェットヘッドを用いて造形物50の材料となる液滴を吐出することで造形を行う公知の造形装置と同一又は同様の特徴を有してよい。また、造形装置12は、図示した構成以外にも、例えば、造形物50の造形等に必要な各種構成を更に備えてよい。
 本例において、造形装置12は、積層造形法により立体的な造形物50を造形する造形装置(3Dプリンタ)であり、ヘッド部102、造形台104、走査駆動部106、及び制御部110を備える。ヘッド部102は、造形物50の材料を吐出する部分である。また、上記においても説明をしたように、本例において、造形物50の材料としては、紫外線硬化型のインクを用いる。この場合、紫外線硬化型のインクは、所定の条件に応じて硬化するインクの一例である。また、より具体的には、ヘッド部102は、造形物50の材料として、複数のインクジェットヘッドから、紫外線硬化型のインクを吐出する。そして、着弾後のインクを硬化させることにより、造形物50を構成する各層を重ねて形成する。また、ヘッド部102は、造形物50の材料に加え、サポート層52の材料を更に吐出する。これにより、ヘッド部102は、造形物50の周囲等に、必要に応じて、サポート層52を形成する。サポート層52とは、造形中の造形物50の少なくとも一部を支持する積層構造物のことである。サポート層52は、造形物50の造形時において、必要に応じて形成され、造形の完了後に除去される。
 造形台104は、造形中の造形物50を支持する台状部材であり、ヘッド部102におけるインクジェットヘッドと対向する位置に配設され、造形中の造形物50及びサポート層52を上面に載置する。また、本例において、造形台104は、少なくとも上面が積層方向(図中のZ方向)へ移動可能な構成を有しており、走査駆動部106に駆動されることにより、造形物50の造形の進行に合わせて、少なくとも上面を移動させる。この場合、積層方向については、例えば、積層造形法において造形の材料が積層される方向等と考えることができる。また、本例において、積層方向は、造形装置12において予め設定される主走査方向(図中のY方向)及び副走査方向(図中のX方向)と直交する方向である。
 走査駆動部106は、造形中の造形物50に対して相対的に移動する走査動作をヘッド部102に行わせる駆動部である。この場合、造形中の造形物50に対して相対的に移動するとは、造形台104に対して相対的に移動することである。また、ヘッド部102に走査動作を行わせるとは、ヘッド部102が有するインクジェットヘッドに走査動作を行わせることである。また、本例において、走査駆動部106は、走査動作として、主走査動作(Y走査)、副走査動作(X走査)、及び積層方向走査動作(Z走査)をヘッド部102に行わせる。主走査動作とは、造形中の造形物50に対してヘッド部102を相対的に主走査方向へ移動させつつインクを吐出する動作のことである。また、副走査動作とは、造形中の造形物50に対してヘッド部102を主走査方向と直交する副走査方向へ相対的に移動させる動作のことである。副走査動作については、例えば、予め設定された送り量だけ副走査方向へ造形台104に対して相対的に移動する動作等と考えることもできる。本例において、走査駆動部106は、主走査動作の合間に、ヘッド部102に副走査動作を行わせる。また、積層方向走査動作とは、造形中の造形物50に対して相対的に積層方向へヘッド部102を移動させる動作のことである。走査駆動部106は、造形の動作の進行に合わせてヘッド部102に積層方向走査動作を行わせることにより、積層方向において、造形中の造形物50に対するインクジェットヘッドの相対位置を調整する。
 制御部110は、例えば造形装置12のCPUを含む構成であり、造形装置12の各部を制御することにより、造形装置12における造形の動作を制御する。より具体的には、制御部110は、例えば造形すべき造形物50の形状情報や、カラー情報等に基づき、造形装置12の各部を制御する。本例によれば、造形物50を適切に造形できる。
 また、本例において、造形装置12におけるヘッド部102は、例えば図1(c)に示す構成を有する。図1(c)は、ヘッド部102の構成の一例を示す。本例において、ヘッド部102は、複数のインクジェットヘッド、複数の紫外線光源124、及び平坦化ローラ126を有する。また、複数のインクジェットヘッドとして、図中に示すように、インクジェットヘッド122s、インクジェットヘッド122w、インクジェットヘッド122y、インクジェットヘッド122m、インクジェットヘッド122c、インクジェットヘッド122k、及びインクジェットヘッド122tを有する。これらの複数のインクジェットヘッドは、副走査方向における位置を揃えて、主走査方向へ並べて配設される。また、それぞれのインクジェットヘッドは、造形台104と対向する面に、所定のノズル列方向へ複数のノズルが並ぶノズル列を有する。本例において、ノズル列方向は、副走査方向と平行な方向である。
 また、これらのインクジェットヘッドのうち、インクジェットヘッド122sは、サポート層52の材料を吐出するインクジェットヘッドである。サポート層52の材料としては、サポート層用の公知の材料を好適に用いることができる。インクジェットヘッド122wは、白色(W色)のインクを吐出するインクジェットヘッドである。また、本例において、白色のインクは、光反射性のインクの一例であり、例えば造形物50において光を反射する性質の領域(光反射領域)を形成する場合に用いられる。この光反射領域は、例えば、造形物50表面に対してフルカラー表現での着色を行う場合に、造形物50の外部から入射する光を反射する。フルカラー表現については、例えば、プロセスカラーのインクによる減法混色法の可能な組み合わせで行う色の表現等と考えることができる。
 インクジェットヘッド122y、インクジェットヘッド122m、インクジェットヘッド122c、インクジェットヘッド122kは、着色された造形物50の造形時に用いられる着色用のインクジェットヘッドであり、着色に用いる複数色のインク(着色用のインク)のそれぞれのインクを吐出する。より具体的には、インクジェットヘッド122yは、イエロー色(Y色)のインクを吐出する。インクジェットヘッド122mは、マゼンタ色(M色)のインクを吐出する。インクジェットヘッド122cは、シアン色(C色)のインクを吐出する。また、インクジェットヘッド122kは、ブラック色(K色)のインクを吐出する。この場合、YMCKの各色は、フルカラー表現に用いるプロセスカラーの一例である。また、本例において、YMCKの各色のインクは、複数色の着色用の材料及び複数色の造形の材料の一例である。また、インクジェットヘッド122tは、クリアインクを吐出するインクジェットヘッドである。クリアインクとは、可視光に対して無色で透明(T)なインクのことである。
 複数の紫外線光源124は、インクを硬化させるための光源(UV光源)であり、紫外線硬化型のインクを硬化させる紫外線を発生する。また、本例において、複数の紫外線光源124のそれぞれは、間にインクジェットヘッドの並びを挟むように、ヘッド部102における主走査方向の一端側及び他端側のそれぞれに配設される。紫外線光源124としては、例えば、UVLED(紫外LED)等を好適に用いることができる。また、紫外線光源124として、メタルハライドランプや水銀ランプ等を用いることも考えられる。平坦化ローラ126は、造形物50の造形中に形成されるインクの層を平坦化するための平坦化手段である。平坦化ローラ126は、主走査動作時において、インクの層の表面と接触して、硬化前のインクの一部を除去することにより、インクの層を平坦化する。
 以上のような構成のヘッド部102を用いることにより、造形物50を構成するインクの層を適切に形成できる。また、複数のインクの層を重ねて形成することにより、造形物50を適切に造形できる。また、ヘッド部102の具体的な構成については、上記において説明をした構成に限らず、様々に変形することもできる。例えば、ヘッド部102は、着色用のインクジェットヘッドとして、上記以外の色用のインクジェットヘッドを更に有してもよい。また、ヘッド部102における複数のインクジェットヘッドの並べ方についても、様々に変形可能である。例えば、一部のインクジェットヘッドについて、他のインクジェットヘッドと副走査方向における位置をずらしてもよい。
 続いて、本例の造形装置12において造形する造形物50の構成の例について、説明をする。図2は、造形物50の構成について説明をする図である。図2(a)は、造形装置12において造形する造形物50の構成の一例を示す断面図である。図2(b)は、造形物50における着色領域154の構成の一例を示す。本例において、造形装置12は、表面の少なくとも一部が着色された造形物50を造形する。この場合、造形物50の表面については、例えば、造形物50の外部から色彩を視認できる領域等と考えることができる。また、上記においても説明をしたように、本例において、造形装置12は、積層造形法で造形物50の造形を行う。そして、この場合、造形装置12は、所定の厚さのインクの層を積層方向へ重ねることで、造形物50の造形を行う。より具体的には、この場合、造形装置12は、図中において造形単位層502として示すインクの層を重ねて形成することで、造形物50の造形を行う。
 また、本例において、造形装置12は、例えば図中に示すように、内部領域152及び着色領域154を備える造形物50を造形する。内部領域152は、造形物50の内部を構成する領域であり、着色領域154により周囲を囲まれるように、造形物50の内部に形成される。また、本例において、内部領域152は、白色のインク等の光反射性のインクで形成されることで、光反射領域を兼ねた領域として形成される。造形物50の構成の変形例においては、内部領域152とは別に光反射領域を形成してもよい。この場合、内部領域152については、例えば、任意の色のインクで形成することができる。また、この場合、光反射領域は、内部領域152と着色領域154との間に形成される。
 着色領域154は、造形物50において着色がされる領域であり、着色用の複数色のインクを用いて、造形物50の表面における法線方向での厚さ(外周面からの深さ)が一定になるように造形物50の表面に形成されることで、様々な色に着色がされた状態で形成される。また、本例において、造形装置12は、CMYKの各色及びクリアインクを用いて、造形物50における着色領域154を形成する。また、造形装置12は、着色用のインクとして、例えばW色のインク等を更に用いてもよい。
 また、本例において、造形装置12は、図2(b)に示すように、複数の層状領域202が重なる構成の着色領域154を形成する。また、この場合において、造形装置12は、それぞれの層状領域202について、個別に様々な色での着色を行って形成する。また造形装置12は、複数の層状領域202を、造形物50の表面における法線方向と平行な方向に重なるように形成する。この場合、造形物50の表面における法線方向については、例えば、造形物50の表面の各位置において表面と直交する方向等と考えることができる。このように構成すれば、着色領域154において多様な質感を表現することができる。また、図2(b)では、それぞれの層状領域202の色の違いについて、図示の便宜上、網掛け模様を異ならせて示している。
 ここで、本例において、着色領域154を構成する層状領域202については、例えば、厚さが略一定であり、かつ、法線方向と直交する方向へ広がる領域等と考えることができる。また、上記においても説明をしたように、本例において、造形装置12は、積層造形法で造形物50の造形を行う。この場合、積層造形法での積層方向における上面側や下面側では、積層造形法で積層するそれぞれのインクの層である造形単位層502について、着色領域154を構成するそれぞれの層状領域202としてそのまま用いることが考えられる。また、上面や下面に対して交差する造形物50の側面において、着色領域154は、法線方向における厚さが一定になるように、側面に沿って形成される。また、この場合、着色領域154の構成は、側面に沿った層状領域202が複数重なる構成になる。そして、この場合、層状領域202について、造形単位層502とは別の層状の領域等と考えることができる。また、層状領域202については、着色領域154において質感を表現するための層状の領域等と考えることもできる。また、着色領域154を構成するそれぞれの層状領域202については、予め設定された一定の厚さで形成することが好ましい。そのため、本例においては、層状領域202の色の違いによって層状領域202の厚さに差が生じないように、無色で透明なインクであるクリアインクを用いて、適宜インクの量の補填を行う。この場合、クリアインクを用いた補填については、例えば、それぞれの層状領域202の色の違いによって生じる有色のインクの使用量の差に対する補填等と考えることができる。
 また、上記においても説明をしたように、本例によれば、複数の層状領域202を重ねた構成の着色領域154を形成することで、着色領域154において多様な質感を表現することができる。この場合、質感として、例えば、透明感等を表現することが考えられる。また、透明感を表現することで、例えば、人間の肌の質感等を高い品質で再現する着色領域154を形成すること等が考えられる。また、この場合、例えば、図3を用いて以下において説明をする構成の着色領域154を形成すること等が考えられる。
 図3は、着色領域154を用いて表現する造形物の質感の一例を示す図であり、人間の肌の質感を表現する場合の着色領域154の構成の一例を示す。図3(a)は、人間の肌の構成を簡略化して示す断面図である。図中に示すように、人間の肌は、皮下組織の上に真皮及び表皮が重なる多層構造を有している。そこで、本例においては、例えば、肌の多層構造を模した領域構成(層構造)で層状領域202を重ねた着色領域154を用いることで、肌の質感を再現する。この場合、領域構成については、例えば、造形物の少なくとも一部の領域に対応する構成等と考えることができる。
 図3(b)は、肌の質感を表現する場合に用いる着色領域154の構成の一例を示す。この場合、着色領域154は、図中に示すように、真皮領域302、表皮領域304、及びクリア領域306を有する。真皮領域302は、人間の肌における真皮に対応する領域である。また、人間の肌において、真皮は、通常、皮下組織にある血管を流れる血液の影響等により、赤みを帯びた色になる。そのため、本例において、真皮領域302については、赤色系の色の層状領域202を重ねることで形成する。また、表皮領域304は、人間の肌における表皮に対応する領域である。この場合、表皮については、例えば、人間の肌の表面の色である肌色を示す領域と考えることができる。そのため、表皮領域304については、肌色系の色の層状領域202を重ねることで形成する。
 また、人間の肌の質感においては、透明感が重要であると考えられる。そのため、本例においては、真皮領域302及び表皮領域304の上(外側)に、クリアインクで形成される領域であるクリア領域306を形成する。この場合、クリア領域306については、クリアインクのみで形成することが考えられる。また、求められる肌の質感によっては、クリア領域306について、例えば、微量の有色のインクを混ぜた状態で、主にクリアインクを用いて形成すること等も考えられる。また、この場合、真皮領域302、表皮領域304、及びクリア領域306のそれぞれを構成する層状領域202の層数や、それぞれの層状領域202の色を変化させることで、様々な質感を表現することができる。
 図3(c)は、着色領域154を構成する各領域の層数を異ならせた例を示す。図中において、左側の図は、真皮領域302を構成する層状領域202の層数を4とし、表皮領域304を構成する層状領域202の層数を2とし、クリア領域306を構成する層状領域202の層数を3とする場合の例を示す。また、右側の図は、真皮領域302を構成する層状領域202の層数を3とし、表皮領域304を構成する層状領域202の層数を5とし、クリア領域306を構成する層状領域202の層数を2とする場合の例を示す。本例によれば、例えば、各領域を構成する層状領域202の層数や色を変化させることで、様々な質感を表現することができる。また、求められる質感によっては、これらの領域のうちの一部を省略してもよい。
 ここで、着色領域154を構成する層状領域202の層数が多すぎる場合、それぞれの層状領域202において吸収される光の量が多くなることで、着色領域154の色が暗くなることが考えられる。そのため、着色領域154における層状領域202の合計については、10層以下程度にすることが好ましい。また、本例においては、着色領域154を構成する層状領域202の合計について、10層に固定している。そのため、いずれかの領域を構成する層状領域202の数が増加又は減少した場合、他のいずれかの領域を構成する層状領域202の数が減少又は増加することになる。このように構成すれば、例えば、着色領域154により表現する質感が変化した場合にも、着色領域154の厚みを一定に保つことができる。
 また、真皮領域302を構成するそれぞれの層状領域202の色や、表皮領域304を構成するそれぞれの層状領域202の色については、予め用意された色群から選択することが考えられる。この場合、色群とは、複数の色を含む群のことである。また、本例において用いる色群については、例えば、造形装置12(図1参照)において表現可能な全ての色の一部の色のみを含む群等と考えることもできる。この場合、各領域に対応する色群として、互いに異なる組み合わせの色を含む色群を用いることが考えられる。例えば、真皮領域302を構成する層状領域202において用いる色を含む色群については、赤色系の複数の色を含む色群を用いることが考えられる。表皮領域304を構成する層状領域202において用いる色を含む色群としては、肌色系の複数の色を含む色群を用いることが考えられる。
 このように、本例においては、様々な色で着色された層状領域202を重ねた構成の着色領域154を形成することで、様々な質感を表現することができる。しかし、この場合、複数の層状領域202が重なる領域構成について取り得る構成が多様になることで、どのような領域構成によりどのような質感が得られるかについて、予測が難しくなることが考えられる。また、その結果、例えば、求められる質感に対応する領域構成を探すことが難しくなること等が考えられる。
 これに対し、本例においては、領域構成における層状領域202の重なり方に対応する重なり方でインクの層が重なる積層構成と質感との関係についての機械学習を予め行わせることで作成した学習済モデルを用いて、所望の質感に対応する積層構成の予測を行う。また、積層構成の予測結果に基づき、積層構成に対応する領域構成の予測を行う。また、この場合において、学習済モデルを生成するためのデータとして、コンピュータシミュレーションを行うことで取得したデータ(以下、シミュレーション取得データという)を用いる。そこで、以下、学習済モデルを用いて領域構成を予測する動作や、シミュレーション取得データを用いて学習済モデルを生成する動作等について、説明をする。
 図4は、学習済モデルを用いて領域構成を予測する動作について説明をする図である。本例においては、例えば、造形システム10における制御PC14において、領域構成の予測を行う。そして、この場合、例えば図4(a)に示す構成の制御PC14を用いることが考えられる。図4(a)は、制御PC14の構成の一例を示す。本例において、制御PC14は、表示部402、受付部404、通信I/F部406、及び制御部408を有する。また、上記においても説明をしたように、制御PC14としては、例えば、所定のプログラムに応じて動作するコンピュータを用いることが考えられる。この場合、コンピュータの各部について、制御PC14の各部として動作すると考えることができる。
 表示部402は、文字や画像等を表示する表示装置である。表示部402としては、例えば、コンピュータのモニタ等を好適に用いることができる。また、本例において、表示部402は、例えば、造形装置12(図1参照)において造形しようとする造形物を示すCG画像等を表示する。受付部404は、ユーザの指示を受け付ける入力装置である。受付部404としては、例えば、コンピュータの入力装置(例えば、マウス、キーボード等)を好適に用いることができる。また、本例において、受付部404は、例えば、表示部402に表示しているCG画像に対し、質感を設定する指示をユーザから受け付ける。また、この場合、本例において、質感としては、透明感に対応する質感の設定を受け付ける。
 通信I/F部406は、制御PC14の外部の装置との通信を行うためのインターフェース部である。通信I/F部406としては、例えば、コンピュータにおける通信インターフェース部等を好適に用いることができる。また、本例において、制御PC14は、通信I/F部406を介して、造形装置12や、他のコンピュータとの通信を行う。この場合、造形装置12との通信では、例えば、造形データの供給等を行うことが考えられる。また、他のコンピュータとの通信としては、例えば、学習済モデルを格納しているコンピュータとの間で通信を行うこと等が考えられる。この場合、制御PC14は、通信I/F部406を介して他のコンピュータと通信することにより、例えば、CG画像に設定された質感に対して学習済モデルを用いて予測を行った予測結果を他のコンピュータから取得する。このように構成すれば、制御PC14において、例えば、学習済モデルを用いた予測の動作を適切に行うことができる。また、この場合、学習済モデルを用いた予測の動作については、例えば、機械学習の結果を利用した予測の動作等と考えることもできる。また、制御PC14は、例えば、他のコンピュータと通信を行うことなく、図示を省略した制御PC14の記憶部等に記憶した学習済モデルを用いて、学習済モデルを用いた予測を行ってもよい。
 制御部408は、制御PC14における各部の動作を制御する構成である。制御部408としては、例えば、コンピュータのCPU等を好適に用いることができる。また、本例において、制御PC14は、ユーザによりCG画像に対して設定される質感に基づき、造形データを生成する。この場合、制御部408は、例えば、学習済モデルを用いて行う予測の結果に基づき、ユーザにより指定される質感(所望の質感)に対応する造形物50の領域構成の予測を行う。そして、予測した領域構成に基づき、造形データを生成する。また、制御部408は、生成した造形データについて、通信I/F部406を介して、造形装置12へ供給(出力)する。このように構成すれば、例えば、所望の質感を再現する造形物の造形を造形装置12に適切に行わせることができる。
 また、制御PC14においては、例えば図4(b)に示す動作を行うことで、質感の設定をユーザから受け付けて、造形データを生成する。図4(b)は、制御PC14において造形データを生成する動作の一例を示すフローチャートである。本例において造形データを生成する動作において、制御PC14は、先ず、造形物を示すCG画像を表示部402に表示して、受付部404を介して、質感を指定する指示をユーザから受け付ける(S102)。また、これにより、制御PC14は、CG画像に対し、質感の設定を行う。CG画像に質感を設定するとは、例えば、CG画像が示すオブジェクトの少なくとも一部に対して質感を設定することであってよい。また、本例において、CG画像に対して設定する質感としては、上記においても説明をしたように、透明感に対応する質感を用いる。また、この場合、制御PC14は、例えば、造形物の形状を示す立体データに基づき、造形物を示すCG画像を作成して、表示部402に表示する。この場合、立体データとしては、例えば、造形しようとする造形物の形状等を汎用の形式で示すデータ等を好適に用いることができる。制御PC14の動作の変形例においては、例えば、制御PC14において質感の設定をユーザから受け付けるのではなく、予め質感が設定されたCG画像を制御PC14の外部から受け取ってもよい。
 また、ステップS102の動作に続いて、制御PC14は、質感が設定されたCG画像に基づき、CG画像に設定されている質感に対応するパラメータである設定パラメータの算出を行う(S104)。この場合、ステップS104の動作は、パラメータ算出段階の動作の一例である。また、ステップS104において、制御PC14は、例えば、CG画像に対して光を照射するシミュレーション(コンピュータシミュレーション)を行うことで、設定パラメータを算出する。本例において、質感に対応する設定パラメータとしては、光の広がり方を示す関数を用いる。パラメータとして所定の関数を用いることについては、例えば、所定の関数によって算出される値をパラメータとして用いること等と考えることができる。また、本例において、このような関数としては、線広がり関数(LSF:Line Spread Function)を用いる。
 また、この場合、設定パラメータを算出する動作とは、ユーザにより指定される質感をCG画像に対して設定した上で、質感に対応するLSFをシミュレーションによって取得する動作である。例えば、質感が設定されているCG画像に対して光(例えば、レーザ光)を照射するシミュレーションを行うことで、質感に対応するLSFを取得する。また、このシミュレーションとしては、例えば、実際に作成した試料(パッチ)や造形物に対してLSFの計測を行う場合等と同様にして、線状の光を照射するシミュレーションを行うことが考えられる。また、実用上は、例えば、CG画像が示す物体の表面にスポットライトで点状の光を照射するシミュレーションを行うことでも、画素値の推移からLSFを適切に取得することができる。この場合、点状の光を照射するシミュレーションを行うことで点広がり関数(PSF:Point Spread Function)を算出し、点広がり関数に基づいてLSFを算出すること等が考えられる。
 また、設定パラメータを算出した後、制御PC14は、予め作成された学習済モデルを用いて、設定パラメータに対応する積層構成(レイアウト)の取得を行う(S106)。この場合、積層構成については、例えば、着色された層状の領域が複数重なる構成等と考えることができる。また、この積層構成については、例えば、造形物50の着色領域154を構成する複数の層状領域202(図2参照)の重なり方を示すために学習済モデルの作成時に用いる構成等と考えることもできる。また、この積層構成については、例えば、造形時に積層するそれぞれの造形単位層502が着色領域154における1つの層状領域202に一致する場合における造形単位層502(図2参照)の重なり方に対応する構成等と考えることもできる。本例の積層構成は、造形物50における着色領域154(図2参照)の領域構成に対応する重なり方でインクの層が重なる構成等と考えることができる。
 また、ステップS106の動作については、例えば、ステップS104において算出した設定パラメータを学習済モデルに対する入力として用いて、積層構成を示す出力を取得する動作等と考えることもできる。この場合、入力として設定パラメータを用いることについては、例えば、学習済モデルへ入力可能な形式で表現した設定パラメータを与えること等と考えることができる。このように構成すれば、例えば、CG画像に設定されている質感に対応する積層構成について、学習済モデルを利用して適切に取得することができる。また、これにより、例えば、所望の質感に対応する積層構成の予測を適切に行うことができる。
 また、本例において、制御PC14は、積層構成の予測結果に基づき、造形物50の着色領域154において複数の層状領域202が重なる領域構成の予測を行う。この場合、領域構成を予測することについては、例えば、ユーザの指定された質感を表現するための着色領域154の構成を予測すること等と考えることができる。また、上記においても説明をしたように、本例において、学習済モデルを用いて予測する積層構成については、造形物50における着色領域154の領域構成に対応する重なり方でインクの層が重なる構成等と考えることができる。そして、この場合、制御PC14は、領域構成として、積層構成におけるインクの層の重なり方に対応する重なり方で複数の層状領域202が重なる構成を予測する。このように構成すれば、例えば、領域構成の予測を適切に行うことができる。また、この場合、制御PC14について、例えば、領域構成予測装置として機能していると考えることができる。また、本例において、ステップS106の動作は、積層構成取得段階の動作の一例である。また、ステップS104~S106において行う一連の動作は、領域構成予測段階の動作の一例である。この場合、領域構成予測段階とは、例えば、所望の質感に対応する領域構成を予測する段階のことである。また、領域構成予測段階については、例えば、学習済モデルを用いて質感に対応する積層構成を予測し、当該積層構成に基づき、所望の質感に対応する領域構成を予測する段階等と考えることもできる。また、本例においては、S102~S106において行う一連の動作について、領域構成予測段階の動作の一例と考えることもできる。
 また、ユーザにより指定される質感に対応する領域構成の予測を行った後、制御PC14は、予測結果に基づき、造形しようとする造形物を示す造形データを生成する(S108)。本例において、ステップS108の動作は、造形データ生成段階の動作の一例である。また、ステップS108において、制御PC14は、造形データとして、例えば、ステップS106で取得した領域構成で着色領域154が形成されるように造形装置12にインクの層を積層させるデータを生成する。本例によれば、例えば、所望の質感に対応する領域構成の予測を適切に行うことができる。また、領域構成の予測結果に基づいて造形データを生成することで、例えば、所望の質感が得られる造形物の造形を造形装置12に適切に行わせることができる。
 続いて、学習済モデルを生成する動作等について、説明をする。図5は、学習済モデルを生成する動作について説明をする図である。図5(a)は、学習済モデルを生成する動作の一例を示すフローチャートである。上記においても説明をしたように、本例においては、学習済モデルを生成するためのデータとして、シミュレーション(コンピュータシミュレーション)を行うことで取得したシミュレーション取得データを用いる。また、この場合、シミュレーションにおいては、造形装置12(図1参照)において造形に使用するインクの特性を示すパラメータを用いる。そして、本例においては、このインクの特性について、各色のインクに対応する試料であるインクサンプル(3Dプリンタインクサンプル)を作成し、インクサンプルに対して所定の計測を行うことで取得する。
 また、この場合、本例においては、先ず、造形装置12において用いる少なくとも一部の色のインクについてインクサンプルを作成し、インクサンプルに対する所定の計測を行うことで、インクの特性を取得する(S202)。本例のステップS202では、この計測の結果に基づき、インクの特性として、各色のインクの吸収係数及び散乱係数を決定する。また、この場合、インクの吸収係数及び散乱係数については、計測によって直接取得するのではなく、吸収係数及び散乱係数を反映した所定の状態を計測して、所定の算出処理を行うことで、取得する。
 そして、ステップS202に続いて、ステップS202において取得したインクの特性を利用して、シミュレーションを実行する(S204)。また、本例において、このシミュレーションでは、互いに異なる構成で着色された層状の領域が複数重なる複数種類の積層構成に対し、それぞれの積層構成により表現される質感の予測を行う。また、これにより、ステップS204では、積層構成と所定の質感との関係をシミュレーションにより予測する。
 また、本例において、ステップS204の動作は、質感予測段階の動作の一例である。ステップS204において、質感としては、例えば、透明感に対応する質感を用いることが考えられる。この場合、透明感については、例えば、複数の層状の領域が重なることで表現される透明感等と考えることができる。また、本例において、積層構成により表現される質感を示すパラメータとしては、光の広がり方を示す関数を用いる。このような関数としては、線広がり関数(LSF)を用いる。また、本例においては、ステップS204において行うシミュレーションで予測した質感に基づく積層構成と質感との関係を示すデータを、シミュレーション取得データと考えることができる。また、本例において、シミュレーションとは、指定した入力に対応する状態の予測をコンピュータでの演算により行うこと等と考えることができる。また、この場合、コンピュータでの演算について、例えば、入力に対応する出力を予め指定した規則に従って計算する動作等と考えることができる。また、この規則については、例えば、数式により記述される規則等と考えることができる。
 また、ステップS204でシミュレーションを行った後には、その結果を利用してコンピュータに機械学習を行わせることで、学習済モデルを生成する(S206)。本例のステップS206では、複数種類の積層構成に対してステップS204において予測した質感に基づき、学習済モデルを機械学習により生成する。この場合、学習済モデルとは、積層構成と質感との関係とを学習させた学習モデル等と考えることができる。また、本例において、ステップS206の動作は、学習段階の動作の一例である。ステップS206において、機械学習としては、例えば、深層学習(ディープラーニング)等を好適に用いることができる。この場合、ステップS206は、例えば、学習対象のニューラルネットワークである学習対象ニューラルネットワークに学習を行わせる段階等と考えることができる。本例によれば、例えば、領域構成の予測に用いる学習済モデルを適切に作成することができる。
 続いて、図5(a)のフローチャートにおける各ステップの動作について、更に詳しく説明をする。図5(b)は、ステップS202の動作をより詳細に示すフローチャートである。上記においても説明をしたように、インクの特性の計測時には、造形装置12において用いる少なくとも一部の色のインクについてインクサンプルを作成する(S212)。また、本例においては、YMCKの各色のインク、及びクリアインクについて、インクサンプルを作成する。この場合、各色用のインクサンプルについては、例えば、計測対象の試料の一例と考えることができる。また、YMCKの各色のインクに対応するサンプルについては、例えば、着色用の材料に対応する試料の一例と考えることができる。また、本例において、ステップS212の動作は、各色試料作成段階の動作の一例である。各色試料作成段階については、例えば、それぞれの色の着色用の材料に対応する試料を作成する段階等と考えることができる。
 また、インクサンプルを作成した後には、所定の計測を行うことで各色のインクの特性を取得し(S214)、その結果に基づき、各色のインクの吸収係数及び散乱係数を決定する(S216)。インクサンプルに対して行う計測や、吸収係数及び散乱係数の決定の仕方等については、後に更に詳しく説明をする。また、本例において、ステップS214及びS216において行う動作は、係数決定段階の動作の一例である。係数決定段階については、例えば、各色試料作成段階で作成した試料の光学的な特性を計測することで複数色の着色用の材料のそれぞれに対応する吸収係数及び散乱係数を決定する段階等と考えることができる。本例によれば、例えば、少数のインクサンプルに対する計測を行うことで、それぞれの色のインクに対応する吸収係数及び散乱係数を適切に決定することができる。
 図6は、インクサンプルに対して行う計測等について更に詳しく説明をする図である。図6(a)は、インクサンプルの一例を示す写真であり、本願の発明者が実際に作成したインクサンプルの例を示す。図6(b)は、インクサンプルに対する計測時に撮影する写真の例を示す。図6(c)は、本例において用いるダイポールモデルを表す数式を示す。
 上記においても説明をしたように、本例においては、YMCKの各色のインク、及びクリアインクについて、インクサンプルを作成する。この場合、造形装置12(図1参照)において、それぞれの色のインクの層を複数重ねて形成することで、その色のインクサンプルを作成する。各色のインクサンプルについては、例えば、1つの色のインクの層を重ねた試料等と考えることもできる。また、インクサンプルとしては、上記以外の色用のサンプルを更に作成してもよい。この場合、例えば、白色用のインクサンプルを更に作成すること等が考えられる。
 また、本例において、インクサンプルに対する計測としては、それぞれのインクサンプルの上面に対して点光源による光の照射を行って、インクサンプルの写真を撮影することで、光の散乱現象の計測を行う。この場合、点光源としては、レッド色(R色)、グリーン色(G色)、及びブルー色(B色)のレーザ光を用いる。そして、例えば、図6(b)に示すように、露光時間を1/1000秒、1/250秒、1/60秒、1/15秒、1/4秒、1秒、及び4秒のそれぞれに設定して、インクサンプルの写真の撮影を行う。レーザ光の光源としては、公知のスマートビームレーザプロジェクタ等を好適に用いることができる。また、撮影については、暗室にて、公知のデジタルカメラで行うことが考えられる。また、この場合、カメラのレンズの前に偏光板を装着して、表面反射成分の影響を低減することが好ましい。また、レーザ光の照射時には、画像中央部にのみ高い画素値を持つ画像をプロジェクタで投影し、かつ、例えばスリットで投影光を絞ることで、擬似的に点光源を再現することが考えられる。この場合、投影する画像の解像度については、プロジェクタの解像度に合わせることが考えられる。
 また、本例においては、このようにしてインクサンプルの写真を撮影する動作を、インクサンプルに対する計測を行う動作と考えることができる。そして、このようにしてインクサンプルに対する計測を行った後には、撮影された写真に基づき、各色のインクの吸収係数及び散乱係数を決定する。また、本例においては、撮影された写真が示すデータをダイポールモデルに当てはめることで、吸収係数及び散乱係数を決定する。例えば、図6(c)に示す数式で表現されるダイポールモデルにおいて、散乱項は、吸収係数及び散乱係数をパラメータとして持つ項と考えることができる。そして、この場合、散乱現象を計測した結果をダイポールモデルで近似することで、吸収係数及び散乱係数を推定することができる。この場合、吸収係数及び散乱係数を決定する動作について、例えば、ダイポールモデルを利用して吸収係数及び散乱係数を推定する動作等と考えることができる。また、この場合、例えば、非等方性パラメータや相対屈折率等の値を所定の値に固定して、ダイポールモデルへのフィッティングを行うことで、吸収係数及び散乱係数を決定することが考えられる。
 また、ダイポールモデルへのフィッティング時には、必要に応じて、適宜補正を行ってもよい。このような補正としては、例えば、それぞれのインクサンプルの反射率を考慮した補正を行うことが考えられる。また、この場合、インクサンプルの反射率については、別途計測を行って取得することが考えられる。また、本例において、ダイポールモデルは、吸収係数及び散乱係数を用いてインクサンプルの特性を示すモデルの一例である。吸収係数及び散乱係数の決定の仕方の変形例においては、ダイポールモデル以外のモデルを用いてもよい。また、この場合、インクサンプルに対する計測について、使用するモデルに合わせた計測を行うことが考えられる。本例によれば、造形装置12において用いる各色のインクに対応する吸収係数及び散乱係数を適切に決定することができる。また、これにより、その後に行うシミュレーションにおいて、使用するインクの特性を反映したシミュレーションを適切に行うことができる。
 図7は、本例において行うシミュレーションについて更に詳しく説明をする図である。上記においても説明をしたように、本例においては、予め取得したインクの特性を利用して、シミュレーションを実行することで、質感の予測を行う。また、このシミュレーションでは、互いに異なる構成の複数種類の積層構成に対し、それぞれの積層構成により表現される質感の予測を行う。また、この場合、例えば図中に示すように、様々な色のインクの層が重ねられた積層構成を考え、それぞれの積層構成により得られる質感(積層構造により表現される質感)について、各色のインクの吸収係数及び散乱係数を用いて、コンピュータシミュレーションにより算出する。
 また、本例において、積層構成としては、下地となる白色の層を最下層として、その上に所定の数の層が重なる構成を考える。また、この場合、最下層以外の各層の色として、造形装置12において使用する複数色のインクの組み合わせで表現可能な様々な色を用いる。この場合、積層構成における層の数については、造形物50の着色領域154(図2参照)を構成する層状領域202(図2参照)の数と同じにすることが考えられる。また、積層構成における各層の色については、予め用意された色群から選択することが考えられる。このような色群としては、層状領域202の色として用いる複数種類の色を含む色群を用いることが考えられる。図3等を用いて上記において説明をしたように、着色領域154としては、人間の肌の多層構造を模した領域構成で層状領域202を重ねた領域を用いることが考えられる。そして、この場合、図7に示す積層構成として、真皮領域302、表皮領域304、及びクリア領域306(図3参照)の各領域の層状領域202に対応する層が重なる構成を用いる。また、真皮領域302及び表皮領域304の層状領域202に対応する層の色について、真皮領域302用の色群及び表皮領域304用の色群に含まれる色から選択することが考えられる。
 また、造形物50の造形時に実際に着色領域154を形成する動作においては、各色のインクを吐出する吐出位置の割合を様々に変化させることで、それぞれの層状領域202の色について、面積的に表現を行う。しかし、本例において行うシミュレーションにおいて、このようにして面積的に色を表現しようとすると、必要な処理が複雑になると考えられる。そのため、本例において行うシミュレーションでの各層の色については、単位体積に含まれる各色のインクの比率により、体積的に表現する。
 また、本例において行うシミュレーションでは、各層の色が設定された積層構成に対し、各色のインクの吸収係数及び散乱係数を用いて、光散乱モンテカルロシミュレーション法(MCML法)により、その積層構成により得られる質感の予測を行う。光散乱モンテカルロシミュレーション法については、例えば、対象物質が多層混濁媒質である場合に輸送方程式の解を得るためのモンテカルロ法等と考えることができる。また、光散乱モンテカルロシミュレーション法においては、例えば図中に示すように、積層構成におけるそれぞれの層の中で入射光に対して生じる散乱及び吸収を確率的に計算して、反射光の予測を行う。積層構成に対する光散乱モンテカルロシミュレーション法の適用については、光散乱モンテカルロシミュレーション法の公知の利用の仕方と同一又は同様に行うことができる。
 また、上記においても説明をしたように、本例においては、このシミュレーションにより予測する質感を示すパラメータとして、光の広がり方を示す関数を用いる。また、このような関数として、線広がり関数(LSF)を用いる。本例によれば、例えば、積層構成に対応する試料の作成や試料に対する計測等を行うことなく、様々な積層構成に対し、対応する質感の予測を適切に行うことができる。また、これにより、例えば、多数の積層構成について、積層構成と質感との関係を示すデータを容易かつ適切に取得することができる。
 続いて、本例において学習済モデルを生成する動作や、学習済モデルを利用する動作等について、更に詳しく説明をする。図8は、本例において実行する機械学習で利用する学習モデルの構成の一例を示す。図8(a)は、学習モデルとして用いる深層ニューラルネットワーク(DNN:Deep Neural Network)の構成の一例を示す。図8(b)は、学習モデルに対する入力、出力、及び中間出力の例を示す。学習モデルについては、例えば、機械学習を行うことで変更されるパラメータを有するモデル等と考えることができる。また、学習済モデルについては、例えば、所定の学習を行わせることでパラメータの調整を行った後の学習モデル等と考えることができる。また、上記において説明をしたように、本例においては、機械学習として深層学習を用いる。そして、学習モデルとしては、DNNを用いる。この場合、学習を行わせる学習モデルは、学習対象のニューラルネットワークの一例と考えることができる。
 また、本例において、学習モデルとしては、図8(a)に示すように、エンコーダ部602及びデコーダ部604を有するニューラルネットワークを用いる。この場合、エンコーダ部602については、例えば、所定のパラメータを入力とし、入力とは異なる所定のパラメータを出力するニューラルネットワーク等と考えることができる。また、デコーダ部604については、例えば、エンコーダ部602が出力するパラメータを入力とし、エンコーダ部602の入力と同じパラメータを出力として出力するニューラルネットワーク等と考えることができる。また、この場合、本例において用いる学習モデルについては、例えば、エンコーダ部602とデコーダ部604とをつなげたニューラルネットワーク等と考えることもできる。エンコーダ部602及びデコーダ部604のそれぞれには、3層以上の多層のニューラルネットワークを用いることが考えられる。
 また、本例においては、エンコーダ部602への入力は、学習モデル(学習モデルの全体)に対する入力と考えることができる。エンコーダ部602の出力については、学習モデルにおける中間出力と考えることができる。また、デコーダ部604の出力については、学習モデルの出力と考えることができる。また、本例においては、学習モデルの入力及び出力として、図8(b)に示すように、線広がり関数(LSF)を用いる。この場合、図中に示すように、線広がり関数の値をR成分、G成分、及びB成分に分けて入力及び出力として用いることが考えられる。例えば、RGBの各成分を要素数100程度のベクトルで表して入力及び出力として用いることが考えられる。また、この場合、学習モデルの入力及び出力として用いるLSFを、質感を示すパラメータの一例と考えることができる。
 また、本例において、学習モデルの中間出力となるエンコーダ部602の出力には、積層構成(レイアウト)を示すパラメータを用いる。この場合、積層構成とは、図7を用いて説明をした、シミュレーションで質感の予測を行うために用いた積層構成である。また、この場合、積層構成を示すパラメータとしては、積層構成で重ねられるそれぞれの層の色を示すパラメータを用いる。本例においては、積層構成で積層される層数を一定にして、それぞれの層の色を示す番号(色番号)により構成されるベクトルを用いて、積層構成を示す。この場合、色番号については、例えば、複数の色を含む色群を用意して、色群に含まれるそれぞれの色に番号を対応付けることが考えられる。また、図8(b)においては、図示の便宜上、それぞれの層の色の違いについて、網掛け模様を異ならせて図示をしている。
 また、積層構成での層の数については、例えば10層程度にすることが考えられる。また、本例において、色番号としては、それぞれの色に対応付けられる整数値を用いる。そのため、エンコーダ部602においては、出力される値が整数値に近い値になるように、出力の直前に、ソフト量子化層を設けている。ソフト量子化層については、例えば、微分可能な関数によって出力値を整数値に近づける構成等と考えることができる。ソフト量子化層としては、このような目的で用いられる公知の関数を好適に用いることができる。例えば、ソフト量子化層として、微分可能なように滑らかに変化する略階段状の関数を用いること等が考えられる。
 また、本例においては、このような学習モデルに対し、上記においても説明をしたように、図7等を用いて説明をしたシミュレーションにより取得されるシミュレーション取得データを用いて、機械学習を行わせる。図9は、本例において行う機械学習について説明をする図である。図9(a)は、学習モデルに学習を行わせる動作の一例を示すフローチャートである。本例において、学習モデルに学習を行わせる場合、先にデコーダ部604に学習を行わせ、その後に、学習モデルの全体に学習を行わせる。
 この場合、先ず、シミュレーション取得データを用いて、積層構成と質感との関係の学習をデコーダ部604に行わせることでデコーダ部604における重みを決定する(S302)。この場合、積層構成と質感との関係の学習をデコーダ部604に行わせることについては、例えば、様々な積層構成に対してシミュレーションによって計算された質感に基づき、積層構成と質感との対応関係を再現するようにデコーダ部604の重みを調整すること等と考えることができる。また、エンコーダ部602及びデコーダ部604のようなニューラルネットワークにおける重みとは、ニューラルネットワークを構成するニューロン間に設定される重みのことである。また、デコーダ部604に学習を行わせる動作については、例えば、図8(a)に示す学習モデルの全体における中間出力と出力との関係がシミュレーション取得データを反映させるように学習モデルに学習を行わせる動作等と考えることもできる。また、本例において、ステップS302の動作は、デコーダ部学習段階の一例である。
 また、デコーダ部604に対して学習を行わせた後には、エンコーダ部602とデコーダ部604とを結合して(S304)、積層構成と質感との関係の学習を学習モデルの全体に行わせる(S306)。本例のステップS306では、ステップS302で決定したデコーダ部604における重みを固定して、学習モデルの全体に学習を行わせる。また、この場合において、エンコーダ部602への入力とデコーダ部604からの出力とが同じになるように、エンコーダ部602における重みの調整を行う。
 このように構成すれば、例えば、デコーダ部604に学習させた積層構成と質感との関係を保持しつつ、シミュレーション取得データが示す積層構成と質感との関係を反映するように、エンコーダ部602における重みの調整を行うことができる。また、これにより、例えば、学習モデルの全体に対し、シミュレーション取得データに基づく学習を適切に行わせることができる。また、本例において、ステップS306の動作は、全体学習段階の動作の一例である。また、この場合、このようにして学習を行わせた学習モデルについては、積層構成の予測時に用いる学習済モデルと考えることができる。
 ここで、上記においても説明をしたように、本例においては、積層構成を示すパラメータを、学習モデルにおける中間出力として用いている。そのため、積層構成の予測時には、積層構成を示す値として、この中間出力を用いることが考えられる。このように構成すれば、例えば、所望の質感に対応する積層構成の予測を適切に行うことができる。また、この中間出力は、学習モデルにおけるエンコーダ部602の出力になっている。そのため、積層構成の予測時には、学習済のエンコーダ部602を学習済モデルとして使用してもよい。この場合も、学習済モデルの作成時には、エンコーダ部602及びデコーダ部604を有するニューラルネットワークを学習対象ニューラルネットワークとして用いることが好ましい。このように構成した場合も、例えば、所望の質感に対応する積層構成の予測を適切に行うことができる。
 尚、学習済のエンコーダ部602を学習済モデルとして使用する場合、わざわざデコーダ部604を用いずに、エンコーダ部602のみに対し、シミュレーション取得データに基づく学習を行わせればよいようにも思われる。しかし、デコーダ部604を用いずに、シミュレーション取得データに基づく学習をエンコーダ部602に直接行わせる場合、学習が完了するまでの時間がより多くかかることが考えられる。また、例えば、必要なシミュレーション取得データの数が大幅に増大すること等も考えられる。また、この場合、シミュレーション取得データの数を大幅に増やしたとしても、適切に学習が完了しなくなるおそれもある。これに対し、本例によれば、例えば、先にデコーダ部604の重みを設定して、その後にエンコーダ部602の重みを調整することで、エンコーダ部602の学習を効率的かつ適切に行わせることができる。
 また、本願の発明者は、実際に、積層構成(レイアウト)と質感(LSF)との関係について、1413組のデータをシミュレーション取得データとして準備して、デコーダ部604及び学習モデルの全体に対し、学習を行わせた。また、この場合において、8割のデータを学習データとして用い、2割のデータをテストデータとして用いた。図9(b)は、デコーダ部604の学習曲線の一例を示す。図9(c)は、エンコーダ部602の学習曲線の一例を示す。図9(b)、(c)において、横軸は、エポック数である。縦軸は、損失関数の出力結果を示す。また、この場合、エンコーダ部602の学習曲線については、例えば、エンコーダ部602とデコーダ部604とを結合した学習モデル全体の学習曲線等と考えることもできる。
 図示した学習曲線等から理解できるように、デコーダ部604においては、早々に学習が収束していることがわかる。また、エンコーダ部602においても、エポック数が20に差し掛かるあたりで収束していることがわかる。更に、エンコーダ部602及びデコーダ部604の両方において、バリデーションデータに対しても十分に高い精度での推定ができていることがわかる。また、先に分割しておいたテストデータに対するロス値は、0.1460であり、未知のデータに対しても学習データと同程度の精度で推定を行うことが可能であった。また、エンコーダ部602に学習が収束した時点でのロス値も十分に小さく、積層構成の予測を適切に行えていることが確認できた。
 このように、本例によれば、例えば、積層構成と質感との関係を適切に学習させた学習済モデルを適切に生成することができる。また、このような学習済モデルを用いることで、例えば、透明感等の質感について、所望の質感に対応する積層構成の予測等を適切に行うことができる。また、上記においても説明をしたように、本例においては、シミュレーションにより取得するシミュレーション取得データを用いて、学習済モデルを生成する。そして、この場合、例えば、実際に多数の試料を作成することや多数の試料に対する計測等を行うことなく、学習に必要な多数のデータを適切に準備することができる。また、これにより、例えば、学習済モデルを生成するために要する手間や時間等を適切に低減することができる。
 また、上記においては、主に、学習データとしてシミュレーション取得データのみを用いて学習済モデルを生成する動作の例について、説明をした。しかし、学習済モデルを生成する動作の変形例においては、シミュレーション取得データ以外のデータを更に用いて、学習済モデルを生成してもよい。例えば、所望の質感に対応する積層構成の予測をより高い精度で行おうとする場合等において、実際に試料(パッチ)を作成して計測を行うことで取得されたデータ(以下、計測取得データという)を更に用いること等も考えられる。この場合、例えば、様々な積層構成に対応する試料を実際に作成して、透明感等の質感(注目する質感)に対応する計測を試料に対して行うことで、計測取得データを取得する。そして、シミュレーション取得データ及び計測取得データを用いて学習モデルに学習を行わせることで、学習済モデルを生成する。このように構成した場合も、シミュレーション取得データを用いることで、例えば計測取得データのみを用いて学習済モデルを生成する場合等と比べ、必要な試料の数を大幅に削減することができる。
 また、計測取得データについては、例えば、造形装置等を用いて作成した試料に対して光学的な特性を計測することで取得される積層構成と質感との関係を示すデータ等と考えることができる。また、学習モデルの作成時には、例えば、シミュレーション取得データと計測取得データとを区別せずに用いて、学習済モデルを生成することが考えられる。この場合、シミュレーション取得データと計測取得データとを区別せずに用いるとは、学習済モデルを生成するための学習時において、それぞれのデータがシミュレーション取得データ及び計測取得データのいずれであるかによって扱い方を変えずに、同じように扱うことである。また、このような動作については、例えば、計測取得データを追加することで学習に用いるデータの数を増やす動作等と考えることもできる。このように構成すれば、例えば、容易かつ適切にシミュレーション取得データ及び計測取得データを用いることができる。
 尚、機械学習として深層学習を用いる場合において、シミュレーション取得データと計測取得データとの間でデータの傾向の差が大きい場合、両者を区別せずに用いると、データ全体でのデータの傾向が薄まることで、学習の精度が低下する場合もある。そのため、シミュレーション取得データと計測取得データとの間でデータの傾向の差が大きい場合には、計測取得データを用いずに、シミュレーション取得データのみを用いて学習済モデルを生成することが好ましい。これに対しシミュレーション取得データと計測取得データとの間でデータの傾向の差が小さい場合には、上記のようにシミュレーション取得データ及び計測取得データを用いることで、例えば、高い精度での学習を適切に行うことができる。また、これにより、例えば、高い精度で質感と積層構成との関係を予測できる学習済モデルを適切に生成することができる。
 シミュレーション取得データ及び計測取得データを用いる場合、シミュレーション取得データ及び計測取得データについて、それぞれの特徴を活かすように、異なる用い方で用いることが考えられる。この場合、シミュレーション取得データについては、例えば、多数のデータをより容易に作成できるデータ等と考えることができる。また、計測取得データについては、例えば、質感と積層構成との関係をより高い精度で示しているデータ等と考えることができる。そして、この場合、例えば図10に示すように、シミュレーション取得データ及び計測取得データを用いることが考えられる。図10は、シミュレーション取得データ及び計測取得データの用い方の変形例について説明をする図である。図10(a)は、シミュレーション取得データ及び計測取得データを用いて学習済モデルを生成する動作の変形例を示すフローチャートである。
 本変形例においては、最初にシミュレーション取得データを用いた学習(初期学習)を行わせて学習を進めた学習モデルを生成し(S402)、その学習モデルに対して計測取得データを用いた学習(追加学習)を行わせる(S404)。このような動作については、例えば、シミュレーション取得データを反映した学習モデルに対する調整を計測取得データを用いて行う動作等と考えることもできる。また、この場合、ステップS402の動作は、第1学習段階の動作の一例である。第1学習段階については、例えば、計測取得データを用いず、シミュレーション取得データを用いた学習を学習モデルに対して行わせる段階等と考えることができる。また、本変形例において、ステップS402では、計測取得データを用いる学習により、シミュレーション取得データを反映した学習モデルである中間生成モデルを生成する。また、ステップS404の動作は、第2学習段階の動作の一例である。第2学習段階については、例えば、第1学習段階の後に計測取得データを用いた学習を学習モデルに対して行わせる段階等と考えることができる。また、本変形例において、ステップS404では、ステップS402で生成した中間生成モデルに対して計測取得データを用いた学習を更に行わせることで学習済モデルを生成する。
 本変形例によれば、例えば、シミュレーション取得データ及び計測取得データについて、それぞれの特徴を活かすよう適切に用いることができる。また、これにより、例えば、実際に作成した試料の特性を反映させた学習済モデルを効率的に作成することができる。また、例えば、より高い精度で質感と積層構成との関係を予測できる学習済モデルを適切に生成することができる。また、本変形例において学習済モデルを生成する動作については、例えば、転移学習を行う動作等と考えることができる。この場合、ステップS402で生成される中間生成モデルについて、例えば、シミュレーション取得データを用いた学習により生成される第1の学習済モデルと考えることができる。また、ステップS402で生成される学習済モデルについて、計測取得データ及び第1の学習済モデルを用いた転移学習により生成される第2の学習済モデル等と考えることができる。また、この場合、このような方法で転移学習を行うことで、例えば計測取得済データのみを用いた学習を行う場合等と比べ、計測取得データを反映した学習済モデルを効率的かつ適切に作成することができる。
 また、例えば図8(a)に示すようなエンコーダ部602及びデコーダ部604(図8参照)を有するニューラルネットワークを学習モデルとして用いる場合、学習モデルの構成に合わせてシミュレーション取得データ及び計測取得データを用いること等も考えられる。この場合、ステップS402において、計測取得データを用いた学習をデコーダ部604に行わせること等が考えられる。また、ステップS404において、シミュレーション取得データを用いた学習を学習モデルの全体に行わせることが考えられる。また、この場合、ステップS402の動作について、デコーダ部学習段階の一例にもなっていると考えることができる。ステップS404の動作について、全体学習段階の一例にもなっていると考えることができる。このように構成すれば、例えば、学習モデルの構成に合わせて、シミュレーション取得データ及び計測取得データを適切に用いることができる。また、これにより、例えば、実際に作成した試料の特性を反映させた学習済モデルを効率的に作成することができる。
 また、上記においても説明をしたように、エンコーダ部602及びデコーダ部604を有するニューラルネットワークを用いる場合、デコーダ部604の学習については、比較的早期に収束すると考えられる。そのため、例えばシミュレーション取得データと比べて数の少ない計測取得データのみを用いる場合でも、デコーダ部604については、学習を適切に行わせることが可能である。そのため、ステップS404では、例えば、計測取得データを用い、かつ、シミュレーション取得データを用いずに、デコーダ部604に学習を行わせることが考えられる。このように構成すれば、例えば、先に重みを決定するデコーダ部604について、計測取得データをより適切に反映した学習を行わせることができる。また、この場合、その後に行うステップS404での学習では、上記においても説明をしたように、デコーダ部604の重みを固定して学習を行う。そのため、このように構成すれば、ステップS404において行う学習においても、計測取得データを反映した学習を適切に行うことができる。また、ステップS404において学習モデルの全体に対して行う学習においては、学習データの数が多い方が好ましいと考えられる。そのため、ステップS404においては、シミュレーション取得データ及び計測取得データを用いて、学習モデルに学習を行わせることが考えられる。また、学習の目的等に応じて、ステップS404では、シミュレーション取得データを用い、かつ、計測取得データを用いずに、学習モデルに学習を行わせてもよい。
 また、シミュレーション取得データ及び計測取得データについては、同じ学習モデルの学習用データとして用いるのではなく、例えば図10(b)に示すように、互いに異なる学習モデルに対する学習用データとして用いてもよい。図10(b)は、シミュレーション取得データ及び計測取得データの用い方の更なる変形例を示す。
 本変形例において、学習済モデルとしては、質感(LSF等)から積層構成(レイアウト)を予測するために用いる予測用モデルと、積層構成に対応する質感を確認するために用いる確認用モデルとを用いる。この場合、予測用モデルとしては、例えば、上記において説明をした積層構成の予測用の学習済モデルを好適に用いることができる。本変形例において、予測用モデルの作成時には、シミュレーション取得データを用い、かつ、計測取得データを用いずに、学習モデルに学習を行わせる。予測用モデルとしては、例えば図8等を用いて説明した学習モデルに対してシミュレーション取得データを用いた学習を行わせることで作成する学習済モデル等を好適に用いることができる。また、本変形例において、確認用モデルは、予測用モデルでの予測の結果を確認するために用いる学習済モデルである。確認用モデルとしては、例えば、図8等を用いて説明をした学習モデルにおけるデコーダ部604に対応するニューラルネットワーク等を好適に用いることができる。また、本変形例において、確認用モデルの作成時には、計測取得データを用い、かつ、シミュレーション取得データを用いずに、学習モデルに学習を行わせる。
 また、本変形例では、例えば、積層構成の予測時において、予測用モデルを用いて積層構成の予測を行った上で、更に、確認用モデルを用いて予測結果の確認を行うことが考えられる。例えば、予測用モデルが出力する積層構成を、確認用モデルの入力として更に用いることが考えられる。そして、確認用モデルの出力について、予測用モデルの入力として用いた所望の質感(LSF等)と比較を行うことが考えられる。このように構成すれば、例えば、予測用モデルを用いて行う積層構成の予測の結果について、所望の質感が得られる結果であるか否かについて、より適切に確認をすることができる。また、この場合、必要に応じて、例えば所望の質感が得られるように、積層構成の予測の結果を調整すること等が考えられる。このように構成すれば、例えば、所望の質感に対応する積層構成をより適切に取得することができる。
 また、シミュレーション取得データ及び計測取得データの用い方の更なる変形例においては、例えば、シミュレーション取得データを用いて行う学習を行った後に、学習結果を利用して、計測の対象とする試料の作成を行うこと等も考えられる。例えば、シミュレーション取得データを用いた学習を行うことで、学習を行うために必要な学習データの量を確認することが考えられる。また、この場合、確認した学習データの必要量に合わせて、計測取得データを取得するために用いる試料を作成することが考えられる。このように構成すれば、例えば、必要以上に多くの試料を作成することなく、学習に必要な量の計測取得データを適切に取得することができる。また、この場合、所望の質感に対応する層構成を予測するための学習済モデルについて、シミュレーション取得データを用いずに、計測取得データのみを用いて作成することが考えられる。このように構成した場合も、シミュレーション取得データ及び計測取得データを用いて、所望の質感に対応する層構成の予測等を適切に行うことができる。
 続いて、上記において説明をした各構成に関する補足説明等を行う。また、以下においては、説明の便宜上、上記において説明をした変形例等も含めて、本例という。上記においても説明をしたように、本例において、制御PC14(図1参照)は、領域構成予測装置の一例である。また、例えば図4(a)に図示をしたように、本例において、制御PC14は、表示部402、受付部404、通信I/F部406、及び制御部408を有する。この場合、制御部408は、例えば、所定のプログラムに従って動作することで、領域構成予測装置の各部として動作する。より具体的には、制御部408は、所定のプログラムに従って動作することで、例えば、質感予測部、学習済モデル作成部、領域構成予測部、及び造形データ生成部等として動作する。この場合、質感予測部については、例えば、質感予測段階の動作を実行する構成等と考えることができる。学習済モデル作成部については、例えば、学習段階の動作を実行する構成等と考えることができる。領域構成予測部については、例えば、領域構成予測段階の動作を実行する構成等と考えることができる。また、造形データ生成部については、例えば、造形データ生成段階の動作を実行する構成等と考えることができる。また、制御部408は、制御PC14における他の構成について、領域構成予測装置の各構成として動作させてもよい。
 また、上記においては、積層構成を予測する動作に関し、主に、造形装置12(図1参照)において造形する造形物の一部の領域構成に対応する積層構成を予測する動作について、説明をした。しかし、積層構成を予測する動作の変形例においては、このような造形物以外の物の少なくとも一部の領域構成に対応する積層構成の予測を行ってもよい。例えば、2次元の画像を印刷する印刷装置(例えば、インクジェットプリンタ)においては、印刷対象の媒体(メディア)上に様々な色のインクの層を複数重ねることで様々な質感を表現すること等も考えられる。そして、この場合、例えば、媒体上に重ねて形成されるインクの層の重なり方を領域構成と考えて、このような領域構成に対応する積層構成の予測を行ってもよい。また、例えば媒体上にインクの層を重ねることで立体的な形状を形成する印刷装置(いわゆる、2.5Dプリンタ)を用いる場合、媒体上に形成される立体的な形状の表面の構成を領域構成と考えて、このような領域構成に対応する積層構成の予測を行ってもよい。これらの場合にも、上記と同様にして作成した学習済モデルを用いることで、積層構成の予測等を適切に行うことができる。
 [第2発明群]
 以下、本発明に係る実施形態を、図面を参照しながら説明する。図11は、本発明の一実施形態に係る造形データの生成方法を実行する造形システム1010について説明をする図である。図11(a)は、造形システム1010の構成の一例を示す。以下において説明をする点を除き、造形システム1010は、公知の造形システムと同一又は同様の特徴を有してよい。
 本例において、造形システム1010は、立体的な造形物を造形するシステムであり、造形実行部1012、造形データ生成部1014、及び着色構成決定部1016を備える。造形実行部1012は、造形システム1010において造形物の造形を実行する構成であり、造形の材料としてインクを用い、インクの層を積層することにより、積層造形法で造形物を造形する。この場合、積層造形法については、複数の層を重ねて造形物を造形する方法等と考えることができる。造形物については、例えば、立体的な三次元構造物等と考えることができる。インクについては、例えば、機能性の液体等と考えることができる。また、本例において、インクは、造形の材料の一例である。インクについては、例えば、インクジェットヘッドから吐出する液体等と考えることもできる。この場合、インクジェットヘッドとは、インクジェット方式で液体を吐出する吐出ヘッドのことである。
 また、本例において、造形実行部1012は、互いに異なる色の複数色のインクを用いて、着色された造形物を造形する。このような造形実行部1012としては、例えば、公知の造形装置を好適に用いることができる。より具体的に、造形実行部1012としては、例えば、ミマキエンジニアリング社製の造形装置(3Dプリンタ)等を好適に用いることができる。また、本例において、インクとしては、紫外線の照射により液体状態から硬化する紫外線硬化型のインク(UVインク)を用いる。また、本例において、造形実行部1012は、造形データ生成部1014から受け取る造形データに基づき、造形の動作を実行する。造形データについては、例えば、造形装置において造形する造形物を示すデータ等と考えることができる。また、より具体的に、本例において、造形データとしては、造形物を構成する各領域の構成等を示すデータを用いる。また、この場合、造形データは、少なくとも、造形物において着色がされる領域である着色領域の構成を示す。本例における着色領域の構成等については、後に更に詳しく説明をする。
 尚、上記の説明等から理解できるように、本例においては、造形実行部1012は、造形装置の一例と考えることができる。また、造形システム1010の構成によっては、造形システム1010の全体について、造形装置の一例と考えることもできる。また、例えば、造形実行部1012と造形データ生成部1014とを合わせた部分について、造形装置の一例と考えることもできる。また、本例において、造形実行部1012は、造形物の断面を示すスライスデータに基づいてインクを吐出することで、スライスデータに対応するインクの層を形成する。また、この場合において、造形実行部1012は、積層方向における互いに異なる位置での造形物の断面を示すスライスデータに基づき、積層方向における造形物の各位置を構成するインクの層を形成する。積層方向については、積層造形法において造形の材料が積層される方向等と考えることができる。
 造形データ生成部1014は、造形実行部1012へ供給する造形データを生成する構成であり、造形データを造形実行部1012へ供給することで、造形実行部1012において実行する造形の動作を制御する。造形データ生成部1014としては、例えば、所定のプログラムに応じて動作するコンピュータ等を好適に用いることができる。また、造形データ生成部1014は、着色構成決定部1016において決定される着色領域の構成に基づき、造形データを生成する。より具体的に、本例において、造形データ生成部1014は、着色構成決定部1016において決定される構成の着色領域を有する造形物を示す造形データを生成して、造形データを造形実行部1012へ供給することで、造形実行部1012において決定される構成の着色領域を有する造形物を造形実行部1012に造形させる。
 ここで、造形データ生成部1014において生成する造形データについては、例えば、造形物の形状、及び造形物の各位置の色を示すデータ等と考えることができる。また、本例において、造形データは、造形物の各位置の色として、造形物の内部も含めて、造形物の全体の各位置の色を示す。また、上記において説明をしたように、本例において、造形実行部1012は、スライスデータに基づき、造形物の造形を行う。この場合、造形データ生成部1014は、例えば、造形データとして、スライスデータを生成する。造形データとしてスライスデータを生成することについては、着色構成決定部1016において決定される構成について造形物の各位置の断面毎に示すデータを造形データとして生成すること等と考えることもできる。また、スライスデータについては、造形実行部1012において生成すること等も考えられる。この場合、造形データ生成部1014は、造形物の全体をまとめて示す造形データを生成する。また、造形実行部1012は、造形データ生成部1014から受け取る造形データを切り分けるスライス処理を行うことで、スライスデータを生成する。また、この場合、造形データ生成部1014において生成する造形データは、スライス処理を行う前の状態で造形物を示すデータ等と考えることができる。
 着色構成決定部1016は、造形物における着色領域の構成を決定する構成であり、決定した着色領域の構成を造形データ生成部1014へ伝えることで、決定した構成の着色領域を備える造形物を示す造形データを造形データ生成部1014に生成させる。着色構成決定部1016としては、例えば、所定のプログラムに応じて動作するコンピュータ等を好適に用いることができる。また、この場合、着色構成決定部1016用のコンピュータとしては、例えば造形データ生成部1014用とは異なる専用のコンピュータを用いてもよく、造形データ生成部1014用と共通のコンピュータ(1つのコンピュータ)を用いてもよい。また、本例において、着色構成決定部1016は、所望の質感を表現するための着色領域の構成を決定する。着色構成決定部1016において決定する着色領域の構成については、後に更に詳しく説明をする。
 続いて、造形実行部1012のより具体的な構成等について、更に詳しく説明をする。図11(b)は、造形実行部1012の要部の構成の一例を示す。以下に説明をする点を除き、造形実行部1012は、公知の造形装置と同一又は同様の特徴を有してよい。より具体的には、以下に説明をする点を除き、造形実行部1012は、インクジェットヘッドを用いて造形物1050の材料となる液滴を吐出することで造形を行う公知の造形装置と同一又は同様の特徴を有してよい。また、造形実行部1012は、図示した構成以外にも、造形物1050の造形等に必要な各種構成を更に備えてよい。
 本例において、造形実行部1012は、積層造形法により立体的な造形物1050を造形する造形装置(3Dプリンタ)であり、ヘッド部1102、造形台1104、走査駆動部1106、及び造形制御部1110を備える。ヘッド部1102は、造形物1050の材料を吐出する部分である。また、上記においても説明をしたように、本例において、造形物1050の材料としては、紫外線硬化型のインクを用いる。この場合、紫外線硬化型のインクは、所定の条件に応じて硬化するインクの一例である。また、より具体的には、ヘッド部1102は、造形物1050の材料として、複数のインクジェットヘッドから、紫外線硬化型のインクを吐出する。そして、着弾後のインクを硬化させることにより、造形物1050を構成する各層を重ねて形成する。また、ヘッド部1102は、造形物1050の材料に加え、サポート層1052の材料を更に吐出する。これにより、ヘッド部1102は、造形物1050の周囲等に、必要に応じて、サポート層1052を形成する。サポート層1052とは、造形中の造形物1050の少なくとも一部を支持する積層構造物のことである。サポート層1052は、造形物1050の造形時において、必要に応じて形成され、造形の完了後に除去される。
 造形台1104は、造形中の造形物1050を支持する台状部材であり、ヘッド部1102のインクジェットヘッドと対向する位置に配設され、造形中の造形物1050及びサポート層1052を上面に載置する。また、本例において、造形台1104は、少なくとも上面が積層方向(図中のZ方向)へ移動可能な構成を有しており、走査駆動部1106に駆動されることにより、造形物1050の造形の進行に合わせて、少なくとも上面を移動させる。また、本例において、積層方向は、造形実行部1012において予め設定される主走査方向(図中のY方向)及び副走査方向(図中のX方向)と直交する方向である。
 走査駆動部1106は、造形中の造形物1050に対して相対的に移動する走査動作をヘッド部1102に行わせる駆動部である。この場合、造形中の造形物1050に対して相対的に移動するとは、造形台1104に対して相対的に移動することである。また、ヘッド部1102に走査動作を行わせるとは、ヘッド部1102が有するインクジェットヘッドに走査動作を行わせることである。また、本例において、走査駆動部1106は、走査動作として、主走査動作(Y走査)、副走査動作(X走査)、及び積層方向走査動作(Z走査)をヘッド部1102に行わせる。主走査動作とは、造形中の造形物1050に対してヘッド部1102を相対的に主走査方向へ移動させつつインクを吐出する動作等と考えることができる。副走査動作とは、造形中の造形物1050に対してヘッド部1102を主走査方向と直交する副走査方向へ相対的に移動させる動作等と考えることができる。また、副走査動作については、例えば、予め設定された送り量だけ副走査方向へ造形台1104に対して相対的に移動する動作等と考えることもできる。本例において、走査駆動部1106は、主走査動作の合間に、ヘッド部1102に副走査動作を行わせる。また、積層方向走査動作とは、造形中の造形物1050に対して相対的に積層方向へヘッド部1102を移動させる動作のことである。走査駆動部1106は、例えば、造形台1104を積層方向へ移動させることで、造形の動作の進行に合わせてヘッド部1102に積層方向走査動作を行わせる。また、これにより、走査駆動部1106は、積層方向において、造形中の造形物1050に対するインクジェットヘッドの相対位置を調整する。
 造形制御部1110は、例えば造形実行部1012のCPUを含む構成であり、造形実行部1012の各部を制御することにより、造形実行部1012における造形の動作を制御する。また、本例において、造形制御部1110は、造形データ生成部1014から受け取る造形データに基づき、造形実行部1012において決定される構成の着色領域を備える造形物1050が造形されるように、造形実行部1012の各部を制御する。本例によれば、造形物1050を適切に造形できる。
 また、本例において、造形実行部1012のヘッド部1102は、例えば図11(c)に示す構成を有する。図11(c)は、ヘッド部1102の構成の一例を示す。本例において、ヘッド部1102は、複数のインクジェットヘッド、複数の紫外線光源1204、及び平坦化手段1206を有する。また、複数のインクジェットヘッドとして、図中に示すように、インクジェットヘッド1202s、インクジェットヘッド1202w、インクジェットヘッド1202y、インクジェットヘッド1202m、インクジェットヘッド1202c、インクジェットヘッド1202k、及びインクジェットヘッド1202tを有する。これらの複数のインクジェットヘッドは、副走査方向における位置を揃えて、主走査方向へ並べて配設される。また、それぞれのインクジェットヘッドは、造形台1104と対向する面に、所定のノズル列方向へ複数のノズルが並ぶノズル列を有する。本例において、ノズル列方向は、副走査方向と平行な方向である。
 また、これらのインクジェットヘッドのうち、インクジェットヘッド1202sは、サポート層1052の材料を吐出するインクジェットヘッドである。サポート層1052の材料としては、サポート層用の公知の材料を好適に用いることができる。インクジェットヘッド1202wは、白色(W色)のインクを吐出するインクジェットヘッドである。また、本例において、白色のインクは、光反射性のインクの一例であり、例えば造形物1050において光を反射する性質の領域(光反射領域)を形成する場合に用いられる。この光反射領域は、例えば、造形物1050表面に対してフルカラー表現での着色を行う場合に、造形物1050の外部から入射する光を反射する。フルカラー表現については、例えば、プロセスカラーのインクによる減法混色法の可能な組み合わせで行う色の表現等と考えることができる。
 インクジェットヘッド1202y、インクジェットヘッド1202m、インクジェットヘッド1202c、インクジェットヘッド1202kは、着色された造形物1050の造形時に用いられる着色用のインクジェットヘッドであり、着色に用いる複数色のインク(着色用の有色のインク)のそれぞれのインクを吐出する。より具体的に、インクジェットヘッド1202yは、イエロー色(Y色)のインクを吐出する。インクジェットヘッド1202mは、マゼンタ色(M色)のインクを吐出する。インクジェットヘッド1202cは、シアン色(C色)のインクを吐出する。また、インクジェットヘッド1202kは、ブラック色(K色)のインクを吐出する。この場合、YMCKの各色は、フルカラー表現に用いるプロセスカラーの一例である。また、本例において、YMCKの各色のインクは、複数色の着色用の材料及び複数色の造形の材料の一例である。また、インクジェットヘッド1202tは、クリアインクを吐出するインクジェットヘッドである。クリアインクについては、可視光に対して無色で透明(T)なインク等と考えることができる。
 複数の紫外線光源1204は、インクを硬化させるための光源(UV光源)であり、紫外線硬化型のインクを硬化させる紫外線を発生する。また、本例において、複数の紫外線光源1204のそれぞれは、間にインクジェットヘッドの並びを挟むように、ヘッド部1102における主走査方向の一端側及び他端側のそれぞれに配設される。紫外線光源1204としては、例えば、UVLED(紫外LED)等を好適に用いることができる。また、紫外線光源1204として、メタルハライドランプや水銀ランプ等を用いることも考えられる。平坦化手段1206は、造形物1050の造形中に形成されるインクの層を平坦化するための平坦化手段である。平坦化手段1206は、例えば主走査動作時において、インクの層の表面と接触して、硬化前のインクの一部を除去することにより、インクの層を平坦化する。
 以上のような構成のヘッド部1102を用いることにより、造形物1050を構成するインクの層を適切に形成できる。また、複数のインクの層を重ねて形成することにより、造形物1050を適切に造形できる。また、ヘッド部1102の具体的な構成については、上記において説明をした構成に限らず、様々に変形することもできる。例えば、ヘッド部1102は、着色用のインクジェットヘッドとして、上記以外の色用のインクジェットヘッドを更に有してもよい。また、ヘッド部1102における複数のインクジェットヘッドの並べ方についても、様々に変形可能である。例えば、一部のインクジェットヘッドについて、他のインクジェットヘッドと副走査方向における位置をずらしてもよい。
 続いて、本例の造形システム1010において造形する造形物1050の構成について、更に詳しく説明をする。図12は、造形実行部1012(図11参照)が造形する造形物1050の構成について説明をする図である。図12(a)は、造形物1050の構成の一例を示す断面図である。図12(b)は、造形物1050における着色領域1154の構成の一例を示す図であり、着色領域1154の断面の構成の一例を光反射領域1152と共に示す。本例において、造形実行部1012は、表面の少なくとも一部が着色された造形物1050を造形する。この場合、造形物1050の表面については、例えば、造形物1050の外部から色彩を視認できる領域等と考えることができる。また、より具体的に、本例において、造形実行部1012は、例えば図中に示すように、光反射領域1152及び着色領域1154を備える造形物1050を造形する。
 光反射領域1152は、着色領域1154の内側に形成され、少なくとも可視光を反射する光反射性の領域である。本例において、光反射領域1152は、着色領域1154により周囲を囲まれるように、酸化チタン等の白色顔料を含む白色のインクで形成されることで、着色領域1154の背景として機能する。また、本例において、光反射領域1152は、造形物1050の内部を構成する内部領域を兼ねた領域として形成される。造形物1050の構成の変形例においては、光反射領域1152とは別に内部領域を形成してもよい。この場合、光反射領域1152を、内部領域と着色領域1154との間に形成することが考えられる。また、内部領域については、インクジェットヘッド1202s(図11参照)から吐出するサポート層1052の材料以外の任意のインクで形成することが考えられる。
 着色領域1154は、造形物1050において着色がされる領域であり、着色用の複数色のインクを用いて造形物1050の表面に形成されることで、様々な色に着色がされた状態で形成される。また、本例において、造形実行部1012は、例えば、YMCKの各色のインク及びクリアインクを用いて、造形物1050における着色領域1154を形成する。造形実行部1012は、着色用のインクとして、例えばW色のインク等を更に用いてもよい。また、本例において、造形実行部1012は、例えば図12(b)に示すように、複数のカラー領域1302及び複数のクリア領域1304が重なる構成の着色領域1154を形成する。複数のカラー領域1302及び複数のクリア領域1304のそれぞれは、図中に示すように、造形物1050の表面と直交する方向である法線方向と平行な方向において重なる層状の領域である。
 この場合、層状の領域については、例えば、厚さが略一定であり、かつ、法線方向と直交する方向へ広がる領域等と考えることができる。また、厚さが略一定であることについては、例えば、求められる着色の品質等に応じた範囲で一定と見なせること等と考えることができる。また、法線方向については、例えば、造形物1050の表面の各位置において表面と直交する方向等と考えることができる。また、図12(b)においては、図示の便宜上、法線方向が同じ方向に揃っている範囲について、着色領域1154の構成の一例を図示している。しかし、実際の造形物1050においては、造形物1050の表面の位置によって、法線方向が変化することが考えられる。この場合、複数のカラー領域1302及び複数のクリア領域1304のそれぞれを造形物1050の表面に沿って重ねるように形成することで、これらカラー領域1302及びクリア領域1304が法線方向と平行な方向に重なることになる。
 また、本例において、着色領域1154は、図中においてカラー領域1302a及びカラー領域1302bが区別されて図示されているように、2つのカラー領域1302を有する。また、図中においてクリア領域1304a、クリア領域1304b、及びクリア領域1304cが区別されて図示されているように、3つのクリア領域1304を有する。カラー領域1302aは、着色用の材料を用いて着色される第1カラー領域の一例である。カラー領域1302bは、造形物における第1カラー領域よりも内側において着色用の材料を用いて着色される第2カラー領域の一例である。クリア領域1304a~cは、透明な材料を用いて第1カラー領域及び第2カラー領域よりも透光性の高い状態で形成される透光性領域の一例である。また、クリア領域1304a~cのうち、クリア領域1304b、cは、造形物における第1カラー領域よりも内側に形成される透光性領域の一例である。これらのカラー領域1302及びクリア領域1304は、図中に示すように、光反射領域1152の外側において、クリア領域1304とカラー領域1302とが交互に重なるように形成される。
 また、後に詳しく説明をするように、本例においては、クリア領域1304a~cの厚さを可変にすることで、着色領域1154において様々な質感を表現する。そのため、クリア領域1304a~cのそれぞれの厚さについては、互いに異なっていてもよい。また、図中において網掛け模様を異ならせて示すように、本例においては、カラー領域1302aの色と、カラー領域1302bの色とを独立に決定することで、カラー領域1302aの色とカラー領域1302bの色とを異ならせる。カラー領域1302a、bについては、個別に様々な色での着色を行って形成すると考えることもできる。また、この場合において、色の違いによってカラー領域1302a、bの厚さに変化が生じないように、クリアインクを用いて、適宜インクの量の補填を行う。クリアインクを用いた補填については、例えば、カラー領域1302a、bの色の違いによって生じる有色のインクの使用量の差に対する補填等と考えることができる。また、この場合、カラー領域1302a、bについて、着色用の有色のインクとクリアインクとを用いて形成される領域等と考えることができる。また、カラー領域1302a、bについて、例えば、複数色のカラーインクを用いて着色がされる領域等と考えることもできる。また、カラー領域1302a、bについて、例えば、複数色のカラーインク及びクリアインクを用いて形成される領域等と考えることもできる。
 また、このような補填を行うことについて、例えば造形実行部1012の動作に着目して考えると、例えば、カラー領域1302a、bのそれぞれに着色する色の違いによって生じる複数色のカラーインクの使用量の変化を補填するようにクリアインクを用いる動作等と考えることができる。また、この場合、造形実行部1012は、このような補填を行うことで、位置によって法線方向における厚みに変化が生じないように、カラー領域1302a、bを形成する。このように構成すれば、カラー領域1302a、bのそれぞれに対し、様々な色での着色を適切に行うことができる。また、この場合、クリアインクの補填量については、明るい色や薄い色での着色を行う場合により多くなると考えることができる。
 また、本例において、クリア領域1304aは、第1カラー領域よりも外側に形成される透光性領域である外側透光性領域の一例である。クリア領域1304bは、第1カラー領域と第2カラー領域との間に形成される透光性領域である中間透光性領域の一例である。クリア領域1304cは、第2カラー領域よりも内側に形成される透光性領域である内側透光性領域の一例である。クリア領域1304a~cについては、例えば、無色で透明な領域等と考えることができる。この場合、無色であることについては、例えば、意図的に着色を行っていないこと等と考えることができる。また、無色であることについては、例えば、色材を意図的に添加していない材料で形成されること等と考えることもできる。本例においては、クリアインクは、色材を意図的に添加していない材料と考えることができる。また、造形実行部1012は、クリアインクのみを用いてクリア領域1304a~cのそれぞれを形成することで、無色で透明なクリア領域1304a~cを形成する。クリア領域1304a~cのそれぞれについては、可視光領域の光に対し、60%以上の透過率になるように形成することが好ましい。クリア領域1304a~cのそれぞれの透過率については、クリア領域1304a~cのそれぞれの厚さ(法線方向における厚さ)の全体での透過率等と考えることができる。クリア領域1304a~cのそれぞれの可視光領域の光に対する透過率は、好ましくは70%以上、更に好ましくは80%以上である。
 また、クリア領域1304a~cのそれぞれに関し、無色であることについては、造形に求められる品質において実質的に無色であると見なせること等と考えることができる。また、造形物に求められる質感等によっては、クリアインク以外の色のインクを更に用いてクリア領域1304a~cの少なくとも一部を形成すること等も考えられる。この場合、クリア領域1304a~cのいずれかとして、わずかに色をつけたほぼ透明な領域を形成することが考えられる。また、この場合、クリア領域1304a~cのそれぞれの形成に用いるインクの量のうち、80%以上をクリアインクの割合(重量比での割合)にすることが好ましい。クリア領域1304a~cのそれぞれにおけるクリアインクの割合は、好ましくは90%以上、更に好ましくは95%以上である。このように構成すれば、クリア領域1304a~cを適切に形成することができる。また、以上のようなカラー領域1302a、b及びクリア領域1304a~cを有する着色領域1154を形成することで、着色領域1154において多様な質感を表現することができる。また、これにより、造形実行部1012において、多様な質感を表現する造形物1050を適切に造形することができる。
 ここで、上記においても説明をしたように、本例において、造形実行部1012は、積層造形法で造形物1050の造形を行う。この場合、積層造形法での積層方向における上面側や下面側では、積層造形法で積層するそれぞれのインクの層(以下、造形単位層という)が重なる方向と、着色領域1154におけるカラー領域1302a、b及びクリア領域1304a~cが重なる方向とが同じ方向になる。そして、この場合、カラー領域1302a、b及びクリア領域1304a~cのそれぞれは、造形単位層の整数倍の厚さで形成されると考えられる。より具体的には、この場合、積層方向における上面側や下面側では、カラー領域1302a、bのそれぞれを、予め設定された一定の層数の造形単位層で形成することが考えられる。このように構成すれば、カラー領域1302a、bのそれぞれの厚さについて、予め設定された一定(固定)の厚さにすることができる。また、この場合、カラー領域1302a、bのそれぞれについて、1つの造形単位層で形成することも考えられる。この場合、カラー領域1302a、bのそれぞれの厚さについて、造形単位層の厚さと同じになっていると考えることができる。また、厚さを可変にするクリア領域1304a~cのそれぞれについては、n層(nは、0以上の整数)の造形単位層で形成することが考えられる。この場合、nを変数とすることで、クリア領域1304a~cのそれぞれの厚さを様々に変化させることができる。また、この場合、クリア領域1304a~cのそれぞれの厚さについて、造形単位層の厚さのn倍になっていると考えることができる。
 また、上記においても説明をしたように、造形物1050の上面側及び下面側以外の部分において、着色領域1154におけるカラー領域1302a、b及びクリア領域1304a~cは、造形物1050の表面に沿って重なることになる。そして、この場合、造形の動作で実現可能な精度に応じて、カラー領域1302a、b及びクリア領域1304a~cのそれぞれについて、造形物1050の上面側及び下面側での厚さと実質的に同じになるように形成することが考えられる。このように構成すれば、法線方向においてカラー領域1302a、b及びクリア領域1304a~cが重なる着色領域1154を適切に形成することができる。
 続いて、造形システム1010において造形物1050を造形する動作や、着色構成決定部1016において着色領域1154の構成を決定する動作等について、更に詳しく説明をする。図13は、造形システム1010において行う動作について更に詳しく説明をする図である。図13(a)は、造形システム1010において造形物1050を造形する動作の一例を示すフローチャートである。
 本例の造形システム1010において、造形物1050の造形を行う場合、先ず、着色構成決定部1016において、造形物1050における着色領域1154の構成を決定する(S1102)。より具体的に、本例において、着色構成決定部1016は、着色領域1154の構成として、着色領域1154におけるカラー領域1302a、bの色、及びクリア領域1304a~cの厚さを決定する。この場合、着色領域1154における位置毎に、カラー領域1302a、bの色、及びクリア領域1304a~cの厚さを決定することが考えられる。また、本例において、ステップS1102で着色構成決定部1016が着色領域1154の構成を決定する動作は、着色構成決定段階の動作の一例である。着色領域1154の構成を決定する動作については、図13(b)を用いて、後に更に詳しく説明をする。
 また、着色構成決定部1016において着色領域1154の構成を決定した後には、決定された着色領域1154の構成を反映するように、造形データ生成部1014において、造形データを生成する(S1104)。この場合、造形データ生成部1014の動作は、着色構成決定段階で決定された着色領域1154の構成に基づいて造形データを生成する動作等と考えることができる。また、本例において、ステップS1104で造形データ生成部1014が造形データを生成する動作は、データ生成段階の動作の一例である。
 また、より具体的には、ステップS1104において、造形データ生成部1014は、造形実行部1012において造形しようとする造形物1050の形状を示す形状データと、着色構成決定部1016において決定された着色領域1154の構成とに基づき、造形物1050における光反射領域1152及び着色領域1154の各位置の色を示す造形データを生成する。また、上記においても説明をしたように、造形データ生成部1014では、造形データとして、積層方向における各位置での造形物1050の断面を示すスライスデータを生成することが考えられる。この場合、光反射領域1152及び着色領域1154の各位置の色を造形データが示すことについては、例えば、各断面の位置での光反射領域1152及び着色領域1154の各位置の色を各断面の位置に対応するスライスデータが示すこと等と考えることができる。
 また、ステップS1104での造形データ生成部1014の動作については、例えば、造形データを生成することで、造形実行部1012において造形を行う造形物1050の形状を決定していると考えることもできる。この場合、ステップS1104において造形データ生成部1014が造形データを生成する動作については、例えば、造形物1050の形状を決定する形状決定段階の動作を兼ねていると考えることもできる。また、本例において、ステップS1102及びステップS1104において着色構成決定部1016及び造形データ生成部1014が行う動作は、造形データ生成段階の動作の一例である。また、この場合、造形データ生成部1014と着色構成決定部1016とを合わせた構成は、造形データ生成装置の一例と考えることができる。
 また、ステップS1104において造形データが生成された後には、造形実行部1012において、造形物1050の造形を行う動作を実行する(S1106)。この場合、造形実行部1012は、造形データに基づいて複数のインクの層を重ねて形成することで、造形物1050の造形を行う。また、本例において、ステップS1106において造形実行部1012が行う動作は、造形段階の動作の一例である。
 続いて、ステップS1102において着色構成決定部1016が着色領域1154の構成を決定する動作について、更に詳しく説明をする。図13(b)は、着色構成決定部1016が着色領域1154の構成を決定する動作の一例を示すフローチャートである。本例において、着色領域1154の構成を決定する場合、着色構成決定部1016は、先ず、造形物1050の形状を示す形状データと、造形物1050の表面の色を示す表面色データを取得する(S1202)。
 この場合、形状データとしては、例えば、公知の形式で立体的な形状を示すデータ(3Dデータ)等を用いることができる。また、この場合、例えば、造形実行部1012の構成等に依存しない汎用の形式で立体的な形状を示す3Dデータ等を用いることができる。また、表面色データとしては、例えば、造形物の表面の各位置の色を示すデータを用いることができる。より具体的には、表面色データとしては、例えば、形状データが示す立体的な形状の表面に貼り付けられるテクスチャ画像のデータ等を好適に用いることができる。また、表面色データについては、例えば、造形物1050における着色領域1154の構成までは指定せずに、造形物1050の表面の各位置の色を指定するデータ等と考えることもできる。
 また、本例において、表面色データとしては、外観画像を示すデータを用いる。この場合、外観画像とは、造形物1050として造形する対象物(造形の対象物)の外観の少なくとも一部を示す画像のことである。また、表面色データが外観画像を示すことについては、例えば、表面色データが示す造形物1050の表面の少なくとも一部の色が外観画像を構成すること等と考えることができる。本例においては、表面色データとして、対象物の全体の外観を示す画像を用いる。また、対象物の外観については、例えば、対象物を撮影した写真に示される状態等と考えることができる。また、ステップS1202において着色構成決定部1016が取得する形状データ及び表面色データについては、例えば、造形システム1010において造形しようとする造形物の基本構成を示す入力データ等と考えることもできる。
 また、ステップS1202での動作に続いて、着色構成決定部1016は、着色領域1154における複数のカラー領域1302a、bについて、それぞれの色を決定する(S1204)。この場合、ステップS1204で着色構成決定部1016がカラー領域1302a、bの色を決定する動作は、色決定段階の動作及び色決定処理の動作の一例である。本例において、着色構成決定部1016は、形状データ及び表面色データに基づき、造形物1050の表面における各位置に対し、法線方向に重なる複数のカラー領域1302a、bのそれぞれについて、色を決定する。この場合、着色構成決定部1016は、複数のカラー領域1302a、bに対して、互いに異なる色を決定してよい。複数のカラー領域1302a、bの色の決定の仕方については、後に更に詳しく説明をする。
 また、本例での着色領域1154の構成を決定する動作において、着色構成決定部1016は、更に、着色領域1154における複数のクリア領域1304a~cのそれぞれの厚さ(法線方向における厚さ)を決定する(S1206)。この場合、ステップS1206で着色構成決定部1016が複数のクリア領域1304a~cのそれぞれの厚さを決定する動作は、透光性領域厚決定段階の動作及び透光性領域厚決定処理の動作の一例である。
 また、本例において、着色構成決定部1016は、造形物1050において表現しようとする質感に応じて、複数のクリア領域1304a~cのそれぞれの厚さを決定する。また、より具体的には、この場合、着色構成決定部1016は、複数のクリア領域1304a~cのそれぞれの厚さを指定する指示をユーザから受け付け、この指示に基づき、複数のクリア領域1304a~cのそれぞれの厚さを決定する。このように構成すれば、ユーザの指示に基づいて、所望の質感を得るためのクリア領域1304a~cの厚さを適切に決定することができる。
 また、本例において、複数のクリア領域1304a~cのそれぞれの厚さは、互いに独立に可変である。そのため、着色構成決定部1016は、複数のクリア領域1304a~cのそれぞれの厚さとして、互いに異なる厚さを決定してもよい。また、複数のクリア領域1304a~cのそれぞれの厚さは、造形物1050における位置によって異なっていてもよい。この場合、着色構成決定部1016は、例えば、造形物1050の位置毎にユーザが指定する厚さの指示に基づき、各位置での複数のクリア領域1304a~cのそれぞれの厚さを決定する。このように構成すれば、造形物1050の位置によって異なる質感を適切に表現することができる。また、複数のクリア領域1304a~cのそれぞれの厚さについては、位置毎に可変にはせずに、造形物1050単位で可変にしてもよい。この場合、着色構成決定部1016は、造形物1050の全体に対してユーザが指定する厚さの指示に基づき、各位置での複数のクリア領域1304a~cのそれぞれの厚さを決定する。このように構成すれば、所望の質感に対応する複数のクリア領域1304a~cのそれぞれの厚さをより容易に決定することができる。クリア領域1304a~cの厚さの決定の仕方については、後に更に詳しく説明をする。
 本例によれば、所望の質感を得るための着色領域1154の構成を適切に決定することができる。また、この場合、着色構成決定部1016は、決定した着色領域1154の構成を示す情報を造形データ生成部1014へ供給する。また、上記においても説明をしたように、本例においては、造形データ生成部1014での造形データの生成時にも、形状データを使用する。そのため、着色構成決定部1016は、決定した着色領域1154の構成を示すデータと共に、形状データを造形データ生成部1014へ供給する。このように構成すれば、着色構成決定部1016において決定した着色領域1154の構成を反映する造形データの生成を造形データ生成部1014に適切に行わせることができる。また、造形データ生成部1014において生成する造形データに基づいて造形実行部1012に造形物1050の造形を行わせることで、所望の質感が得られる造形物1050の造形を造形実行部1012に適切に行わせることができる。
 また、上記においても説明をしたように、本例においては、複数のクリア領域1304a~cのそれぞれの厚さを可変にすることで、様々な質感を表現する造形物1050を造形実行部1012に造形させることができる。また、これにより、造形物1050において多様な質感を適切に表現することができる。更に、この場合において、着色領域1154における複数のカラー領域1302a、bの厚さは一定(固定)として、クリア領域1304a~cの厚さのみを可変にすることで、より容易かつ適切に質感の調整等と行うことが可能になる。更に、この場合、複数のカラー領域1302a、bの色を互いに独立に設定することで、着色領域1154において、より多様な質感を表現すること等が可能になる。
 続いて、クリア領域1304a~cの厚さの決定の仕方等について、更に詳しく説明をする。図14及び図15は、クリア領域1304a~cの厚さの決定の仕方について更に詳しく説明をする図である。図14(a)は、クリア領域1304a~cの厚さの決定時にユーザに示す画面である領域操作画面の一例を示す。図14(b)は、領域操作画面において最初に表示する厚さの設定であるデフォルト設定の一例を示す。図15(a)、(b)は、ユーザの指示に応じてクリア領域1304a~cの厚さの設定を変更する動作の例を示す。
 上記においても説明をしたように、本例において、着色構成決定部1016(図11参照)は、複数のクリア領域1304a~cのそれぞれの厚さを指定する指示をユーザから受け付け、この指示に基づき、複数のクリア領域1304a~cのそれぞれの厚さを決定する。そして、この場合、着色構成決定部1016として用いるコンピュータのモニタや入出力装置等を用いたGUI(グラフィカル・ユーザ・インターフェース)を介して、ユーザの指示を受け付けることが考えられる。また、この場合、例えば図14(a)に示す領域操作画面をモニタに表示することが考えられる。
 図14(a)に示す領域操作画面において、符号Spを付して透明保護と示す領域は、着色領域1154におけるクリア領域1304a(図12参照)に対応する領域である。符号S1cを付して第1カラーと示す領域は、カラー領域1302a(図12参照)に対応する領域である。符号S1tを付して第1透明と示す領域は、クリア領域1304b(図12参照)に対応する領域である。符号S2cを付して第2カラーと示す領域は、カラー領域1302b(図12参照)に対応する領域である。符号S2tを付して第2透明と示す領域は、クリア領域1304c(図12参照)に対応する領域である。また、領域操作画面において、符号S3を付して追加と示す領域は、新たに追加する領域を示す。符号Srを付して反射と示す領域は、光反射領域1152を示す。また、符号Saを付して示すボタンは、領域に対する操作について、追加又は削除を指示するボタンである。符号Ssを付して示すボタンは、追加する領域について、カラー領域又はクリア領域(透明領域)のいずれであるかを切り替えるボタンである。
 また、領域操作画面において、各領域の横に示されている数値は、各領域の厚さを指定するユーザの指示を示している。このような領域操作画面を用いることで、着色領域1154を構成する各領域等に対する厚さの指示をユーザから適切に受け付けることができる。また、ボタンSa及びSsを用いることで、例えば、領域の追加や削除に対するユーザの指示を適切に受け付けることができる。
 また、着色構成決定部1016では、ユーザの指示を受け付ける前の領域操作画面において、例えば図14(b)に示すようなデフォルト設定の内容をユーザに表示することが考えられる。また、デフォルト設定としては、例えば、前回の設定での設定内容を用いること等も考えられる。また、着色構成決定部1016は、ユーザの操作に応じて、例えば図15(a)、(b)に示すように、領域操作画面での表示内容を変化させる。
 例えば、図15(a)は、図14(b)に示すデフォルト設定に対し、透明保護領域であるクリア領域1304aを削除し、第2透明領域であるクリア領域1304cを追加する操作の例を示している。この場合、ユーザは、例えば、領域Spを選択してボタンSaを押すことでクリア領域1304aを削除し、更に、追加領域S3を選択してボタンSsを押すことで、クリア領域1304cを追加する。また、この場合、クリア領域1304cの厚さについて、例えば図中において420μmを設定しているように、数値入力により指定する。
 また、図15(b)は、クリア領域1304cの下に更にカラー領域1302を追加し、その下に更にクリア領域1304を追加する操作の例を示している。この場合、ユーザは、追加領域S3を選択してボタンSsを押すことで、新たなカラー領域1302(第3カラー領域)を追加する。また、この場合、このカラー領域1302の厚さについて、例えば図中において320μmを設定しているように、数値入力により指定する。そして、更に、追加領域S3を選択してボタンSsを押すことで、新たなクリア領域1304(第3透明領域)を追加する。また、この場合、このクリア領域1304の厚さについて、例えば図中において420μmを設定しているように、数値入力により指定する。本例によれば、領域の追加や削除に対するユーザの指示を適切に受け付けることができる。
 ここで、図14及び図15においては、説明の便宜上、図11~13を用いて説明をした具体的な造形物の構成とは異なる構成の造形物を造形する場合も考慮して、領域操作画面や操作の例を示している。また、領域操作画面に表示する事項や画面に対する操作については、造形物の構成等に応じて、適宜変更することが考えられる。例えば、上記においても説明をしたように、カラー領域1302の厚さについては、可変にせずに、一定の固定の厚さにすることが考えられる。この場合、領域操作画面においても、カラー領域1302の厚さについて、一定にすることが考えられる。また、例えば、上記においても説明をしたように、本例においては、光反射領域1152について、造形物1050の内部領域を兼ねた領域として形成することが考えられる。この場合、領域操作画面において、光反射領域1152に関する項目の表示を省略してもよい。また、光反射領域1152の厚さの指示については、例えば、必要な厚さの下限値として用いること等も考えられる。この場合、造形実行部1012又は造形データ生成部1014(図11参照)において、光反射領域1152について必要な厚さが確保できるか否かの確認を行うこと等が考えられる。
 また、着色構成決定部1016では、単に数値入力をユーザに行わせる方法以外の方法で、クリア領域1304a~cの厚さを決定してもよい。この場合、着色構成決定部1016では、例えば、造形実行部1012において造形される造形物1050の状態を予測したコンピュータグラフィック画像(CG画像)を作成して、ユーザに対して表示しつつ、複数のクリア領域1304a~cのそれぞれの厚さを指定する指示をユーザから受け付けること等が考えられる。この場合、例えば、複数のクリア領域1304a~cのそれぞれの厚さを変数として、複数のクリア領域1304a~cのそれぞれの厚さを変化させた場合に生じる造形物1050の状態の変化をユーザに示すことで、所望の質感を得るためのクリア領域1304a~cの厚さについて、ユーザに適切に判断させることができる。このように構成すれば、造形物1050において表現しようとする質感に応じて、複数のクリア領域1304a~cのそれぞれの厚さを適切に決定することができる。
 また、着色構成決定部1016は、クリア領域1304a~cの厚さを指定するユーザの指示以外の方法で取得するパラメータ等に基づいて、複数のクリア領域1304a~cのそれぞれの厚さを決定してもよい。この場合、着色構成決定部1016は、例えば、着色領域1154の構成を決定する動作の中で、造形物1050において表現しようとする質感を示す質感パラメータを取得する。質感パラメータを取得する動作については、例えば、質感パラメータ取得段階の動作等と考えることができる。また、着色構成決定部1016は、例えば、ステップS1206の動作の中で、質感パラメータを取得する動作を更に行ってもよい。この場合、例えば図14(b)に示した動作におけるステップS1206での着色構成決定部1016の動作について、質感パラメータ取得段階の動作の例を兼ねていると考えることができる。また、この場合、着色構成決定部1016は、質感パラメータ取得段階の動作によって取得する質感パラメータに基づき、複数のクリア領域1304a~cのそれぞれの厚さを決定する。このように構成した場合も、所望の質感に合わせて、複数のクリア領域1304a~cのそれぞれの厚さを適切に決定することができる。
 また、このような質感パラメータを用いる場合、着色構成決定部1016は、形状データ及び表面色データとは別に予め用意されたデータ等により、質感パラメータを取得することが考えられる。この場合、例えば、形状データ等と対応付けられた質感パラメータを取得することが考えられる。例えば、形状データが示す立体的な形状の各位置における質感を示す質感パラメータ等を用いることが考えられる。また、質感パラメータとして、例えば、形状データが示す立体的な形状の全体の質感を示すパラメータを用いること等も考えられる。また、質感パラメータが示す質感としては、例えば、着色領域1154において表現する透明感等を用いることが考えられる。この場合、透明感については、例えば、着色領域1154に対する光の透過度合いを反映する質感等と考えることができる。また、このような質感については、例えば、半透明感等と考えることもできる。また、造形物1050により表現する対象物等に応じて、質感パラメータが示す質感として、透明感以外の質感を用いることも考えられる。
 また、質感パラメータの取得については、着色構成決定部1016において、ユーザの指示に基づいて取得してもよい。この場合、質感パラメータは、質感の指定をユーザから受け付けることで設定されるパラメータ等と考えることができる。より具体的には、この場合、着色構成決定部1016において、造形物1050を示すCG画像をユーザに対して表示し、そのCG画像に対してユーザが設定する質感を示す質感パラメータを取得すること等が考えられる。このように構成した場合も、質感パラメータを適切に取得することができる。また、この場合、複数のクリア領域1304a~cのそれぞれの厚さをユーザに直接指定させるのではなく、所望の質感の指定をユーザに行わせることで、ユーザに試行錯誤等を行わせることなく、より容易かつ適切に複数のクリア領域1304a~cのそれぞれの厚さを決定することができる。
 続いて、着色構成決定部1016において複数のカラー領域1302a、bの色を決定する動作について、更に詳しく説明をする。図16は、着色構成決定部1016において複数のカラー領域1302a、bの色を決定する動作について更に詳しく説明をする図である。
 上記においても説明をしたように、本例において、着色構成決定部1016は、外観画像を示す表面色データに基づき、複数のカラー領域1302a、bのそれぞれの色を決定する。この場合、外観画像としては、例えば、造形の対象物を撮影することで取得される撮影画像を用いることが考えられる。より具体的には、この場合、対象物の全体を撮影した画像を外観画像として用いることが考えられる。また、外観画像としては、対象物の全体を撮影した画像に限らず、対象物の一部を撮影した画像を用いてもよい。より具体的には、造形の対象物が人間である場合、人間の肌の一部を撮影した画像を外観画像として用いてもよい。また、この場合、表面色データとしては、人間の肌の一部を撮影した撮影画像に基づいて撮影箇所以外も含む対象物の全体の色を示すデータを用いることが考えられる。また、このような場合も、外観画像を示す表面色データに基づいて複数のカラー領域1302a、bの色を決定する動作であると考えることができる。
 また、本例において、着色構成決定部1016は、色素成分分離法により外観画像の色素成分を分離することで、複数のカラー領域1302a、bのそれぞれの色を決定する。この場合、色素成分分離法による色素成分の分離については、公知の方法と同一又は同様に行うことができる。より具体的には、色素成分分離法による色素成分の分離については、津村らによる下記の論文に開示されている方法等で行うことが考えられる。
N. Tsumura, N. Ojima, K. Sato, M. Shiraishi, H. Shimizu, H. Nabeshima, S. Akazaki, K. Hori , Y. Miyake, “Image-based skin color and texture analysis/synthesisby extracting hemoglobin and melanin information in the skin,” ACM Transactionson Graphics(TOG), 2003.
 また、図16においては、人間を示す造形物(例えばフィギュア等)を造形実行部1012で造形する場合に関し、複数のカラー領域1302a、bの色の決定の仕方の一例を示している。この場合、例えば、造形物1050の少なくとも一部において、造形の対象物となる人間の肌の色を表現する着色領域1154を形成する。また、外観画像として、人間の肌の表面の色を示す画像を用いることが考えられる。また、より具体的には、この場合、外観画像の少なくとも一部として、人間の肌を撮影した画像を用いることが考えられる。また、本例において、着色構成決定部1016は、色素成分分離法により、外観画像に基づき、対象物の内部の画像に対応する血管の画像(血管画像)と、対象物において表面により近い部分の画像に対応するシミの画像(シミ画像)とを決定する。この場合、血管画像については、例えば、血管に対応する色を反映した画像等と考えることができる。また、血管画像について、例えば、ヘモグロビン成分すなわち血液の色を反映した画像等と考えることもできる。シミ画像については、例えば、肌におけるシミに対応する色を反映した画像等と考えることができる。また、シミ画像については、例えば、メラニン成分すなわち色素沈着の色を反映した画像等と考えることもできる。また、本例において、着色構成決定部1016は、血管画像に基づき、対象物の内部の色に対応する内部色を決定する。また、シミ画像に基づき、対象物において表面により近い部分の色に対応する表面色を決定する。表面色については、例えば、内部色に対応する対象物の内部よりも対象物の表面に近い部分に対応する色等と考えることもできる。
 また、本例において、着色構成決定部1016は、内部色及び表面色のそれぞれとして、造形の解像度単位等の詳細な単位毎ではなく、ある程度の広さの範囲毎に、色を決定する。より具体的に、例えば、人間の肌の色を表現する着色領域1154を形成する場合、肌の部位毎に内部色及び表面色を決定することが考えられる。また、内部色及び表面色について、ユーザによって指定される領域毎に決定すること等も考えられる。これらの場合、造形物1050の一部の領域に対してのみ、内部色及び表面色を決定してもよい。また、内部色及び表面色については、造形物1050の全体に対して設定すること等も考えられる。また、内部色及び表面色については、対象物の内部や表面付近における所定の領域での平均的な色等と考えることもできる。
 また、人間の肌の色を表現する着色領域1154を形成する場合、肌における真皮の部分の色に対応する内部色を用い、表皮の部分に対応する表面色を用いることが考えられる。また、真皮の部分の色については、例えば、肌において血液が含むヘモグロビンの色を反映した色になると考えられる。表皮部分の色については、例えば、肌におけるメラニン色素の色を反映した色になると考えられる。そのため、人間の肌の色を表現する着色領域1154を形成する場合、本例の着色構成決定部1016では、外観画像に基づき、色素成分分離法により、メラニン色素の色を反映する色素成分であるメラニン成分と、ヘモグロビンの色を反映する色素成分であるヘモグロビン成分とを分離する。この場合、例えば、R(赤)G(緑)B(青)信号を出力するRGBカメラで肌を撮影した画像(肌画像)を外観画像として用い、独立成分分析によってメラニン成分に対応する情報とヘモグロビン成分に対応する情報とを推定することで、メラニン成分の分布を示す画像であるメラニン成分画像と、ヘモグロビン成分の分布を示す画像であるヘモグロビン成分画像とを生成する。
 また、上記の説明等から理解できるように、本例において、着色構成決定部1016は、メラニン成分画像として、シミ画像を生成する。また、ヘモグロビン成分画像として、血管画像を生成する。そして、着色構成決定部1016は、シミ画像及び血管画像のそれぞれに基づき、表面色及び内部色のそれぞれを決定する。この場合、着色構成決定部1016の動作については、メラニン成分画像及びヘモグロビン成分画像のそれぞれに基づいて表面色及び内部色のそれぞれを決定することで、メラニン成分に基づいて表面色を決定し、ヘモグロビン成分に基づいて内部色を決定すると考えることができる。このように構成すれば、人間の肌の色を表現する着色領域1154を形成する場合において、内部色及び表面色を適切に決定することができる。また、本例において、着色構成決定部1016は、更に、表面色に基づいてカラー領域1302aの色を決定し、内部色に基づいてカラー領域1302bの色を決定する。このように構成すれば、着色領域1154における複数のカラー領域1302a、bの色を適切に決定することができる。
 ここで、上記においても説明をしたように、内部色及び表面色については、対象物の内部や表面付近における所定の領域での平均的な色等と考えることもできる。そして、この場合、メラニン成分画像及びヘモグロビン成分画像について、画像内でのメラニン成分やヘモグロビン成分の局所的な分布ではなく、内部色及び表面色を決定する範囲毎(領域毎)での平均的なメラニン成分又はヘモグロビン成分を示していると考えることができる。また、この場合、外観画像内での陰影の分布を示す陰影成分画像を更に作成して、陰影成分画像に基づき、メラニン成分画像及びヘモグロビン成分画像から陰影の影響を除去すること等も考えられる。
 また、上記においても説明をしたように、外観画像としては、RGBカメラで撮影を行うことで生成された画像を用いることが考えられる。この場合、外観画像について、例えば、加法混色法のRGB3原色で色を表現したRGB画像と考えることができる。また、この場合ヘモグロビン成分画像及びメラニン成分画像としても、RGB画像を生成することが考えられる。これに対し、本例の造形実行部1012は、着色用の有色のインクとして、加法混色法のRGBを減法混色法に変換した、YMCKの各色のインクを用いることが考えられる。
 また、この場合、着色構成決定部1016では、例えば、ヘモグロビン成分画像及びメラニン成分画像のそれぞれが示す色に対し、RGBからYMCKへの変換を行うことで、内部色を決定する。また、この場合、造形実行部1012において用いるインクの特性を考慮して、色の変換を行うことが好ましい。より具体的には、この場合、デバイスの特性として、造形実行部1012で用いるインクの特性を反映したICCプロファイル等を用いて、色の変換を行うことが考えられる。また、色の変換については、ICCプロファイルを用いる方法ではなく、例えば、機械学習によって予め作成した学習済モデルを用いて行うこと等も考えられる。この場合、例えば、造形実行部1012において作成した様々な色の試料(サンプル)に対して測色を行い、試料の構成と測色結果との関係を学習モデルに学習させることで学習済モデルを作成することが考えられる。また、学習済モデルについては、多数の様々な色の試料を実際に作成して測色を行うのではなく、少数の試料に対する所定の測定と、コンピュータシミュレーションとを行うことで作成してもよい。この場合、例えば、造形実行部1012において使用する各色のインクに対応する試料(インクサンプル)を作成して、各色のインクの特性を測定することが考えられる。また、各色のインクの特性に基づき、様々な色の仮想的な試料の構成に対してコンピュータシミュレーションにより測色結果を予測して、これらの関係を学習モデルに学習させることで学習済モデルを作成することが考えられる。
 続いて、上記において説明をした構成の着色領域1154を用いることで表現できる質感等について、更に詳しく説明をする。図17は、本願の発明者らが行った実験の条件について説明をする図であり、様々な構成の着色領域1154を用いることで表現できる質感等を確認するために行った様々な実験のうち、クリア領域1304b、cの厚さと造形物1050の質感との関係に関する評価(主観評価)を行う実験についての、その評価の条件を示している。図17(a)は、評価対象として用いた試料の構成を示す。図17(b)は、主観評価に用いた形容詞対を示す。
 上記においても説明をしたように、本例において造形実行部1012で造形する造形物1050における着色領域1154は、複数のカラー領域1302a、b及び複数のクリア領域1304a~cを有する。また、この場合において、複数のクリア領域1304a~cのそれぞれの厚さを可変にすることで、様々な質感を表現する。この場合、複数のクリア領域1304a~cのそれぞれの厚さを変化させることで、着色領域1154に対する光の透過の仕方や着色領域1154での光の反射のされ方に変化が生じると考えられる。また、その結果、例えば着色領域1154の光沢感や透明感(半透明感)等に変化が生じると考えられる。
 また、上記においても説明をしたように、本例においては、造形の対象物の内部色及び表面色に対応する色での着色がされる複数のカラー領域1302a、bを重ねることで、対象物の色を表現する。そして、この場合、造形物1050の表面に近い側のカラー領域1302aよりも内側にあるクリア領域1304b、cについて、透明感等の質感への影響が特に大きくなると考えられる。また、この場合、複数のカラー領域1302a、bの間に形成されるクリア領域1304bと、カラー領域1302bと光反射領域1152との間に形成されるクリア領域1304cとの間で、質感への影響に仕方に違いが生じることも考えられる。そこで、本願の発明者らは、クリア領域1304b、cのそれぞれの厚さを様々に異ならせた試料を作成して、主観評価を行うことで、着色領域1154の構成と質感との関係を確認する評価を行った。
 この評価では、積層方向へ複数のカラー領域1302a、b及び複数のクリア領域1304a~cに対応するインクの層を重ねた9個の試料を作成した。また、それぞれの試料において、複数のカラー領域1302a、bのそれぞれについては、人間の肌の色を表現するように、人間の肌における表面色及び内部色のそれぞれに対応する色で形成した。更に、これらの領域のうちで最も下になるクリア領域1304cに対応するインクの層の下に、造形物1050における光反射領域1152に対応する白色のインクの層を形成した。また、クリア領域1304b、cのそれぞれの厚さについては、クリア領域1304b、cのそれぞれを形成するために重ねる造形単位層の層数を変化させることで、様々な厚さに設定した。より具体的には、この評価では、図17(a)においてクリア領域1304b、cの厚さとして数字2、4、6で示すように、クリア領域1304b、cのそれぞれの厚さについて、造形単位層の2倍、4倍、6倍の3種類の厚さに変化させた。そして、クリア領域1304bの厚さとクリア領域1304cの厚さとの可能な組み合わせにより、9種類の試料を作成した。また、カラー領域1302a、bの色や厚さ等のクリア領域1304b、cの厚さ以外の条件については、全ての試料で共通にした。
 また、この評価では、これらの試料に対し、図17(b)に示す形容詞対を用いて、主観評価を行った。主観評価の手法としては、SD法(セマンティック・ディファレンシャル法)を用いた。そして、20人の被験者により、図17(a)に示すそれぞれの試料に対し、図17(b)に示すそれぞれの形容詞について、当てはまる度合いが大きい程評価値が大きくなるように、1~5の5段階での評価を行った。また、この場合、対になっている2つの形容詞のいずれにも当てはまらない場合には、0と評価する。
 この主観評価により、例えば、クリア領域1304b、cの厚さを変化させることで表現される質感に変化が生じることについて、具体的な形容詞と対応付けて確認を行うことができた。また、これにより、試料によって、評価値に違いが生じることが確認できた。また、本願の発明者は、試料によって質感に違いが生じることを数値によって表現するために、主観評価の結果を示す評価データに対して因子分析を行い、肌の所定の状態を示す肌パラメータを抽出し、更なる評価を行った。より具体的には、本願の発明者らは、上記において説明をした主観評価の結果を示す評価結果に対し、因子数を3つとして因子分析を行った。また、この因子分析では、実験の便宜上、9名分の被験者による評価結果に対して平均をとって、因子分析を行った。また、因子分析については、公知の機械学習ライブラリを用いて行った。
 図18は、本願の発明者らが行った因子分析の結果を示すグラフである。因子分析を行うことで、例えば、図中に肌らしさ因子群として示すような、肌の所定の状態を反映する因子群を考えることができる。また、この場合、グラフの縦軸に用いている第一因子を肌らしさ因子として用い、肌らしさ因子に属する項目について因子負荷量を用いた加重平均をとった値について、肌パラメータとして用いることができる。また、上記の主観評価に用いた9種類の試料に対し、肌パラメータを算出したところ、0~1.5程度の範囲で様々な値が算出された。この結果については、試料によって質感に違いが生じることを数値によって確認できたことを示すと考えることができる。
 続いて、上記において説明をした各構成に関する変形例の説明や、補足説明等を行う。上記においては、着色領域1154の構成に関し、主に、着色領域1154が2つのカラー領域1302(カラー領域1302a、b)を有する場合の構成について、説明をした。また、本願の発明者らは、様々な実験等により、2つのカラー領域1302を有する着色領域1154を用いることで、1つのカラー領域1302のみを用いる場合と比べ、より多様な質感を適切に表現できることを確認した。また、この場合、より多くの数のカラー領域1302を用いる場合と比べ、それぞれのカラー領域1302の色について、より容易に決定することが可能になる。また、より多くの数のカラー領域1302を用いる場合と比べ、例えば、着色領域1154の全体での厚さを小さくすることで、色が暗くなること等を適切に防ぐこともできる。
 しかし、造形物1050に求められる品質や質感等によっては、カラー領域1302の数について、2つ以外の数にすること等も考えられる。この場合、着色領域1154は、例えば、3つ以上のカラー領域1302を有する。また、この場合、例えば、追加するカラー領域1302とカラー領域1302bとの間にも、クリア領域1304を形成することが考えられる。このような構成については、3つ以上の複数のカラー領域1302のそれぞれの間にクリア領域1304を形成する構成等と考えることもできる。また、この場合、図15等を用いて上記においても説明をしたように、カラー領域1302bの内側に更にカラー領域1302(第3カラー領域)を追加することが考えられる。また、この場合、着色領域1154の構成の決定時において、着色領域1154における複数のクリア領域1304のそれぞれについて、法線方向における厚さを個別に決定することが考えられる。このように構成すれば、例えば、着色領域1154において、より多様な質感を表現することができる。また、3つ以上のカラー領域1302を有する着色領域1154の構成については、例えば、第1、第2、・・・、第N(Nは、3以上の整数)のN個のカラー領域1302を有する構成等と考えることもできる。また、この場合、第1、第2、・・・、第Nのカラー領域1302のそれぞれの間に、厚さを可変にするクリア領域1304を形成すると考えることができる。
 また、造形物1050に求められる品質や質感等によっては、カラー領域1302の数について、図19(a)に示すように、1つのみにすること等も考えられる。図19は、着色領域1154や造形物1050の変形例について説明をする図である。図19(a)は、着色領域1154の構成の変形例を示す。以下に説明をする点を除き、図19において、図11~18と同じ符号を付した構成は、図11~18における構成と、同一又は同様の特徴を有してよい。
 本変形例において、着色領域1154は、1つのカラー領域1302と、複数(2つ)のクリア領域1304a、bを有する。また、この場合、クリア領域1304aは、造形物1050(図12参照)において、カラー領域1302の外側に形成される。クリア領域1304bは、造形物1050において、光反射領域1152とカラー領域1302との間に形成される。この場合も、例えば、クリア領域1304a、bの厚さを可変にすることで、着色領域1154において、様々な質感を表現することができる。
 また、造形実行部1012(図11参照)においては、例えば図19(b)に示すように、いわゆる2.5次元(2.5D)の造形物1050を造形すること等も考えられる。図19(b)は、造形物1050の構成の変形例を示す。2.5Dの造形物については、例えば、平面状の媒体(メディア)60の上に造形の材料(例えば、インク)を積層することで造形を行う造形物1050等と考えることができる。また、2.5Dの造形物については、例えば、媒体1060とつながった状態の造形物等と考えることもできる。2.5Dの造形物を造形する場合にも、図示した構成のように光反射領域1152及び着色領域1154を備える構成で造形物1050の造形を行い、かつ、上記において説明をした場合と同一又は同様の構成で着色領域1154を形成することで、着色領域1154において、様々な質感を表現することができる。
 また、上記において説明をした各構成については、更に様々な変形を行うこと等も考えられる。例えば、着色領域1154におけるクリア領域1304の数についても、上記において具体的に説明した場合と異ならせてもよい。この場合も、クリア領域1304の厚さを可変にすることで、様々な質感を表現することができる。また、上記においては、着色領域1154におけるカラー領域1302(カラー領域1302a、b等)の厚さについて、主に、一定(固定)にする構成について、説明をした。しかし、造形物1050に求められる品質や質感等によっては、カラー領域1302の厚さについても、可変にしてもよい。このように構成すれば、より多様な質感を表現することが可能になる。
 また、上記においては、着色領域1154で質感を表現する対象の例として、人間の肌の質感を表現する場合について、説明をしている。しかし、着色領域1154で質感を表現する対象は、人間の肌以外の物の質感であってもよい。この場合も、例えば、対象物に内部色及び表面色に対応する色に着色される複数のカラー領域1302a、bを用い、かつ、クリア領域1304の厚さを可変にすることで、様々な対象物に関し、様々な質感を適切に表現することができる。また、上記においても説明をしたように、対象物に内部色及び表面色の決定時には、対象物の内部及び表面付近の色を示す画像(例えばヘモグロビン成分画像及びメラニン成分画像等)に対し、陰影成分画像を用いて、陰影の影響を除去することが考えられる。しかし、陰影成分画像については、例えば、このような目的以外の目的で使用すること等も考えられる。例えば、陰影成分画像について、対象物の表面における高さ情報を示すデータとして用いること等も考えられる。この場合、例えば、陰性成分画像に基づき、形状データの補正を行うこと等が考えられる。
 また、上記においては、着色領域1154について、主に、造形システム1010(図11参照)において造形実行部1012で造形する造形物1050が有する領域に関し、説明をした。しかし、上記において説明をした構成の着色領域1154については、造形物1050以外において用いること等も考えられる。この場合、例えば、2次元(2D)の画像を印刷することで作成する印刷物として、上記の構成の着色領域1154を備える構成で作成すること等が考えられる。また、この場合、上記において説明をした造形に関する事項について、印刷に関する事項に置き換えて考えることができる。より具体的に、この場合、造形システム1010に代えて印刷システムを用いることが考えられる。また、造形実行部1012に代えて、インクジェット方式で印刷を行う印刷装置を用いることが考えられる。また、造形データに代えて、印刷データを用いることが考えられる。
 また、この場合、印刷システムにおいて、例えば図20に示す構成の印刷物を作成することが考えられる。図20は、着色領域1154を備える印刷物の構成の一例を示す。以下において説明をする点を除き、図20において、図11~19と同じ符号を付した構成は、図11~19における構成と、同一又は同様の特徴を有してよい。また、図示した構成において、印刷物については、媒体1060上に着色領域1154を形成することで作成する印刷の成果物等と考えることができる。この場合、媒体1060としては、例えば印刷用紙やフィルム、布帛等の、公知の印刷媒体を好適に用いることができる。この場合、例えば、媒体1060自体が白色であるか、媒体1060上に光反射領域1152を形成したものを用いること等が考えられる。また、着色領域1154については、印刷実行部(印刷装置)で媒体1060上に複数のインクの層を重ねるように印刷を行うことで形成することができる。
 また、この場合、造形物1050に関して上記において説明をした着色領域1154と同一又は同様の構成の着色領域1154を媒体1060上に形成することが考えられる。より具体的に、図示した構成において、着色領域1154は、複数のカラー領域1302a、b及び複数のクリア領域1304a~cを有する。また、この場合、造形システム1010における造形実行部1012、造形データ生成部1014、及び着色構成決定部1016(図11参照)に対応する、印刷実行部を有する印刷装置、並びに、印刷データ生成部及び着色構成決定部を有する印刷データ生成装置を備える印刷システムにおいて、印刷物を作成することが考えられる。また、この場合、造形物1050における着色領域1154の構成を決定する場合と同一又は同様にして、着色構成決定部において、印刷物における着色領域1154の構成を決定することが考えられる。そして、着色構成決定部で決定した着色領域1154の構成に基づき、印刷データ生成部において、印刷データを生成することが考えられる(印刷データ生成段階)。そして、この印刷データに基づき、印刷実行部で印刷の動作を実行して、印刷物を作成することが考えられる(印刷段階)。このように構成した場合も、例えば、着色領域1154におけるクリア領域1304の厚さを可変にすること等により、多様な質感を表現する印刷物を適切に作成することができる。
 本発明は、例えば領域構成予測方法に好適に利用できる。
 また、本発明は、造形データの生成方法等に好適に用いることができる。
10・・・造形システム、12・・・造形装置、14・・・制御PC、50・・・造形物、52・・・サポート層、102・・・ヘッド部、104・・・造形台、106・・・走査駆動部、110・・・制御部、122・・・インクジェットヘッド、124・・・紫外線光源、126・・・平坦化ローラ、152・・・内部領域、154・・・着色領域、202・・・層状領域、302・・・真皮領域、304・・・表皮領域、306・・・クリア領域、402・・・表示部、404・・・受付部、406・・・通信I/F部、408・・・制御部、502・・・造形単位層、602・・・エンコーダ部、604・・・デコーダ部、1010・・・造形システム、1012・・・造形実行部、1014・・・造形データ生成部、1016・・・着色構成決定部、1050・・・造形物、1052・・・サポート層、1060・・・媒体、1102・・・ヘッド部、1104・・・造形台、1106・・・走査駆動部、1110・・・造形制御部、1152・・・光反射領域、1154・・・着色領域、1202・・・インクジェットヘッド、1204・・・紫外線光源、1206・・・平坦化手段、1302・・・カラー領域、1304・・・クリア領域

 

Claims (43)

  1.  複数色の着色用の材料を用いて形成する領域の構成である領域構成を予測する領域構成予測方法であって、
     着色された層状の領域が複数重なる構成である積層構成と所定の質感との関係をコンピュータシミュレーションにより予測する段階であり、互いに異なる構成で前記層状の領域が重なる複数種類の前記積層構成について、それぞれの前記積層構成により表現される前記質感を予測する質感予測段階と、
     前記積層構成と前記質感との関係とを学習させた学習モデルである学習済モデルを機械学習により生成する段階であり、前記複数種類の積層構成に対して前記質感予測段階において予測した前記質感に基づいて前記学習済モデルを生成する学習段階と、
     所望の前記質感に対応する前記領域構成を予測する段階であり、前記学習段階で生成した前記学習済モデルを用いて前記質感に対応する前記積層構成を予測し、当該積層構成に基づき、前記所望の質感に対応する前記領域構成を予測する領域構成予測段階と
    を備えることを特徴とする領域構成予測方法。
  2.  前記複数色の着色用の材料は、複数色の造形の材料であり、
     前記領域構成は、前記複数色の造形の材料を用いて造形物を造形する造形装置において造形しようとする前記造形物の少なくとも一部の領域に対応する構成であることを特徴とする請求項1に記載の領域構成予測方法。
  3.  前記領域構成は、それぞれが着色された複数の層状の領域が前記造形物の表面での法線方向と平行な方向において重なる構成であることを特徴とする請求項2に記載の領域構成予測方法。
  4.  前記領域構成予測段階は、
     前記所望の質感が設定されたコンピュータグラフィックス画像に基づき、当該コンピュータグラフィックス画像に設定されている前記質感に対応するパラメータである設定パラメータを算出する設定パラメータ算出段階と、
     前記学習済モデルに対する入力として前記設定パラメータ算出段階で算出した前記設定パラメータを用いて、前記積層構成を示す出力を取得する積層構成取得段階と
    を有することを特徴とする請求項1に記載の領域構成予測方法。
  5.  前記質感は、複数の前記層状の領域が重なることで表現される透明感であり、
     前記質感予測段階において、前記質感を示すパラメータとして、光の広がり方を示す関数を用いることを特徴とする請求項1に記載の領域構成予測方法。
  6.  前記質感を示すパラメータとして、線広がり関数(LSF:Line Spread Function)を用いることを特徴とする請求項5に記載の領域構成予測方法。
  7.  前記質感予測段階において、前記複数色の着色用の材料のそれぞれに対応する吸収係数及び散乱係数を用いてコンピュータシミュレーションを行うことで、前記積層構成により表現される前記質感を予測することを特徴とする請求項1に記載の領域構成予測方法。
  8.  それぞれの色の前記着色用の材料に対応する試料を作成する各色試料作成段階と、
     前記各色試料作成段階で作成した前記試料の光学的な特性を計測することで前記複数色の着色用の材料のそれぞれに対応する吸収係数及び散乱係数を決定する係数決定段階と
    を更に備え、
     前記質感予測段階において、前記係数決定段階で決定した吸収係数及び散乱係数を用いて、コンピュータシミュレーションを行うことを特徴とする請求項7に記載の領域構成予測方法。
  9.  前記学習段階は、学習対象のニューラルネットワークである学習対象ニューラルネットワークに学習を行わせる段階であり、
     前記学習対象ニューラルネットワークは、前記質感を示すパラメータを入力及び出力とし、前記積層構成を示すパラメータを中間出力とするニューラルネットワークであり、
     前記質感を示すパラメータを入力とし、前記積層構成を示すパラメータを出力とするニューラルネットワークであるエンコーダ部と、
     前記積層構成を示すパラメータを入力とし、前記質感を示すパラメータを出力とするニューラルネットワークであるデコーダ部と
    を有することを特徴とする請求項1に記載の領域構成予測方法。
  10.  前記学習対象ニューラルネットワークは、前記エンコーダ部と前記デコーダ部とをつなげたニューラルネットワークであり、
     前記学習段階は、
     前記積層構成と前記質感との関係の学習を前記デコーダ部に行わせることで前記デコーダ部における重みを決定するデコーダ部学習段階と、
     前記デコーダ部学習段階で決定した前記デコーダ部における重みを固定して前記学習対象ニューラルネットワークに学習を行わせる全体学習段階と
    を有することを特徴とする請求項9に記載の領域構成予測方法。
  11.  前記学習段階において、
     前記質感予測段階において予測した前記質感に基づいて前記積層構成と前記質感との関係を示すデータであるシミュレーション取得データと、作成した試料に対して光学的な特性を計測することで取得される前記積層構成と前記質感との関係を示すデータである計測取得データとを用いて、前記学習済モデルを生成することを特徴とする請求項1に記載の領域構成予測方法。
  12.  前記学習段階において、前記シミュレーション取得データと前記計測取得データとを区別せずに用いて、前記学習済モデルを生成することを特徴とする請求項11に記載の領域構成予測方法。
  13.  前記学習段階は、
     前記計測取得データを用いず、前記シミュレーション取得データを用いた学習を学習モデルに対して行わせることで前記シミュレーション取得データを反映した学習モデルである中間生成モデルを生成する第1学習段階と、
     前記中間生成モデルに対して前記計測取得データを用いた学習を更に行わせることで前記学習済モデルを生成する第2学習段階と
    を有することを特徴とする請求項11に記載の領域構成予測方法。
  14.  前記学習段階は、学習対象のニューラルネットワークである学習対象ニューラルネットワークに学習を行わせる段階であり、
     前記学習対象ニューラルネットワークは、
     前記質感を示すパラメータを入力とし、前記積層構成を示すパラメータを出力とするニューラルネットワークであるエンコーダ部と、
     前記積層構成を示すパラメータを入力とし、前記質感を示すパラメータを出力とするニューラルネットワークであるデコーダ部と
    をつなげたニューラルネットワークであり、前記質感を示すパラメータを入力及び出力とし、前記積層構成を示すパラメータを中間出力とし、
     前記学習段階は、
     前記積層構成と前記質感との関係の学習を前記デコーダ部に行わせることで前記デコーダ部における重みを決定する段階であるデコーダ部学習段階と、
     前記デコーダ部学習段階で決定した前記デコーダ部における重みを固定して前記学習対象ニューラルネットワークに学習を行わせる全体学習段階と
    を有し、
     前記デコーダ部学習段階において、前記計測取得データを用いた学習を前記デコーダ部に行わせ、
     前記全体学習段階において、前記シミュレーション取得データを用いた学習を前記学習対象ニューラルネットワークに行わせることを特徴とする請求項11に記載の領域構成予測方法。
  15.  前記デコーダ部学習段階において、前記計測取得データを用い、かつ、前記シミュレーション取得データを用いずに、前記デコーダ部に学習を行わせ、
     前記全体学習段階において、前記シミュレーション取得データ及び前記計測取得データを用いて、前記学習対象ニューラルネットワークに学習を行わせることを特徴とする請求項14に記載の領域構成予測方法。
  16.  造形装置において造形しようとする造形物を示す造形データを生成する造形データ生成段階を更に備え、
     前記造形データは、前記領域構成予測段階で予測した前記領域構成に基づく重ね方で前記造形装置に造形の材料を積層させるデータであることを特徴とする請求項1に記載の領域構成予測方法。
  17.  複数色の着色用の材料を用いて形成する領域の構成である領域構成を予測する領域構成予測方法であって、
     所望の質感に対応する前記領域構成を予測する段階であり、着色された層状の領域が複数重なる構成である積層構成と所定の前記質感との関係をコンピュータシミュレーションにより予測した結果を学習することで生成された学習済モデルを用いて前記質感に対応する前記積層構成を予測し、当該積層構成に基づき、前記所望の質感に対応する前記領域構成を予測する領域構成予測段階を備えることを特徴とする領域構成予測方法。
  18.  複数色の着色用の材料を用いて形成する領域の構成である領域構成を予測する領域構成予測装置であって、
     着色された層状の領域が複数重なる構成である積層構成と所定の質感との関係をコンピュータシミュレーションにより予測する質感予測部と、
     前記積層構成と前記質感との関係とを学習させた学習モデルである学習済モデルを機械学習により生成する学習済モデル作成部と、
     所望の前記質感に対応する前記領域構成を予測する領域構成予測部と
    を備え、
     前記質感予測部は、互いに異なる構成で前記層状の領域が重なる複数種類の前記積層構成について、それぞれの前記積層構成により表現される前記質感を予測し、
     前記学習済モデル作成部は、前記複数種類の積層構成に対して前記質感予測部において予測した前記質感に基づいて前記学習済モデルを生成し、
     前記領域構成予測部は、前記学習済モデル作成部で生成した前記学習済モデルを用いて前記質感に対応する前記積層構成を予測し、当該積層構成に基づき、前記所望の質感に対応する前記領域構成を予測することを特徴とする領域構成予測装置。
  19.  複数色の着色用の材料を用いて形成する領域の構成である領域構成を予測する領域構成予測装置であって、
     所望の質感に対応する前記領域構成を予測する領域構成予測部を備え、
     前記領域構成予測部は、着色された層状の領域が複数重なる構成である積層構成と所定の前記質感との関係をコンピュータシミュレーションにより予測した結果を学習することで生成された学習済モデルを用いて前記質感に対応する前記積層構成を予測し、当該積層構成に基づき、前記所望の質感に対応する前記領域構成を予測することを特徴とする領域構成予測装置。
  20.  造形装置において造形する造形物を示す造形データを生成する造形データの生成方法であって、
     前記造形物において着色がされる領域である着色領域の構成を決定する着色構成決定段階と、
     前記着色構成決定段階で決定する前記着色領域の構成に基づいて前記造形データを生成するデータ生成段階と
    を備え、
     前記着色領域は、前記造形物の表面と直交する方向である法線方向に複数の層状の領域が重なる領域であり、前記複数の層状の領域として、
     着色用の材料を用いて着色される第1カラー領域と、
     前記造形物における前記第1カラー領域よりも内側において着色用の材料を用いて着色される第2カラー領域と、
     前記造形物における前記第1カラー領域よりも内側において透明な材料を用いて前記第1カラー領域及び前記第2カラー領域よりも透光性の高い状態で形成される透光性領域とを有し、
     前記着色構成決定段階は、
     前記第1カラー領域及び前記第2カラー領域のそれぞれの色を決定する色決定段階と、
     前記法線方向における前記透光性領域の厚さを決定する透光性領域厚決定段階と
    を有することを特徴とする造形データの生成方法。
  21.  前記第1カラー領域及び前記第2カラー領域の前記法線方向における厚さは、予め設定された一定の厚さであり、
     前記透光性領域の前記法線方向における厚さは、可変であり、
     前記透光性領域厚決定段階において、前記造形物において表現しようとする質感に応じて前記透光性領域の厚さを決定することを特徴とする請求項20に記載の造形データの生成方法。
  22.  前記透光性領域厚決定段階において、前記透光性領域の厚さを指定する指示をユーザから受け付け、当該指示に基づき、前記透光性領域の厚さを決定することを特徴とする請求項20に記載の造形データの生成方法。
  23.  前記造形物において表現しようとする質感を示す質感パラメータを取得する質感パラメータ取得段階を更に備え、
     前記透光性領域厚決定段階において、前記質感パラメータ取得段階で取得する前記質感パラメータに基づき、前記透光性領域の厚さを決定することを特徴とする請求項20に記載の造形データの生成方法。
  24.  前記造形装置は、造形の材料となるインクをインクジェットヘッドから吐出することで、
     前記着色領域と、
     前記着色領域の内側において光反射性に形成される光反射領域と
    を備える前記造形物を、積層造形法で造形し、
     前記第1カラー領域及び前記第2カラー領域は、複数色のカラーインクを用いて着色がされる領域であり、
     前記透光性領域は、クリアインクを用いて形成される無色で透明な領域であることを特徴とする請求項20に記載の造形データの生成方法。
  25.  前記第1カラー領域及び前記第2カラー領域のそれぞれは、前記複数色のカラーインク及び前記クリアインクを用いて形成される領域であり、
     前記造形装置は、前記第1カラー領域及び前記第2カラー領域のそれぞれに着色する色の違いによって生じる前記複数色のカラーインクの使用量の変化を補填するように前記クリアインクを用いることで、位置によって前記法線方向における厚みに変化が生じないように、前記第1カラー領域及び前記第2カラー領域を形成することを特徴とする請求項24に記載の造形データの生成方法。
  26.  前記色決定段階において、前記第1カラー領域及び前記第2カラー領域に対し、互いに異なる色を決定することを特徴とする請求項20に記載の造形データの生成方法。
  27.  前記着色領域は、前記透光性領域として、
     前記第1カラー領域と前記第2カラー領域との間に形成される前記透光性領域である中間透光性領域と、
     前記造形物において前記第2カラー領域よりも内側に形成される前記透光性領域である内側透光性領域と
    を有し、
     前記透光性領域厚決定段階において、前記中間透光性領域及び前記内側透光性領域のそれぞれの前記法線方向における厚さを決定することを特徴とする請求項20に記載の造形データの生成方法。
  28.  前記着色領域は、前記造形物において前記第1カラー領域よりも外側に形成される前記透光性領域である外側透光性領域を更に有し、
     前記透光性領域厚決定段階において、前記外側透光性領域の前記法線方向における厚さを更に決定することを特徴とする請求項27に記載の造形データの生成方法。
  29.  前記着色領域は、
     前記造形物における前記第2カラー領域よりも内側において着色用の材料を用いて着色される第3カラー領域を更に有し、
     前記透光性領域として、
     前記第1カラー領域と前記第2カラー領域との間に形成される前記透光性領域と、
     前記第2カラー領域と前記第3カラー領域との間に形成される前記透光性領域と
    を含む複数の前記透光性領域を有し、
     前記透光性領域厚決定段階において、前記複数の透光性領域のそれぞれの前記法線方向における厚さを決定することを特徴とする請求項20に記載の造形データの生成方法。
  30.  前記色決定段階において、前記造形物として造形する対象物の外観の少なくとも一部を示す画像である外観画像に基づき、前記第1カラー領域及び前記第2カラー領域のそれぞれの色を決定することを特徴とする請求項20に記載の造形データの生成方法。
  31.  前記色決定段階において、色素成分分離法により前記外観画像の色素成分を分離することで、前記対象物の内部の色に対応する内部色と、前記内部よりも前記対象物の表面に近い部分の色に対応する表面色とを決定し、前記表面色に基づいて前記第1カラー領域の色を決定し、前記内部色に基づいて前記第2カラー領域の色を決定することを特徴とする請求項30に記載の造形データの生成方法。
  32.  前記色決定段階において、人間の肌の表面の色を示す前記外観画像を用い、色素成分分離法により、肌におけるメラニン色素の色を反映する色素成分であるメラニン成分と、肌において血液が含むヘモグロビンの色を反映する色素成分であるヘモグロビン成分とを分離し、前記メラニン成分に基づいて前記表面色を決定し、前記ヘモグロビン成分に基づいて前記内部色を決定することを特徴とする請求項31に記載の造形データの生成方法。
  33.  造形装置において造形する造形物を示す造形データを生成する造形データの生成方法であって、
     前記造形物において着色がされる領域である着色領域の構成を決定する着色構成決定段階と、
     前記着色構成決定段階で決定する前記着色領域の構成に基づいて前記造形データを生成するデータ生成段階と
    を備え、
     前記着色領域は、前記造形物の表面と直交する方向である法線方向に複数の層状の領域が重なる領域であり、前記複数の層状の領域として、
     着色用の材料を用いて着色されるカラー領域と、
     前記造形物における前記カラー領域よりも内側において透明な材料を用いて前記カラー領域よりも透光性の高い状態で形成される透光性領域と
    を有し、
     前記着色構成決定段階は、
     前記カラー領域の色を決定する色決定段階と、
     前記法線方向における前記透光性領域の厚さを決定する透光性領域厚決定段階と
    を有することを特徴とする造形データの生成方法。
  34.  造形物を造形する造形方法であって、
     請求項20から33のいずれかに記載の造形データの生成方法によって前記造形データを生成する造形データ生成段階と、
     前記造形データ生成段階で生成する前記造形データに基づいて前記造形物を造形する造形段階と
    を備えることを特徴とする造形方法。
  35.  造形装置において造形する造形物を示す造形データを生成する造形データ生成装置であって、
     前記造形物において着色がされる領域である着色領域の構成を決定する着色構成決定部と、
     着色構成決定部で決定する前記着色領域の構成に基づいて前記造形データを生成する造形データ生成部と
    を備え、
     前記着色領域は、前記造形物の表面と直交する方向である法線方向に複数の層状の領域が重なる領域であり、前記複数の層状の領域として、
     着色用の材料を用いて着色される第1カラー領域と、
     前記造形物における前記第1カラー領域よりも内側において着色用の材料を用いて着色される第2カラー領域と、
     前記造形物における前記第1カラー領域よりも内側において透明な材料を用いて前記第1カラー領域及び前記第2カラー領域よりも透光性の高い状態で形成される透光性領域とを有し、
     前記着色構成決定部は、
     前記第1カラー領域及び前記第2カラー領域のそれぞれの色を決定する色決定処理と、
     前記法線方向における前記透光性領域の厚さを決定する透光性領域厚決定処理と
    を行うことで、前記着色領域の構成を決定することを特徴とする造形データ生成装置。
  36.  造形装置において造形する造形物を示す造形データを生成する造形データ生成装置であって、
     前記造形物において着色がされる領域である着色領域の構成を決定する着色構成決定部と、
     前記着色構成決定部で決定する前記着色領域の構成に基づいて前記造形データを生成するデータ生成部と
    を備え、
     前記着色領域は、前記造形物の表面と直交する方向である法線方向に複数の層状の領域が重なる領域であり、前記複数の層状の領域として、
     着色用の材料を用いて着色されるカラー領域と、
     前記造形物における前記カラー領域よりも内側において透明な材料を用いて前記カラー領域よりも透光性の高い状態で形成される透光性領域と
    を有し、
     前記着色構成決定部は、
     前記カラー領域の色を決定する色決定処理と、
     前記法線方向における前記透光性領域の厚さを決定する透光性領域厚決定処理と
    を行うことで、前記着色領域の構成を決定することを特徴とする造形データ生成装置。
  37.  造形物を造形する造形システムであって、
     請求項35又は36に記載の造形データ生成装置と、
     前記造形データ生成装置が生成する前記造形データに基づいて前記造形物を造形する造形装置と
    を備えることを特徴とする造形システム。
  38.  印刷装置において印刷する印刷物を示す印刷データを生成する印刷データの生成方法であって、
     前記印刷物において着色がされる領域である着色領域の構成を決定する着色構成決定段階と、
     前記着色構成決定段階で決定する前記着色領域の構成に基づいて前記印刷データを生成するデータ生成段階と
    を備え、
     前記着色領域は、前記印刷物の表面と直交する方向である法線方向に複数の層状の領域が重なる領域であり、前記複数の層状の領域として、
     着色用の材料を用いて着色される第1カラー領域と、
     前記第1カラー領域よりも内側において着色用の材料を用いて着色される第2カラー領域と、
     前記第1カラー領域よりも内側において透明な材料を用いて前記第1カラー領域及び前記第2カラー領域よりも透光性の高い状態で形成される透光性領域と
    を有し、
     前記着色構成決定段階は、
     前記第1カラー領域及び前記第2カラー領域のそれぞれの色を決定する色決定段階と、
     前記法線方向における前記透光性領域の厚さを決定する透光性領域厚決定段階と
    を有することを特徴とする印刷データの生成方法。
  39.  印刷装置において印刷する印刷物を示す印刷データを生成する印刷データの生成方法であって、
     前記印刷物において着色がされる領域である着色領域の構成を決定する着色構成決定段階と、
     前記着色構成決定段階で決定する前記着色領域の構成に基づいて前記印刷データを生成するデータ生成段階と
    を備え、
     前記着色領域は、前記印刷物の表面と直交する方向である法線方向に複数の層状の領域が重なる領域であり、前記複数の層状の領域として、
     着色用の材料を用いて着色されるカラー領域と、
     前記カラー領域よりも内側において透明な材料を用いて前記カラー領域よりも透光性の高い状態で形成される透光性領域と
    を有し、
     前記着色構成決定段階は、
     前記カラー領域の色を決定する色決定段階と、
     前記法線方向における前記透光性領域の厚さを決定する透光性領域厚決定段階と
    を有することを特徴とする印刷データの生成方法。
  40.  印刷物を印刷する印刷方法であって、
     請求項38又は39に記載の印刷データの生成方法によって前記印刷データを生成する印刷データ生成段階と、
     前記印刷データ生成段階で生成する前記印刷データに基づいて前記印刷物を印刷する印刷段階と
    を備えることを特徴とする印刷方法。
  41.  印刷装置において印刷する印刷物を示す印刷データを生成する印刷データ生成装置であって、
     前記印刷物において着色がされる領域である着色領域の構成を決定する着色構成決定部と、
     着色構成決定部で決定する前記着色領域の構成に基づいて前記印刷データを生成する印刷データ生成部と
    を備え、
     前記着色領域は、前記印刷物の表面と直交する方向である法線方向に複数の層状の領域が重なる領域であり、前記複数の層状の領域として、
     着色用の材料を用いて着色される第1カラー領域と、
     前記第1カラー領域よりも内側において着色用の材料を用いて着色される第2カラー領域と、
     前記第1カラー領域よりも内側において透明な材料を用いて前記第1カラー領域及び前記第2カラー領域よりも透光性の高い状態で形成される透光性領域と
    を有し、
     前記着色構成決定部は、
     前記第1カラー領域及び前記第2カラー領域のそれぞれの色を決定する色決定処理と、
     前記法線方向における前記透光性領域の厚さを決定する透光性領域厚決定処理と
    を行うことで、前記着色領域の構成を決定することを特徴とする印刷データ生成装置。
  42.  印刷装置において印刷する印刷物を示す印刷データを生成する印刷データ生成装置であって、
     前記印刷物において着色がされる領域である着色領域の構成を決定する着色構成決定部と、
     前記着色構成決定部で決定する前記着色領域の構成に基づいて前記印刷データを生成するデータ生成部と
    を備え、
     前記着色領域は、前記印刷物の表面と直交する方向である法線方向に複数の層状の領域が重なる領域であり、前記複数の層状の領域として、
     着色用の材料を用いて着色されるカラー領域と、
     前記印刷物における前記カラー領域よりも内側において透明な材料を用いて前記カラー領域よりも透光性の高い状態で形成される透光性領域と
    を有し、
     前記着色構成決定部は、
     前記カラー領域の色を決定する色決定処理と、
     前記法線方向における前記透光性領域の厚さを決定する透光性領域厚決定処理と
    を行うことで、前記着色領域の構成を決定することを特徴とする印刷データ生成装置。
  43.  印刷物を印刷する印刷システムであって、
     請求項41又は42に記載の印刷データ生成装置と、
     前記印刷データ生成装置が生成する前記印刷データに基づいて前記印刷物を印刷する印刷装置と
    を備えることを特徴とする印刷システム。

     
PCT/JP2021/010304 2020-03-26 2021-03-15 領域構成予測方法、領域構成予測装置、造形データの生成方法、造形方法、造形データ生成装置、造形システム、印刷データの生成方法、印刷方法、印刷データ生成装置、及び印刷システム WO2021193185A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2020056246A JP7343879B2 (ja) 2020-03-26 2020-03-26 領域構成予測方法及び領域構成予測装置
JP2020-056246 2020-03-26
JP2020086703A JP2021181170A (ja) 2020-05-18 2020-05-18 造形データの生成方法、造形方法、造形データ生成装置、造形システム、印刷データの生成方法、印刷方法、印刷データ生成装置、及び印刷システム
JP2020-086703 2020-05-18

Publications (1)

Publication Number Publication Date
WO2021193185A1 true WO2021193185A1 (ja) 2021-09-30

Family

ID=77892079

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/010304 WO2021193185A1 (ja) 2020-03-26 2021-03-15 領域構成予測方法、領域構成予測装置、造形データの生成方法、造形方法、造形データ生成装置、造形システム、印刷データの生成方法、印刷方法、印刷データ生成装置、及び印刷システム

Country Status (1)

Country Link
WO (1) WO2021193185A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002248692A (ja) * 2001-02-23 2002-09-03 Minolta Co Ltd 三次元造形システム、三次元造形センター、プログラム、記憶媒体および三次元造形の発注方法
JP2010114506A (ja) * 2008-11-04 2010-05-20 Seiko Epson Corp 質感情報データ取得装置及びそれを備える表示制御システム
JP2017080933A (ja) * 2015-10-23 2017-05-18 株式会社ミマキエンジニアリング 造形システム、造形動作の制御方法、造形制御装置、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002248692A (ja) * 2001-02-23 2002-09-03 Minolta Co Ltd 三次元造形システム、三次元造形センター、プログラム、記憶媒体および三次元造形の発注方法
JP2010114506A (ja) * 2008-11-04 2010-05-20 Seiko Epson Corp 質感情報データ取得装置及びそれを備える表示制御システム
JP2017080933A (ja) * 2015-10-23 2017-05-18 株式会社ミマキエンジニアリング 造形システム、造形動作の制御方法、造形制御装置、及びプログラム

Similar Documents

Publication Publication Date Title
JP6510322B2 (ja) 三次元造形物の製造方法及び造形装置
US11220067B2 (en) Shaping system
JP6902365B2 (ja) 立体物造形方法及び3次元プリンタ
CN103079826B (zh) 图像形成设备和图像形成方法
JP6003552B2 (ja) 表示処理装置、表示処理方法、及びプログラム
JP6705007B2 (ja) 造形システム、造形方法、及び造形物の製造方法
JP6629152B2 (ja) 造形装置及び造形方法
WO2021193185A1 (ja) 領域構成予測方法、領域構成予測装置、造形データの生成方法、造形方法、造形データ生成装置、造形システム、印刷データの生成方法、印刷方法、印刷データ生成装置、及び印刷システム
JP7162219B2 (ja) 層構成予測方法及び層構成予測装置
JP7343879B2 (ja) 領域構成予測方法及び領域構成予測装置
JP2021181170A (ja) 造形データの生成方法、造形方法、造形データ生成装置、造形システム、印刷データの生成方法、印刷方法、印刷データ生成装置、及び印刷システム
Nagasawa et al. Prediction of the layered ink layout for 3D printers considering a desired skin color and line spread function
JP2022089992A (ja) 造形方法、スライスデータの生成方法、造形装置、及びスライスデータ生成装置
WO2021107118A1 (ja) 変換処理方法、印刷物作製方法、及び印刷物作製システム
JP7141943B2 (ja) 造形装置及び造形方法
JP2021115796A (ja) 着色成果物の製造方法及びインク吐出装置
JP6532378B2 (ja) 造形システム、造形動作の制御方法、造形制御装置、及びプログラム
JP2020157653A (ja) 画像生成装置及び画像生成方法
JP2023146218A (ja) 造形データの作成方法、造形データ生成装置、及び造形システム
JP7271379B2 (ja) 造形装置及び造形方法
WO2022059217A1 (ja) 処理装置および処理方法
Nagasawa et al. 3D printed human skin appearance with a multilayered spatial distribution of pigment components
JP2022144648A (ja) 造形システム及び造形方法
JP2022006605A (ja) 造形装置、造形方法、及び造形プログラム
JP2023120143A (ja) 印刷装置および方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21774099

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21774099

Country of ref document: EP

Kind code of ref document: A1