WO2023163467A1 - 식료품을 인쇄하는 3d 프린터의 인쇄 품질을 예측하는 방법 및 장치 - Google Patents

식료품을 인쇄하는 3d 프린터의 인쇄 품질을 예측하는 방법 및 장치 Download PDF

Info

Publication number
WO2023163467A1
WO2023163467A1 PCT/KR2023/002377 KR2023002377W WO2023163467A1 WO 2023163467 A1 WO2023163467 A1 WO 2023163467A1 KR 2023002377 W KR2023002377 W KR 2023002377W WO 2023163467 A1 WO2023163467 A1 WO 2023163467A1
Authority
WO
WIPO (PCT)
Prior art keywords
print quality
model
processor
printer
predicting
Prior art date
Application number
PCT/KR2023/002377
Other languages
English (en)
French (fr)
Inventor
유현주
Original Assignee
주식회사 탑테이블
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 탑테이블 filed Critical 주식회사 탑테이블
Publication of WO2023163467A1 publication Critical patent/WO2023163467A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A23FOODS OR FOODSTUFFS; TREATMENT THEREOF, NOT COVERED BY OTHER CLASSES
    • A23PSHAPING OR WORKING OF FOODSTUFFS, NOT FULLY COVERED BY A SINGLE OTHER SUBCLASS
    • A23P20/00Coating of foodstuffs; Coatings therefor; Making laminated, multi-layered, stuffed or hollow foodstuffs
    • A23P20/20Making of laminated, multi-layered, stuffed or hollow foodstuffs, e.g. by wrapping in preformed edible dough sheets or in edible food containers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • AHUMAN NECESSITIES
    • A23FOODS OR FOODSTUFFS; TREATMENT THEREOF, NOT COVERED BY OTHER CLASSES
    • A23PSHAPING OR WORKING OF FOODSTUFFS, NOT FULLY COVERED BY A SINGLE OTHER SUBCLASS
    • A23P20/00Coating of foodstuffs; Coatings therefor; Making laminated, multi-layered, stuffed or hollow foodstuffs
    • A23P20/20Making of laminated, multi-layered, stuffed or hollow foodstuffs, e.g. by wrapping in preformed edible dough sheets or in edible food containers
    • A23P20/25Filling or stuffing cored food pieces, e.g. combined with coring or making cavities
    • A23P2020/253Coating food items by printing onto them; Printing layers of food products
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y30/00Apparatus for additive manufacturing; Details thereof or accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/06Multi-objective optimisation, e.g. Pareto optimisation using simulated annealing [SA], ant colony algorithms or genetic algorithms [GA]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Definitions

  • the embodiments below relate to a method and apparatus for predicting print quality of a 3D printer that prints foodstuffs.
  • 3D food printing technology is a food manufacturing technology that reflects food composition ratios and nutritional data based on a 3D digital design created through CAD or 3D scanners, and then laminates food ingredients one by one to reconstruct them in 3D.
  • the process factors of the 3D printer greatly affect the print quality of the output. Even if a printout is printed using the same sample, the quality of the printout may be different depending on the process factors set in the 3D printer. It is necessary to optimize the process factors to print the output without failure, but the correlation between the process factors and the quality of the output has not been accurately identified, making it difficult to optimize the process factors. Therefore, users of existing food 3D printers had a problem in that it was difficult to predict the quality of the output until the output was completed.
  • a method for predicting print quality of a 3D printer that prints foodstuffs classifying process factors of the 3D printer into a plurality of groups; inputting input data corresponding to the result of the classification into a model predicting the print quality; and obtaining a label indicating the print quality by using output data output from the model.
  • the process factors may be classified into a plurality of groups based on their influence on the print quality.
  • the input data may include data generated through normalization of the process factor.
  • the model may be composed of the same number of auto encoders and a single deep neural network as the plurality of groups.
  • the step of inputting the process factor data to the print quality prediction model may include: acquiring latent variables output from each of the auto-encoders; and inputting the latent variables into the single deep neural network.
  • the step of obtaining latent variables may include inputting input data included in the n-th group and latent variables of the n-1th group among the plurality of groups to an auto-encoder, and extracting n latent variables.
  • n may include a natural number of 2 or more.
  • the method described above may further include training the model using a backpropagation algorithm.
  • a communication module for performing communication; a memory in which at least one program is stored; and a processor that performs an operation by executing the at least one program, wherein the processor classifies process factors of the 3D printer into a plurality of groups, and predicts the print quality using input data corresponding to the classification result. and an apparatus for obtaining a label indicating the print quality by using output data output from the model and output data from the model.
  • a computer-readable recording medium recording a program for executing the method of the present invention on a computer is provided.
  • the print quality of the output of the food product 3D printer can be predicted.
  • FIG. 1 is a block diagram illustrating a method for predicting print quality of a 3D printer for printing foodstuffs according to an embodiment of the present invention.
  • FIG. 2 is a diagram for explaining an example of classifying process factors of a 3D printer into a plurality of groups according to an embodiment of the present invention.
  • FIG. 3 is a diagram for explaining an example of a model for predicting print quality of a 3D printer that prints foodstuffs according to an embodiment of the present invention.
  • FIG. 4 is a block diagram for explaining an example of extracting a latent variable according to an embodiment of the present invention.
  • FIG. 5 is a diagram for explaining an example of inputting input data to a predictive model according to an embodiment of the present invention.
  • FIG. 6 is a diagram for explaining an example of predicting print quality using output data output from a predictive model according to an embodiment of the present invention.
  • FIG. 7 is a block diagram for explaining an example of training a predictive model using a backpropagation algorithm according to an embodiment of the present invention.
  • FIG. 8 is a diagram for explaining an example of training a predictive model using a backpropagation algorithm according to an embodiment of the present invention.
  • FIG. 9 is a block diagram showing a print quality prediction device according to an embodiment of the present invention.
  • FIG. 1 is a block diagram illustrating a method for predicting print quality of a 3D printer for printing foodstuffs according to an embodiment of the present invention.
  • the processor may classify process factors of the 3D printer into a plurality of groups (S110).
  • Process factors mean important factors that greatly affect the print quality of 3D printers.
  • the process factors may include various factors that affect the quality of the output, such as nozzle size, nozzle movement speed, extrusion speed, food material used, and output speed of the 3D printer.
  • the processor may classify the process factors into a plurality of groups according to the degree to which the process factors affect print quality. More specifically, the processor classifies the process factors into a plurality of groups according to the degree to which the process factors affect print quality.
  • process parameters may include outside temperature and outside humidity.
  • process factors may be classified into a plurality of groups as shown in Table 1 below.
  • Table 1 includes a total of 50 process parameters, including 48 process parameters for food 3D printers and external temperature and humidity. According to [Table 1], it can be seen that the 50 process factors are classified into 4 groups based on the degree to which they affect print quality.
  • [Table 1] is only an example of classifying process factors into a plurality of groups, but does not limit the number of items and classified groups of process factors.
  • 'process factor' refers to a value representing a corresponding process factor.
  • the processor may input input data corresponding to the classification result to a model predicting print quality (S120).
  • input data may be generated through a normalization process of process factors. Since each process factor has a different average value and variance for each process factor, input data must be generated through a normalization process to apply to a model predicting print quality.
  • the processor may generate input data by max-min normalizing process factors.
  • Maximum-minimum normalization may be performed through [Equation 1] below.
  • x(max) is the maximum value of the process factor preset in the model predicting print quality
  • x(min) is the minimum value of the process factor preset in the model predicting print quality.
  • x is the process factor value of the food 3D printer to predict the print quality
  • x (scaled) is the input data generated through the normalization process
  • the processor can feed the input data into a model that predicts print quality.
  • a model for predicting print quality may be composed of the same number of autoencoders as the number of groups and a single deep neural network. A description of the print quality prediction model will be given with reference to FIGS. 3 and 5 and 6 .
  • the processor may input input data corresponding to each of the plurality of groups to each auto encoder. More specifically, the processor extracts a first latent variable by inputting input data corresponding to the first group that has the most influence on print quality to the first auto-encoder, and extracts the first latent variable and the input data corresponding to the second group. A second latent variable may be extracted by inputting to the second auto-encoder. In this way, the processor may input input data corresponding to each of the plurality of groups to the auto encoder.
  • the processor may obtain a value representing the print quality by inputting the extracted latent variables to the deep neural network.
  • latent variables may include results of noise removal from input data and characteristics of process factors.
  • the processor combines the input data and the latent variables extracted from the previous autoencoder and inputs them to the next autoencoder. For example, latent variables extracted from the first auto-encoder and second input data are input to the second auto-encoder. Therefore, according to the method of the present invention, characteristics of process factors affecting print quality may be reflected in latent variables. In addition, since latent variables are extracted based on input data classified into a plurality of groups, accuracy of a model predicting print quality can be improved.
  • the processor may obtain a label indicating print quality using the output data output from the model (S130).
  • the output data represents a predicted value representing print quality ranging from 0 to 100%.
  • the processor may match the output data to any one label (eg, failure, low, medium, high, very high, etc.) according to a predetermined criterion. For example, if the output data is less than 60%, the processor may match with the label 'failure'. In addition, if the output data is greater than 60% and less than 70%, the processor may match with the label 'low'. In addition, if the output data is greater than 70% and less than 80%, the processor may match with the label 'medium'. In addition, if the output data is greater than 80% and less than 90%, the processor may match with the label 'high'. Also, if the output data is greater than 90%, the processor may match with the label 'very high'. Therefore, the user can check the print quality of the 3D printer according to the matched label.
  • any one label eg, failure, low, medium, high, very high, etc.
  • FIG. 2 is a diagram for explaining an example of classifying process factors of a 3D printer into a plurality of groups according to an embodiment of the present invention.
  • the process factors 210 may include various factors such as external environment (temperature and humidity), material (sample), quality of output, and output speed.
  • the process factors 210 may be classified into a plurality of groups 220 according to the degree to which each process factor affects print quality.
  • the process factors classified into the first group among the plurality of groups 220 have the most influence on the print quality. Also, the process factors classified into the n-th group have the least influence on print quality.
  • n means a natural number greater than or equal to 2.
  • the processor may normalize the process factors classified into a plurality of groups to generate input data, and sequentially input the input data to a model predicting print quality.
  • FIG. 3 is a diagram for explaining an example of a model for predicting print quality of a 3D printer that prints foodstuffs according to an embodiment of the present invention.
  • a model for predicting print quality may include a plurality of auto encoders 300 and a single deep neural network 400 .
  • a model for predicting print quality has a structure in which latent variables extracted from a plurality of autoencoders 300 are input to a single deep neural network.
  • the number of auto encoders 300 may be equal to the number of groups. However, for convenience of explanation, FIG. 3 shows one auto encoder 300 and a deep neural network 400. An example in which a plurality of auto encoders 300 are included in the model for predicting print quality is shown in FIG. 5 .
  • the auto-encoder 300 includes an encoder layer and a decoder layer. Each of the encoder layer and the decoder layer may include a plurality of hidden layers.
  • the processor may compress input data and extract latent variables by using a hidden layer included in the encoder layer. More specifically, the processor may compress the input data to extract latent variables including features in which process factors affect the print quality of the output.
  • the processor may generate output data by restoring compressed input data using a hidden layer included in a decoder layer.
  • the output data generated by the decoder layer is used to train a model that predicts print quality based on a backpropagation algorithm.
  • the processor may input the extracted latent variables to the deep neural network 400, and an output from the deep neural network 400 may be output data representing a print quality prediction value.
  • FIG. 4 is a block diagram for explaining an example in which a processor extracts a latent variable according to an embodiment of the present invention.
  • the processor may extract the nth latent variable by inputting the input data included in the nth group and the latent variables of the n ⁇ 1th group among the plurality of groups to the autoencoder.
  • n is a natural number of 2 or more and means the number of classified groups.
  • the processor may input the input data of the first group to the auto-encoder (S121). After that, the processor may extract the first group of latent variables (S122).
  • the processor may input the first group of latent variables and the second group of input data to the auto-encoder (S123). After that, the processor may extract the latent variables of the second group (S124).
  • the processor may extract the second group of latent variables by inputting the first group of latent variables and the second group of input data to an auto encoder.
  • the processor may determine whether all latent variables have been extracted (S125). More specifically, the processor may determine whether latent variables of all auto encoders have been extracted. For example, if the number of groups classified for the process factor is n, the number of auto encoders may also be n. When the processor determines that the latent variables of all auto encoders have been extracted, the processor may input the extracted latent variables to the deep neural network.
  • the processor may input latent variables of the second group and input data of the third group to the auto-encoder (S126). And, the processor may extract the latent variables of the third group (S127).
  • the processor repeats the above-described operation until a latent variable for each of all auto-encoders is extracted (S128). For example, if the number of groups classified for the process factor is n, the processor may extract n latent variables through auto-encoders corresponding to the classified n groups. For example, if the number of classified groups is 4, the processor can extract 4 latent variables. Alternatively, if the number of classified groups is 5, the processor can extract 5 latent variables.
  • the processor repeats the above-described operation (S128) and extracts latent variables for each of all auto-encoders, the extracted latent variables can be input into a deep neural network.
  • FIG. 5 is a diagram for explaining an example of inputting input data to a model for predicting print quality according to an embodiment of the present invention.
  • a model for predicting print quality may include a plurality of auto encoders 300 corresponding to a plurality of groups.
  • the processor may classify process factors into a plurality of groups and generate input data 310 , 320 , 330 , and 340 corresponding to the classification result.
  • the processor may extract the latent variable 311 by inputting the first group of input data 310 to the auto-encoder, sum the latent variable 311 and the second group of input data 320, and input the sum to the auto-encoder. .
  • the processor may extract the latent variable 321, add the latent variable 321 and the input data 330 of the third group, and input the sum to the auto-encoder.
  • the processor may input the sum of the latent variable 331 and the input data 340 of the fourth group to the auto encoder and extract the latent variable 341 .
  • the accuracy of a model predicting print quality can be increased.
  • the output data 312, 322, 332, and 342 of the autoencoder can be compared with the input data 310, 320, 330, and 340 and used in a backpropagation algorithm to reduce an error.
  • the processor may use a backpropagation algorithm to train a model to predict print quality.
  • FIG. 6 is a diagram for explaining an example of predicting print quality using output data output from a predictive model according to an embodiment of the present invention.
  • a print quality prediction model may include a plurality of autoencoders 300 corresponding to a plurality of groups and a single deep neural network 400 .
  • the processor may input the latent variables 311, 321, 331, and 341 extracted from the plurality of auto-encoders 300 to the deep neural network 400, and output data representing a print quality prediction value from the deep neural network 400. can be obtained
  • the processor may obtain a label 610 indicating print quality corresponding to the output data.
  • FIG. 7 and 8 are diagrams for explaining an example of training a predictive model using a backpropagation algorithm according to an exemplary embodiment.
  • FIG. 7 is a block diagram for explaining an example of training a predictive model using a backpropagation algorithm according to an exemplary embodiment.
  • steps S110 to S130 are the same as steps S110 to S130 of FIG. 1 . Accordingly, the description overlapping with that of FIG. 1 will be omitted below.
  • the processor trains the predictive model using the backpropagation algorithm (S140).
  • the processor may calculate a loss value using a loss function, and may train a model to predict print quality based on the loss value.
  • the loss function of the model predicting print quality may be configured as shown in [Equation 2] below by adding the loss values of each auto-encoder and the total loss value of the model predicting print quality.
  • Loss(AEn) represents loss values of a plurality of autoencoders
  • Loss(classification) represents loss values of all models predicting print quality
  • the direction in which the backpropagation algorithm proceeds is opposite to the direction in which output data is obtained.
  • the processor may perform backpropagation in the deep neural network and the decoder layer of each auto-encoder.
  • the processor may perform backpropagation to the encoder layer of the auto-encoder by combining the sum of the loss values of each auto-encoder and the loss value of the deep neural network.
  • FIG. 8 is a diagram for explaining an example of training a predictive model using a backpropagation algorithm according to an embodiment of the present invention.
  • the backpropagation algorithm proceeds in the opposite direction to obtaining output data from a model predicting print quality.
  • the processor may back-propagate the loss generated in the deep neural network to the encoder layer of each auto-encoder (820). Also, the processor may back-propagate (810) the loss generated in each auto-encoder only to each auto-encoder. In the encoder layer present in each auto-encoder, backpropagation may be performed by adding the loss of the auto-encoder and the loss of the classification neural network.
  • FIG. 9 is a block diagram showing a print quality prediction device according to an embodiment of the present invention.
  • an apparatus 900 for predicting print quality may include a communication module 910 , a processor 920 and a memory 930 .
  • a communication module 910 may include a communication module 910 , a processor 920 and a memory 930 .
  • a processor 920 may be included in addition to the components shown in FIG. 9 .
  • the communication module 910 may include one or more components enabling data communication between the device 900 for predicting print quality and an external device. For example, process factors (including process factor items and process factor values) may be received from an external device and provided to the processor 920 included in the device 900 for predicting print quality. Alternatively, a print quality prediction result obtained from the device 900 for predicting print quality may be provided to an external device.
  • the communication module 910 may include at least one of a short-distance communication module and a mobile communication module.
  • the memory 930 is hardware that stores various types of data, and may store programs for processing and controlling the processor 920 .
  • the memory 930 may store process factors classified into a plurality of groups, input data, latent variables, and models for predicting print quality.
  • the memory 930 may include random access memory (RAM) such as dynamic random access memory (DRAM) and static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), and CD-ROM.
  • RAM random access memory
  • DRAM dynamic random access memory
  • SRAM static random access memory
  • ROM read-only memory
  • EEPROM electrically erasable programmable read-only memory
  • CD-ROM compact discs, digital versatile discs, and Blu-ray or other optical disk storage, hard disk drive (HDD), solid state drive (SSD), or flash memory.
  • Processor 920 performs methods for predicting print quality.
  • the processor 920 may overall control the communication module 910 and the memory 930 by executing programs stored in the memory 930 .
  • the processor 920 classifies process factors of the 3D printer into a plurality of groups by executing programs stored in the memory 930, and inputs input data corresponding to the classification result into a model predicting the print quality,
  • the print quality may be predicted by obtaining a label representing the print quality using the output data output from the model.
  • the processor 920 may include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), controllers, and microcontrollers. It may be implemented using at least one of micro-controllers, microprocessors, and electrical units for performing other functions.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • controllers and microcontrollers. It may be implemented using at least one of micro-controllers, microprocessors, and electrical units for performing other functions.
  • the above-described method can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium.
  • the structure of data used in the above-described method can be recorded on a computer-readable recording medium through various means.
  • the computer-readable recording medium includes storage media such as magnetic storage media (eg, ROM, RAM, USB, floppy disk, hard disk, etc.) and optical reading media (eg, CD-ROM, DVD, etc.) do.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • Food Science & Technology (AREA)
  • Computational Linguistics (AREA)
  • Geometry (AREA)
  • Medical Informatics (AREA)
  • Polymers & Plastics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Hardware Design (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Manufacturing & Machinery (AREA)
  • Materials Engineering (AREA)

Abstract

본 발명의 일 실시예에 따르면, 식료품을 인쇄하는 3D 프린터의 인쇄 품질을 예측하기 위한 방법으로서, 3D 프린터의 공정 인자들을 복수의 그룹들로 분류하는 단계; 상기 분류 결과에 대응하는 입력 데이터를 상기 인쇄 품질을 예측하는 모델에 입력하는 단계; 및 상기 모델로부터 출력된 출력 데이터를 이용하여 상기 인쇄 품질을 나타내는 라벨을 획득하는 단계;를 포함할 수 있다.

Description

식료품을 인쇄하는 3D 프린터의 인쇄 품질을 예측하는 방법 및 장치
아래의 실시예들은 식료품을 인쇄하는 3D 프린터의 인쇄 품질을 예측하는 방법 및 장치 관한 것이다.
3D 푸드 프린팅 기술은 CAD나 3D 스캐너를 통해 만들어진 3 차원 디지털 디자인을 바탕으로 식품 구성 비율, 영양학적 데이터 등을 반영한 후, 식품원료를 한층씩 적층하여 3차원으로 재구성하는 식품 제조 기술이다.
곡류, 육류, 채소류와 같은 필수적인 식품과 3D 프린팅을 통한 새로운 구조적 특징을 결합하여 기존 식품의 형태와 질감을 자유롭게 디자인 할 수 있으며, 식품의 구성성분, 맛과 향미 등이 완전히 다른 개별적인 식품을 생산할 수 있어 다양한 식품 산업에 응용될 수 있다.
한편, 3D 프린터의 공정 인자들은 출력물의 인쇄 품질에 많은 영향을 미친다. 동일한 시료를 사용하여 출력물을 출력하더라도 3D 프린터에 설정된 공정 인자들에 따라 출력물의 품질은 상이할 수 있다. 실패없이 출력물을 인쇄하기 위한 공정 인자들의 최적화가 필요하나 공정 인자들과 출력물 품질의 상관 관계가 정확히 규명되지 않아, 공정 인자들의 최적화가 어려웠다. 따라서, 기존 식료품 3D 프린터의 사용자는 출력이 완료되기 전까지는 출력물의 품질을 예측하기 어려운 문제점이 존재하였다.
식료품을 인쇄하는 3D 프린터의 인쇄 품질을 예측하는 방법 및 장치를 제공하는데 있다.
본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제에 한정되지 않으며, 언급되지 않은 본 발명의 다른 과제 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명이 해결하고자 하는 과제 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 알 수 있을 것이다.
일 측면에 따르면, 식료품을 인쇄하는 3D 프린터의 인쇄 품질을 예측하기 위한 방법으로서, 3D 프린터의 공정 인자들을 복수의 그룹들로 분류하는 단계; 상기 분류 결과에 대응하는 입력 데이터를 상기 인쇄 품질을 예측하는 모델에 입력하는 단계; 및 상기 모델로부터 출력된 출력 데이터를 이용하여 상기 인쇄 품질을 나타내는 라벨을 획득하는 단계;를 포함할 수 있다.
상술한 방법에 있어서, 상기 분류하는 단계는, 상기 인쇄 품질에 끼치는 영향에 기초하여 상기 공정 인자들을 복수 개의 그룹으로 분류할 수 있다.
상술한 방법에 있어서, 상기 입력 데이터는, 상기 공정 인자의 정규화를 통하여 생성되는 데이터를 포함할 수 있다.
상술한 방법에 있어서, 상기 모델은, 상기 복수 개의 그룹들과 동일한 수의 오토 인코더들 및 단일 심층 신경망으로 구성될 수 있다.
상술한 방법에 있어서, 상기 공정 인자 데이터를 인쇄 품질 예측 모델에 입력하는 단계는, 상기 오토 인코더들 각각으로부터 출력된 잠재 변수들을 획득하는 단계; 및 상기 잠재 변수들을 상기 단일 심층 신경망에 입력하는 단계;를 포함할 수 있다.
상술한 방법에 있어서, 잠재 변수들을 획득하는 단계는, 상기 복수 개의 그룹 중 제n 그룹에 포함되는 입력 데이터 및 제n-1 그룹의 잠재 변수를 오토 인코더에 입력하여, n 잠재 변수를 추출하는 단계를 포함하고, 상기 n은 2 이상의 자연수를 포함할 수 있다.
상술한 방법에 있어서, 역전파 알고리즘을 사용하여 상기 모델을 훈련시키는 단계;를 더 포함할 수 있다.
다른 측면에 따르면, 식료품을 인쇄하는 3D 프린터의 인쇄 품질을 예측하기 위한 장치에 있어서, 통신을 수행하는 통신 모듈; 적어도 하나의 프로그램이 저장된 메모리; 및 상기 적어도 하나의 프로그램을 실행함으로써 연산을 수행하는 프로세서를 포함하고, 상기 프로세서는, 3D 프린터의 공정 인자들을 복수의 그룹들로 분류하고, 상기 분류 결과에 대응하는 입력 데이터를 상기 인쇄 품질을 예측하는 모델에 입력하고, 상기 모델로부터 출력된 출력 데이터를 이용하여 상기 인쇄 품질을 나타내는 라벨을 획득하는 장치를 포함할 수 있다.
또 다른 측면에 따르면, 본 발명의 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 제공된다.
전술한 본 개시의 과제 해결 수단에 의하면, 식료품 3D 프린터의 출력물에 대한 인쇄 품질을 예측할 수 있다.
본 개시의 해결 수단 중 하나에 의하면, 출력이 완료되기 전 미리 인쇄 품질의 예측이 가능하여 사용자의 편의성을 향상 시킬 수 있다.
도 1 은 본 발명의 일 실시예에 따른 식료품을 인쇄하는 3D 프린터의 인쇄 품질을 예측하기 위한 방법을 나타낸 블록도이다.
도 2 는 본 발명의 일 실시예에 따른 3D 프린터의 공정 인자들을 복수 개의 그룹들로 분류하는 일 예를 설명하기 위한 도면이다.
도 3 은 본 발명의 일 실시예에 따른 식료품을 인쇄하는 3D 프린터의 인쇄 품질을 예측하는 모델의 일 예를 설명하기 위한 도면이다.
도 4 는 본 발명의 일 실시예에 따른 잠재 변수를 추출하는 일 예를 설명하기 위한 블록도이다.
도 5 는 본 발명의 일 실시예에 따른 입력 데이터를 예측 모델에 입력하는 일 예를 설명하기 위한 도면이다.
도 6 은 본 발명의 일 실시예에 따른 예측 모델로부터 출력된 출력 데이터를 이용하여 인쇄 품질을 예측하는 일 예를 설명하기 위한 도면이다.
도 7 은 본 발명의 일 실시예에 따른 역전파 알고리즘을 이용하여 예측 모델을 훈련하는 일 예를 설명하기 위한 블록도이다.
도 8 은 본 발명의 일 실시예에 따른 역전파 알고리즘을 이용하여 예측 모델을 훈련시키는 모습의 일 예를 설명하기 도면이다.
도 9 는 본 발명의 실시예에 따른 인쇄 품질 예측 장치를 나타낸 블록도이다.
본 실시예들에서 사용되는 용어는 본 실시예들에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 부분에서 상세히 그 의미를 기재할 것이다. 따라서, 본 실시예들에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 실시예들 전반에 걸친 내용을 토대로 정의되어야 한다.
본 실시예들에 사용되는 용어들은 다르게 정의되지 않는 한, 본 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 실시예들에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않아야 한다.
본 실시예들은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 일부 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 실시예들을 특정한 개시형태에 대해 한정하려는 것이 아니며, 본 실시예들의 사상 및 기술범위에 포함되는 모든 변경, 대체물을 포함하는 것으로 이해되어야 한다. 본 명세서에서 사용한 용어들은 단지 실시예들의 설명을 위해 사용된 것으로, 본 실시예들을 한정하려는 의도가 아니다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.
또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
종래의 식료품 3D 프린터는 식료품이라는 시료의 특성상 일반 3D 프린터로 출력한 출력물 보다 정밀도, 정확도가 떨어질 수 있다. 다시 말해, 시료를 동일하게 사용하여 동일한 출력물을 출력하더라도, 출력물의 인쇄 품질은 식료품 3D 프린터의 출력을 위해 설정된 공정 인자들에 따라 상이할 수 있다. 종래 기술에 따르면, 출력물 품질에 따른 공정 인자들의 최적화가 어려워 즉각적으로 출력물의 품질을 확인하기 힘들다는 문제점이 존재하였다. 한편, 본 발명의 일 실시예에 따른 식료품을 인쇄하는 3D 프린터의 인쇄 품질을 예측하는 방법 및 장치는 3D 프린터의 출력물의 품질을 즉각적으로 확인할 수 있는바, 상술한 문제점이 해소될 수 있다. 이하, 도 1 내지 도 9를 참조하여, 본 발명의 일 실시예에 따른 3D 프린터의 인쇄 품질을 예측하는 방법 및 장치를 설명한다.
도 1 은 본 발명의 일 실시예에 따른 식료품을 인쇄하는 3D 프린터의 인쇄 품질을 예측하기 위한 방법을 나타낸 블록도이다.
도 1 을 참조하면, 프로세서는 3D 프린터의 공정 인자들을 복수 개의 그룹들로 분류할 수 있다(S110).
공정 인자들은 3D 프린터의 인쇄 품질에 많은 영향을 끼치는 중요한 요소들을 의미한다. 예를 들어, 공정 인자들에는 노즐의 크기, 노즐의 이동속도, 압출 속도, 사용한 식료품 소재, 3D 프린터의 출력 속도 등 출력물의 품질에 영향을 주는 다양한 인자들이 포함될 수 있다.
프로세서는 공정 인자들이 인쇄 품질에 영향을 끼치는 정도에 따라 공정 인자들을 복수 개의 그룹으로 분류할 수 있다. 보다 상세히, 프로세서는 공정 인자들이 인쇄 품질에 영향을 끼치는 정도에 따라 공정 인자들을 복수 개의 그룹으로 분류한다.
예를 들어, 일반적인 3D 프린터와는 다르게, 식료품 3D 프린터는 외부 온도와 습도에 따라 출력물의 품질에 많은 영향을 받는다. 따라서, 공정 인자에는 외부 온도와 외부 습도가 포함 될 수 있다.
예를 들어, 공정 인자들이 인쇄 품질에 영향을 끼치는 정도에 기초하여, 공정 인자들은 아래 [표 1] 과 같이 복수 개의 그룹으로 분류될 수 있다. [표 1]에는 식료품 3D 프린터에 대한 48개의 공정 인자들과 외부 온도 및 습도를 포함하여, 총 50개의 공정 인자들이 포함되어 있다. [표 1] 에 따르면, 50개의 공정 인자들이 인쇄 품질에 영향을 끼치는 정도에 기초하여 4가지 그룹으로 분류된 것을 확인 할 수 있다. [표 1] 은 공정 인자들을 복수 개의 그룹으로 분류한 예시일 뿐 공정 인자들의 항목과 분류된 그룹의 수를 한정하는 것은 아니다.
1st group 2nd group 3rd group 4th group
Nozzle Size Wall Line Width Wall Flow Outer Wall Wipe Distance
Layer Height Outer Wall Line Width Outer Wall Flow Initial Bottom Layers
Line Width Inner Wall(s) Line Width Inner Wall(s) Flow Top/Bottom Pattern
Printing Temperature Top/Bottom Line Width Top/Bottom Flow Bottom Pattern Initial Layer
Print Speed Infill Line Width Infill Flow Seam Corner Preference
External Temperature Initial Layer Line Width Infill Speed Infill Pattern
Humidity Wall Thickness Wall Speed Printing Temperature Initial Layer
Infill Density Wall Line Count Top/Bottom Speed Outer Wall Speed
Initial Printing Temperature Top/Bottom Thickness Travel Speed Inner Wall Speed
Final Printing Temperature Top Thickness Initial Layer Speed Initial Layer Travel Speed
Flow Top Layers Initial Layer Print Speed
Initial Layer Flow Bottom Thickness Combining Mode
Bottom Layers Avoid Printed Parts When Traveling
Z Seam Alignment
Infill Line Distance
이하에서는, 설명의 편의를 위하여, 용어 '공정 인자'는 해당 공정 인자를 나타내는 값을 지칭하는 것으로 한다.
프로세서는 분류 결과에 대응하는 입력 데이터를 인쇄 품질을 예측하는 모델에 입력할 수 있다(S120).
예를 들어, 입력 데이터는 공정 인자들의 정규화 과정을 통해 생성될 수 있다. 각각의 공정 인자들은 공정 인자 마다 평균값과 분산이 모두 다르기 때문에, 인쇄 품질을 예측하는 모델에 적용하기 위해서는 정규화 과정을 통하여 입력 데이터가 생성되어야 한다.
예를 들어, 프로세서는 공정 인자들을 최대-최소 정규화하여 입력 데이터를 생성할 수 있다. 최대-최소 정규화는 아래의 [수학식 1]을 통하여 수행될 수 있다.
[수학식 1]
Figure PCTKR2023002377-appb-img-000001
x(max)는 인쇄 품질을 예측하는 모델에 기설정된 공정 인자의 최대값이며, x(min)는 인쇄 품질을 예측하는 모델에 기설정된 공정 인자의 최소값이다. 또한, x는 인쇄 품질을 예측하고자 하는 식료품 3D 프린터의 공정 인자 값이며, x(scaled)은 정규화 과정을 통하여 생성된 입력 데이터이다,
그 후에, 프로세서는 입력 데이터를 인쇄 품질을 예측하는 모델에 입력할 수 있다.
인쇄 품질을 예측하는 모델은 그룹들의 수와 동일한 수의 오토 인코더와 단일 심층 신경망으로 구성될 수 있다. 인쇄 품질 예측 모델에 대한 설명은 도 3 및 도 5 내지 6을 참고하여 서술하도록 한다.
프로세서는 복수 개의 그룹들 각각에 대응하는 입력 데이터를 오토 인코더 각각에 입력할 수 있다. 보다 상세히, 프로세서는 인쇄 품질에 가장 많은 영향을 끼치는 제1 그룹에 대응하는 입력 데이터를 제1 오토 인코더에 입력하여 제1 잠재 변수를 추출하고, 제1 잠재 변수와 제2 그룹에 대응하는 입력 데이터를 제2 오토 인코더에 입력하여 제2 잠재 변수를 추출할 수 있다. 이러한 방식으로, 프로세서는 복수 개의 그룹들 각각에 대응하는 입력데이터를 오토 인코더에 입력할 수 있다.
또한, 프로세서는 추출한 복수 개의 잠재 변수를 심층 신경망에 입력하여, 인쇄 품질을 나타내는 값을 획득할 수 있다.
예를 들어, 잠재 변수에는 입력 데이터에서 노이즈가 제거된 결과 및 공정 인자의 특징들이 포함될 수 있다.
프로세서는 입력 데이터와 이전 오토 인코더에서 추출된 잠재 변수를 조합하여 다음 오토 인코더에 입력한다. 예를 들어, 제2 오토 인코더에는 제1 오토 인코더에서 추출된 잠재 변수 및 제2 입력 데이터가 입력된다. 따라서, 본 발명의 방법에 따르면, 인쇄 품질에 영향을 주는 공정 인자의 특징들이 잠재 변수에 반영되어 있을 수 있다. 또한, 복수 개의 그룹으로 분류된 입력 데이터에 기초하여 잠재 변수들이 추출되므로 인쇄 품질을 예측하는 모델의 정확도를 향상시킬 수 있다.
프로세서는 모델로부터 출력된 출력 데이터를 이용하여 인쇄 품질을 나타내는 라벨을 획득할 수 있다.(S130).
출력 데이터는 0~100% 범위의 인쇄 품질을 나타내는 예측 값을 나타낸다. 또한, 프로세서는 소정의 기준에 따라 출력 데이터를 어느 하나의 라벨(예를 들어, 실패, 낮음, 중간, 높음, 매우 높음 등)로 매칭할 수 있다. 예를 들어, 출력 데이터가 60% 미만인 경우, 프로세서는 '실패'라는 라벨로 매칭할 수 있다. 또한, 출력 데이터가 60% 이상 70% 미만인 경우, 프로세서는 '낮음'이라는 라벨로 매칭할 수 있다. 또한, 출력 데이터가 70% 이상 80% 미만인 경우, 프로세서는 '중간'이라는 라벨로 매칭할 수 있다. 또한, 출력 데이터가 80% 이상 90% 미만인 경우, 프로세서는 '높음'이라는 라벨로 매칭할 수 있다. 또한, 출력 데이터가 90% 이상인 경우, 프로세서는 '매우 높음'이라는 라벨로 매칭할 수 있다. 따라서, 사용자는 매칭된 라벨에 따라 3D 프린터의 인쇄 품질을 확인할 수 있다.
도 2 는 본 발명의 일 실시예에 따른 3D 프린터의 공정 인자들을 복수 개의 그룹들로 분류하는 일 예를 설명하기 위한 도면이다.
도 2를 참조하면, 공정 인자들(210)에는 외부 환경(온도 및 습도), 재료(시료), 출력물 품질, 출력 속도 등 다양한 요소들이 포함될 수 있다.
도 1 의 S110 단계에서 언급한 것처럼, 공정 인자들(210)은 각 공정 인자가 인쇄 품질에 영향을 끼치는 정도에 따라 복수 개의 그룹(220)으로 분류될 수 있다.
보다 상세히, 복수 개의 그룹(220) 중 제1 그룹으로 분류된 공정 인자들은 인쇄 품질에 가장 많은 영향을 끼친다. 또한, 제n 그룹으로 분류된 공정 인자들은 인쇄 품질에 가장 적은 영향을 끼친다. 여기에서 n은 2 이상의 자연수를 의미한다.
프로세서는 복수 개의 그룹으로 분류된 공정 인자들을 정규화하여 입력 데이터를 생성하고, 입력 데이터를 순차적으로 인쇄 품질을 예측하는 모델에 입력 할 수 있다.
도 3 은 본 발명의 일 실시예에 따른 식료품을 인쇄하는 3D 프린터의 인쇄 품질을 예측하는 모델의 일 예를 설명하기 위한 도면이다.
도 3을 참고하면, 인쇄 품질을 예측하는 모델은 복수 개의 오토 인코더(300)와 단일 심층 신경망(400)으로 구성될 수 있다. 인쇄 품질을 예측하는 모델은 복수 개의 오토 인코더(300)로부터 추출된 잠재 변수가 단일 심층 신경망에 입력되는 구조이다.
오토 인코더(300)의 수는 복수 개의 그룹들의 수와 동일할 수 있다. 다만, 설명의 편의를 위하여, 도 3 에서는 하나의 오토 인코더(300)와 심층 신경망(400)을 도시하였다. 인쇄 품질을 예측하는 모델에 복수 개의 오토 인코더(300)가 포함된 예는 도 5에 도시하였다.
오토 인코더(300)는 인코더 레이어 및 디코더 레이어를 포함한다. 인코더 레이어 및 디코더 레이어는 각각 복수 개의 히든 레이어를 포함 할 수 있다. 프로세서는 인코더 레이어에 포함된 히든 레이어를 이용하여 입력 데이터를 압축하고, 잠재 변수를 추출 할 수 있다. 보다 상세하게, 프로세서는 입력 데이터를 압축하여 공정 인자가 출력물의 인쇄 품질에 영향을 끼치는 특징들을 포함하는 잠재 변수를 추출할 수 있다.
또한, 프로세서는 디코더 레이어에 포함된 히든 레이어를 이용하여 압축된 입력 데이터를 복원시켜 출력 데이터를 생성할 수 있다. 디코더 레이어에 의해 생성된 출력 데이터는 역전파 알고리즘에 기초하여 인쇄 품질을 예측하는 모델을 학습시키는데 사용된다.
프로세서는 추출한 잠재 변수를 심층 신경망(400)에 입력할 수 있으며, 심층 신경망(400)으로부터의 출력은 인쇄 품질 예측 값을 나타내는 출력 데이터일 수 있다.
도 4 는 본 발명의 일 실시예에 따른 프로세서가 잠재 변수를 추출하는 일 예를 설명하기 위한 블록도이다.
프로세서는 복수 개의 그룹 중 제n 그룹에 포함되는 입력 데이터 및 제n-1 그룹의 잠재 변수를 오토 인코더에 입력하여, 제n 잠재 변수를 추출 할 수 있다. 여기에서, n은 2 이상의 자연수로서, 분류된 그룹의 수를 의미한다.
보다 자세히, 도 4 를 참고하여 잠재 변수를 추출 하는 예를 설명하고자 한다.
프로세서는 제1 그룹의 입력 데이터를 오토 인코더에 입력할 수 있다(S121). 그 후에, 프로세서는 제1 그룹의 잠재 변수를 추출 할 수 있다(S122).
그 후에, 프로세서는 제1 그룹의 잠재 변수와 제2 그룹의 입력 데이터를 오토 인코더에 입력할 수 있다(S123). 그 후에, 프로세서는 제2 그룹의 잠재 변수를 추출할 수 있다(S124).
보다 상세히, 제1 그룹의 잠재 변수를 추출한 뒤, 프로세서는 제1 그룹의 잠재 변수와 제2 그룹의 입력 데이터를 오토 인코더에 입력하여 제2 그룹의 잠재 변수를 추출할 수 있다.
프로세서는 모든 잠재 변수를 추출했는지 판단할 수 있다(S125). 보다 상세히, 프로세서는 모든 오토 인코더의 잠재 변수를 추출했는지 판단할 수 있다. 예를 들어, 공정 인자에 대하여 분류된 그룹의 수가 n개 이면, 오토 인코더의 수도 n개 일 수 있다. 프로세서는 모든 오토 인코더의 잠재 변수를 추출했다고 판단하면, 추출한 잠재 변수를 심층 신경망에 입력할 수 있다.
만약, 프로세서는 모든 오토 인코더의 잠재 변수를 추출하지 않았다고 판단하면, 제2 그룹의 잠재 변수와 제3 그룹의 입력 데이터를 오토 인코더에 입력할 수 있다(S126). 그리고, 프로세서는 제3 그룹의 잠재 변수를 추출할 수 있다(S127).
이와 같은 방식으로, 프로세서는 모든 오토 인코더들 각각에 대한 잠재 변수를 추출할 때까지 상술한 동작을 반복한다.(S128). 예를 들어, 공정 인자에 대하여 분류된 그룹의 수가 n개이면, 프로세서는 분류된 n개의 그룹에 대응하는 오토 인코더를 통하여 n개의 잠재 변수를 추출할 수 있다. 예를 들어, 분류된 그룹의 수가 4개이면, 프로세서는 4개의 잠재 변수를 추출 할 수 있다. 혹은, 분류된 그룹의 수가 5개이면, 프로세서는 5개의 잠재 변수를 추출 할 수 있다.프로세서는 상술한 동작을 반복하여(S128) 모든 오토 인코더들 각각에 대한 잠재 변수를 추출하면, 추출한 잠재 변수를 심층 신경망에 입력할 수 있다.
도 5 는 본 발명의 일 실시예에 따른 입력 데이터를 인쇄 품질을 예측하는 모델에 입력하는 일 예를 설명하기 위한 도면이다.
도 5 를 참고하면, 인쇄 품질을 예측하는 모델은 복수 개의 그룹에 대응하는 복수 개의 오토 인코더들(300)을 포함할 수 있다. 프로세서는 공정 인자들을 복수 개의 그룹들로 분류하고, 분류 결과에 대응하는 입력 데이터(310, 320, 330, 340)을 생성할 수 있다. 프로세서는 제1 그룹의 입력 데이터(310)를 오토 인코더에 입력하여 잠재 변수(311)을 추출하고, 잠재 변수(311)와 제2 그룹의 입력 데이터(320)을 합하여 오토 인코더에 입력 할 수 있다. 프로세서는 잠재 변수(321)을 추출하고, 잠재 변수 (321)와 제3 그룹의 입력 데이터(330)을 합하여 오토 인코더에 입력할 수 있다. 앞서 서술한 방식과 동일하게 프로세서는 잠재 변수(331)와 제4 그룹의 입력 데이터(340)을 합하여 오토 인코더에 입력할 수 있고 잠재 변수(341)을 추출할 수 있다.
본 발명의 일 실시예에 따르면, 인쇄 품질에 가장 많은 영향을 끼치는 공정 인자의 특징들이 전체 잠재 변수들에 모두 영향을 미치므로, 인쇄 품질을 예측하는 모델의 정확성이 높아질 수 있다.
오토 인코더의 출력 데이터(312, 322, 332, 342)는 입력 데이터(310, 320, 330, 340)와 비교하여 오차를 줄이기 위한 역전파 알고리즘에 사용될 수 있다. 프로세서는 역전파 알고리즘을 사용하여 인쇄 품질을 예측하는 모델을 훈련시킬 수 있다.
도 6 은 본 발명의 일 실시예에 따른 예측 모델로부터 출력된 출력 데이터를 이용하여 인쇄 품질을 예측하는 일 예를 설명하기 위한 도면이다.
도 6을 참조하면, 인쇄 품질을 예측하는 모델은 복수 개의 그룹에 대응하는 복수 개의 오토 인코더들(300)과 단일 심층 신경망(400)으로 구성될 수 있다.
프로세서는 복수 개의 오토 인코더들(300)로부터 추출한 잠재 변수(311, 321, 331, 341)들을 심층 신경망(400)에 입력할 수 있고, 심층 신경망(400)으로부터 인쇄 품질 예측 값을 나타내는 출력 데이터를 획득할 수 있다. 프로세서는 출력 데이터에 대응하는 인쇄 품질을 나타내는 라벨(610)을 획득할 수 있다.
도 7 및 8 은 일 실시예에 따른 역전파 알고리즘을 이용하여 예측 모델을 훈련하는 일 예를 설명하기 위한 도면이다.
도 7 은 일 실시예에 따른 역전파 알고리즘을 이용하여 예측 모델을 훈련하는 일 예를 설명하기 위한 블록도이다.
도 7을 참조하면, S110 ~ S130 단계들은 도 1의 S110 ~ S130 단계와 동일하다. 따라서, 이하에서는 도 1과 중복되는 설명은 생략한다.
프로세서는 역전파 알고리즘을 사용하여 예측 모델을 훈련한다(S140).
예를 들어, 프로세서는 손실 함수를 이용하여 손실값을 산출할 수 있고, 손실 값에 기초하여 인쇄 품질을 예측하는 모델을 훈련시킬 수 있다. 인쇄 품질을 예측하는 모델의 손실 함수는 각 오토 인코더의 손실 값들과 인쇄 품질을 예측하는 모델의 전체 손실 값을 합하여 아래의 [수학식 2] 와 같이 구성될 수 있다.
[수학식 2]
Figure PCTKR2023002377-appb-img-000002
수학식2에서, Loss(AEn)는 복수 개의 오토 인코더의 손실 값을 나타내며, Loss(classification)는 인쇄 품질을 예측하는 모델 전체의 손실 값을 나타낸다.
역전파 알고리즘의 진행 방향은 출력 데이터를 구하는 방향과 반대로 진행된다. 프로세서는 심층 신경망과 각각의 오토 인코더의 디코더 레이어에서 역전파를 진행할 수 있다. 또한, 프로세서는 각각의 오토 인코더의 손실 값의 합과 심층 신경망의 손실 값을 합쳐 오토 인코더의 인코더 레이어로 역전파를 수행할 수 있다.
도 8 은 본 발명의 일 실시예에 따른 역전파 알고리즘을 이용하여 예측 모델을 훈련시키는 모습의 일 예를 설명하기 도면이다.
도 7 에서 설명한 바와 같이, 역전파 알고리즘은 인쇄 품질을 예측하는 모델에서 출력 데이터를 구하는 방향과 반대로 진행된다.
도 8을 참고하면, 프로세서는 심층 신경망에서 발생한 손실을 각각의 오토 인코더의 인코더 레이어로 역전파할 수 있다(820). 또한, 프로세서는 각각의 오토 인코더에서 발생한 손실을 각각의 오토 인코더에서만 역전파(810) 할 수 있다. 각각의 오토 인코더에 존재하는 인코더 레이어는 오토 인코더의 손실과 분류 신경망의 손실이 합쳐져 역전파가 진행될 수 있다.
도 9 는 본 발명의 실시예에 따른 인쇄 품질 예측 장치를 나타낸 블록도이다.
도 9를 참조하면, 인쇄 품질을 예측하는 장치(900)는 통신모듈(910), 프로세서(920) 및 메모리(930)를 포함할 수 있다. 도 9의 장치(900)에는 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 9에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 당해 기술분야의 통상의 기술자라면 이해할 수 있다.
통신모듈(910)은 인쇄 품질을 예측하기 위한 장치(900)와 외부 장치 간의 데이터 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있다. 예를 들어, 외부 장치로부터 공정 인자들(공정 인자 항목 및 공정 인자의 수치 등을 포함)을 수신하여 인쇄 품질을 예측하기 위한 장치(900)에 포함된 프로세서(920)에 제공할 수 있다. 또는, 인쇄 품질을 예측하기 위한 장치(900)로부터 획득한 인쇄 품질의 예측 결과를 외부 장치로 제공할 수 있다. 통신모듈(910)는, 근거리 통신모듈, 이동 통신모듈 등 적어도 하나를 포함할 수 있다.
메모리(930)는 각종 데이터들을 저장하는 하드웨어로서, 프로세서(920)의 처리 및 제어를 위한 프로그램을 저장할 수 있다. 메모리(930)는 복수 개의 그룹으로 분류된 공정 인자들, 입력 데이터, 잠재 변수, 인쇄 품질을 예측하는 모델 등을 저장할 수 있다.
메모리(930)는 DRAM(dynamic random access memory), SRAM(static random access memory) 등과 같은 RAM(random access memory), ROM(read-only memory), EEPROM(electrically erasable programmable read-only memory), CD-ROM, 블루레이 또는 다른 광학 디스크 스토리지, HDD(hard disk drive), SSD(solid state drive), 또는 플래시 메모리를 포함할 수 있다.
프로세서(920)는 인쇄 품질을 예측하기 위한 방법들을 수행한다. 예를 들어, 프로세서(920)는 메모리(930)에 저장된 프로그램들을 실행함으로써, 통신모듈(910), 메모리(930) 등을 전반적으로 제어할 수 있다.
프로세서(920)는, 메모리(930)에 저장된 프로그램들을 실행함으로써, 3D 프린터의 공정 인자들을 복수의 그룹들로 분류하고, 분류 결과에 대응하는 입력 데이터를 상기 인쇄 품질을 예측하는 모델에 입력하여, 모델로부터 출력된 출력 데이터를 이용하여 인쇄 품질을 나타내는 라벨을 획득하여 인쇄 품질을 예측할 수 있다.
프로세서(920)는 ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
한편, 상술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 램, USB, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.
본 실시예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 하며, 권리 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점을 포함하는 것으로 해석되어야 할 것이다.

Claims (9)

  1. 컴퓨팅 장치에 포함된 적어도 하나의 프로세서에 의하여 각 단계가 수행되는 식료품을 인쇄하는 3D 프린터의 인쇄 품질을 예측하는 방법에 있어서,
    상기 3D 프린터의 공정 인자들을 복수 개의 그룹들로 분류하는 단계;
    상기 분류 결과에 대응하는 입력 데이터를 상기 인쇄 품질을 예측하는 모델에 입력하는 단계; 및
    상기 모델로부터 출력된 출력 데이터를 이용하여 상기 인쇄 품질을 나타내는 라벨을 획득하는 단계;를 포함하는 방법.
  2. 제 1 항에 있어서,
    상기 분류하는 단계는,
    상기 공정 인자들이 상기 인쇄 품질에 영향을 끼치는 정도에 기초하여 상기 공정 인자들을 복수 개의 그룹으로 분류하는 방법.
  3. 제 1 항에 있어서,
    상기 입력 데이터는,
    상기 공정 인자의 정규화를 통하여 생성되는 데이터를 포함하는 방법.
  4. 제 1 항에 있어서,
    상기 모델은,
    상기 복수의 그룹들과 동일한 수의 오토 인코더들 및 단일 심층 신경망으로 구성된 방법.
  5. 제 4 항에 있어서,
    상기 공정 인자 데이터를 인쇄 품질 예측 모델에 입력하는 단계는,
    상기 오토 인코더들 각각으로부터 출력된 잠재 변수들을 획득하는 단계; 및
    상기 잠재 변수들을 상기 단일 심층 신경망에 입력하는 단계;를 포함하는 방법.
  6. 제 1 항에 있어서,
    상기 잠재 변수들을 획득하는 단계는,
    상기 복수 개의 그룹 중 제n 그룹에 포함되는 입력데이터 및 제n-1 그룹의 잠재 변수를 오토 인코더에 입력하여, 제n 잠재 변수를 추출하는 단계;를 포함하고,
    상기 n은 2 이상의 자연수를 포함하는 방법.
  7. 제 1 항에 있어서,
    역전파 알고리즘을 사용하여 상기 모델을 훈련시키는 단계;를 더 포함하는 방법.
  8. 3D 프린터의 인쇄 품질을 예측하기 위한 장치에 있어서,
    통신을 수행하는 통신모듈;
    적어도 하나의 프로그램이 저장된 메모리; 및
    상기 적어도 하나의 프로그램을 실행함으로써 연산을 수행하는 프로세서를 포함하고,
    상기 프로세서는, 식료품 3D 프린터의 공정 인자들을 복수의 그룹들로 분류하고, 상기 분류 결과에 대응하는 입력 데이터를 상기 인쇄 품질을 예측하는 모델에 입력하며, 상기 모델로부터 출력된 출력 데이터를 이용하여 상기 인쇄 품질을 나타내는 라벨을 획득하는 장치.
  9. 제 1 항의 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
PCT/KR2023/002377 2022-02-22 2023-02-20 식료품을 인쇄하는 3d 프린터의 인쇄 품질을 예측하는 방법 및 장치 WO2023163467A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0022964 2022-02-22
KR1020220022964A KR20230126006A (ko) 2022-02-22 2022-02-22 식료품을 인쇄하는 3d 프린터의 인쇄 품질을 예측하는 방법 및 장치

Publications (1)

Publication Number Publication Date
WO2023163467A1 true WO2023163467A1 (ko) 2023-08-31

Family

ID=87766394

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/002377 WO2023163467A1 (ko) 2022-02-22 2023-02-20 식료품을 인쇄하는 3d 프린터의 인쇄 품질을 예측하는 방법 및 장치

Country Status (2)

Country Link
KR (1) KR20230126006A (ko)
WO (1) WO2023163467A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190028366A (ko) * 2016-05-12 2019-03-18 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. 3d 물체 부품의 품질 예측
KR20190058084A (ko) * 2017-11-21 2019-05-29 주식회사 스페이스디 3d 푸드프린터
KR20190068350A (ko) * 2017-12-08 2019-06-18 성균관대학교산학협력단 3d 프린팅 출력물의 품질 예측 방법 및 장치
US20200046013A1 (en) * 2016-11-08 2020-02-13 Bsh Hausgeraete Gmbh Control unit, food printer and method for controlling a food printer
JP2021088736A (ja) * 2019-12-03 2021-06-10 株式会社ジェイテクト 品質予測システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190028366A (ko) * 2016-05-12 2019-03-18 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. 3d 물체 부품의 품질 예측
US20200046013A1 (en) * 2016-11-08 2020-02-13 Bsh Hausgeraete Gmbh Control unit, food printer and method for controlling a food printer
KR20190058084A (ko) * 2017-11-21 2019-05-29 주식회사 스페이스디 3d 푸드프린터
KR20190068350A (ko) * 2017-12-08 2019-06-18 성균관대학교산학협력단 3d 프린팅 출력물의 품질 예측 방법 및 장치
JP2021088736A (ja) * 2019-12-03 2021-06-10 株式会社ジェイテクト 品質予測システム

Also Published As

Publication number Publication date
KR20230126006A (ko) 2023-08-29

Similar Documents

Publication Publication Date Title
CN109239102B (zh) 一种基于cnn的柔性电路板外观缺陷检测方法
KR100998456B1 (ko) 클러스터링 시스템 및 결함 종류 판정 장치
TWI240216B (en) Pattern recognition method by reducing classification error
Sang et al. Robust face-name graph matching for movie character identification
WO2019027208A1 (ko) 인공 신경망의 훈련 방법
JP2008529105A5 (ko)
WO2020005049A1 (ko) 인공 신경망의 학습 방법
WO2021095991A1 (ko) 불량 이미지 생성 장치 및 방법
Anoop et al. A review of PCB defect detection using image processing
CN113297723B (zh) 基于均值漂移-灰色关联分析的电主轴温度测点优化方法
WO2020004815A1 (ko) 데이터의 어노말리 감지 방법
WO2023163467A1 (ko) 식료품을 인쇄하는 3d 프린터의 인쇄 품질을 예측하는 방법 및 장치
Luo et al. Automatic colour printing inspection by image processing
CN114360030A (zh) 一种基于卷积神经网络的人脸识别方法
CN117173172B (zh) 一种基于机器视觉的硅胶成型效果检测方法及系统
CN111105396A (zh) 一种基于人工智能的印刷品质量检测方法及系统
CN111191670A (zh) 基于神经网络的分类装置及分类方法
WO2020137526A1 (ja) 画像検査器生成装置、画像検査装置、画像検査器生成プログラム、及び画像検査器生成方法
CN114578015B (zh) 一种软磁铁氧体智能化质量检测方法
CN117079622A (zh) 基于大数据的音乐节奏分析方法
TW202348985A (zh) 鋼帶表面缺陷辨識方法與系統
CN111462062A (zh) 一种马赛克瓷砖缺陷检测方法及装置
Luong et al. Distinguish normal white blood cells from leukemia cells by detection, classification, and counting blood cells using YOLOv5
Tesic et al. Data modeling strategies for imbalanced learning in visual search
WO2023158278A1 (ko) 식료품을 인쇄하는 3d 프린터의 인쇄 품질을 평가하기 위한 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23760341

Country of ref document: EP

Kind code of ref document: A1