KR102539486B1 - method and apparatus for determining 3-dimension model data based on sintering process in 3-dimension printing system - Google Patents

method and apparatus for determining 3-dimension model data based on sintering process in 3-dimension printing system Download PDF

Info

Publication number
KR102539486B1
KR102539486B1 KR1020210030127A KR20210030127A KR102539486B1 KR 102539486 B1 KR102539486 B1 KR 102539486B1 KR 1020210030127 A KR1020210030127 A KR 1020210030127A KR 20210030127 A KR20210030127 A KR 20210030127A KR 102539486 B1 KR102539486 B1 KR 102539486B1
Authority
KR
South Korea
Prior art keywords
tooth
model data
image
neural network
learning
Prior art date
Application number
KR1020210030127A
Other languages
Korean (ko)
Other versions
KR20220001435A (en
Inventor
김종국
Original Assignee
에이온 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에이온 주식회사 filed Critical 에이온 주식회사
Publication of KR20220001435A publication Critical patent/KR20220001435A/en
Application granted granted Critical
Publication of KR102539486B1 publication Critical patent/KR102539486B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/0003Making bridge-work, inlays, implants or the like
    • A61C13/0004Computer-assisted sizing or machining of dental prostheses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4542Evaluating the mouth, e.g. the jaw
    • A61B5/4547Evaluating teeth
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y50/00Data acquisition or data processing for additive manufacturing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y80/00Products made by additive manufacturing

Abstract

3D(3-dimension) 프린팅 시스템은, 복수의 슬라이스들로 구성된 인공 치아를 프린팅하도록 제어하는 3D 프린터, 및 상기 3D 프린터의 프린팅 동작을 위해 필요한 데이터를 위한 인공 신경망을 학습하고, 상기 학습된 인공 신경망을 이용하여 치아에 대한 목표 이미지 또는 상기 치아 대한 초기 3D 모델 데이터로부터 3D 모델 데이터를 결정하는 서버를 포함하며, 상기 3D 프린터는, 상기 서버에 의해 결정된 3D 모델 데이터에 따라 상기 인공 치아를 프린팅하며, 상기 인공 신경망은, 상기 인공 치아에 가해지는 소성(sintering)에 의한 변형을 고려하여 교정할 사항이 선반영된 3D 모델 데이터를 결정할 수 있다.A 3-dimension (3D) printing system learns a 3D printer that controls to print artificial teeth composed of a plurality of slices, and an artificial neural network for data necessary for a printing operation of the 3D printer, and the learned artificial neural network And a server for determining 3D model data from a target image of a tooth or initial 3D model data of the tooth using a 3D printer, wherein the 3D printer prints the artificial tooth according to the 3D model data determined by the server, The artificial neural network may determine 3D model data in which items to be corrected are pre-reflected in consideration of deformation due to sintering applied to the artificial tooth.

Figure 112021027048738-pat00001
Figure 112021027048738-pat00001

Description

3D 프린팅 시스템에서 소성 공정을 고려한 3D 모델 데이터를 결정하기 방법 및 장치{method and apparatus for determining 3-dimension model data based on sintering process in 3-dimension printing system}Method and apparatus for determining 3-dimension model data based on sintering process in 3-dimension printing system in 3D printing system

본 발명은 3D(3-dimension) 프린팅 시스템에서 소성 공정을 고려한 3D 모델 데이터를 결정하기 위한 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for determining 3D model data considering a firing process in a 3-dimension (3D) printing system.

3D(3-dimension) 프린터는 컴퓨터 설계 프로그램으로 만든 3차원 데이터를 바탕으로 성형 소재를 적층하여 성형물을 성형하기 위한 시스템이다. 3D 프린팅 방식으로 열에 녹는 고체 플라스틱 소재를 실타래처럼 뽑아 이것을 조금씩 녹여가며 쌓는 FDM(Fused Deposition Modeling) 방식, 광경화수지에 레이저 광을 주사하여 주사된 부분이 경화되는 원리를 이용한 SLA(Stereo Lithography Apparatus) 방식, SLA 방식에서 광경화수지 대신에 기능성 고분자 또는 금속분말을 사용하며 레이저 광선을 주사하여 고결시켜 성형하는 원리를 이용한 SLS(Selective Laser Sintering) 방식, 광경화수지가 저장된 저장조의 하부로 광을 조사하여 부분적으로 경화되는 원리를 이용한 DLP(Digital Light Processing) 방식 등이 있다.A 3-dimension (3D) printer is a system for forming a molding by laminating molding materials based on three-dimensional data created by a computer design program. FDM (Fused Deposition Modeling) method, which uses a 3D printing method to pull out a solid plastic material that melts in heat like a skein and melt it little by little and stack it up In the SLA method, functional polymers or metal powders are used instead of photocurable resins, and SLS (Selective Laser Sintering) method uses the principle of scanning laser beams to solidify and mold. There is a DLP (Digital Light Processing) method using the principle of partially curing by using

DLP 방식의 경우, 수조에 광경화수지를 도포한 후, 경화된 수지를 분리하기 위한 플레이트(plate)가 수지에 접촉되면, 원하는 형상으로 수지가 경화되도록 빛을 조사하는 동작이 수행된다. 빛의 조사에 의해 성형물이 생성되면, 플레이트가 상승하고, 성형물이 경화되지 않은 수지와 분리된다. 이때, 수조와 성형물의 분리를 용이하게 하기 위해, 수지 및 수조 사이에 이형 필름(releasing film)이 삽입된다.In the case of the DLP method, after applying a photocurable resin to a water tank, when a plate for separating the cured resin comes into contact with the resin, an operation of irradiating light is performed to cure the resin in a desired shape. When a molded article is created by irradiation of light, the plate is raised, and the molded article is separated from the uncured resin. At this time, in order to facilitate separation of the water tank and the molding, a releasing film is inserted between the resin and the water tank.

A Learning-Based Framework for Error Compensation in 3D Printing. Zhen Shen 외 5명, IEEE TRANSACTIONS ON CYBERNETICS, VOL. 49, NO. 11, NOVEMBER 2019 <10.1109/TCYB.2019.2898553>
Shape Deviation Generator?A Convolution Framework for Learning and Predicting 3-D Printing Shape Accuracy. Qiang Huang 외 3명, IEEE TRANSACTIONS ON AUTOMATION SCIENCE AND ENGINEERING, VOL. 17, NO. 3, JULY 2020 <10.1109/TASE.2019.2959211>
A Learning-Based Framework for Error Compensation in 3D Printing. Zhen Shen et al. 5, IEEE TRANSACTIONS ON CYBERNETICS, VOL. 49, no. 11, NOVEMBER 2019 <10.1109/TCYB.2019.2898553>
Shape Deviation Generator? A Convolution Framework for Learning and Predicting 3-D Printing Shape Accuracy. Qiang Huang et al. 3, IEEE TRANSACTIONS ON AUTOMATION SCIENCE AND ENGINEERING, VOL. 17, no. 3, JULY 2020 <10.1109/TASE.2019.2959211>

본 명세서에서는 3D(3-dimension) 프린팅 시스템에서 소성 공정을 고려한 3D 모델 데이터를 효과적으로 결정하기 위한 방법 및 장치를 제시하고자 한다.In the present specification, a method and apparatus for effectively determining 3D model data considering a firing process in a 3-dimension (3D) printing system are proposed.

상기한 과제를 해결하기 위한 일 실시 예에 따른 3D(3-dimension) 프린팅 시스템은, 복수의 슬라이스들로 구성된 인공 치아를 프린팅하도록 제어하는 3D 프린터, 및 상기 3D 프린터의 프린팅 동작을 위해 필요한 데이터를 위한 인공 신경망을 학습하고, 상기 학습된 인공 신경망을 이용하여 치아에 대한 목표 이미지 또는 상기 치아 대한 초기 3D 모델 데이터로부터 3D 모델 데이터를 결정하는 서버를 포함하며, 상기 3D 프린터는, 상기 서버에 의해 결정된 3D 모델 데이터에 따라 상기 인공 치아를 프린팅하며, 상기 인공 신경망은, 상기 인공 치아에 가해지는 소성(sintering)에 의한 변형을 고려하여 교정할 사항이 선반영된 3D 모델 데이터를 결정할 수 있다.A 3-dimension (3-dimension) printing system according to an embodiment for solving the above problems includes a 3D printer that controls to print an artificial tooth composed of a plurality of slices, and data necessary for a printing operation of the 3D printer. and a server for learning an artificial neural network for learning and determining 3D model data from a target image of a tooth or initial 3D model data of the tooth using the learned artificial neural network, wherein the 3D printer determines The artificial tooth is printed according to 3D model data, and the artificial neural network may determine 3D model data in which items to be corrected are pre-reflected in consideration of deformation due to sintering applied to the artificial tooth.

상기 목표 이미지는, 상기 인공 치아에 의해 대체될 치아가 아닌 다른 위치의 치아에 대한 이미지를 포함할 수 있다.The target image may include an image of a tooth at a position other than the tooth to be replaced by the artificial tooth.

상기 서버는, 상기 교정할 사항을 선반영하여 상기 초기 3D 모델 데이터를 수정함으로써 상기 3D 모델 데이터를 결정할 수 있다.The server may determine the 3D model data by modifying the initial 3D model data by reflecting the items to be corrected in advance.

상기 서버는, 치아 이미지를 포함하는 학습 데이터를 획득하고, 상기 치아 이미지로부터 치아의 위치, 치아의 촬영 각도, 치아의 색상, 이미지 제공자의 연령 중 적어도 하나의 학습 인자를 추출하고, 추출된 학습 인자를 이용하여 상기 인공 신경망을 학습할 수 있다.The server obtains learning data including a tooth image, extracts at least one learning factor selected from the tooth position, the photographing angle of the tooth, the color of the tooth, and the age of the image provider from the tooth image, and extracts the extracted learning factor. The artificial neural network can be learned using

상기 서버는, 치아 이미지를 포함하는 학습 데이터를 획득하고, 상기 치아 이미지에 좌표 축 그래픽을 추가하고, 상기 좌표 축 그래픽이 추가된 치아 이미지를 이용하여 상기 인공 신경망을 학습할 수 있다. The server may acquire training data including a tooth image, add a coordinate axis graphic to the tooth image, and learn the artificial neural network using the tooth image to which the coordinate axis graphic is added.

상기 서버는, 치아 이미지 또는 초기 3D 모델 데이터를 포함하는 학습 데이터를 획득하고, 상기 치아 이미지 또는 상기 초기 3D 모델 데이터에 소성에 의해 변형되는 부분을 지시하는 마킹(marking)을 추가하고, 상기 마킹이 추가된 치아 이미지 또는 상기 초기 3D 모델 데이터를 이용하여 상기 인공 신경망을 학습할 수 있다.The server acquires learning data including a tooth image or initial 3D model data, adds a marking indicating a portion deformed by plasticity to the tooth image or the initial 3D model data, and The artificial neural network may be learned using the added tooth image or the initial 3D model data.

상기 서버는, 외부 통신 망을 통해 접속 가능한 중앙 서버로부터 학습 데이터를 수신하고, 상기 학습 데이터를 이용하여 상기 인공 신경망을 학습할 수 있다.The server may receive learning data from a central server accessible through an external communication network, and learn the artificial neural network using the learning data.

상기 서버는, 외부 통신 망을 통해 접속 가능한 중앙 서버로부터 학습된 인공 신경망의 파라미터 정보를 수신하고, 상기 파라미터 정보를 이용하여 상기 인공 신경망을 전이 학습할 수 있다.The server may receive parameter information of the learned artificial neural network from a central server accessible through an external communication network, and perform transfer learning of the artificial neural network using the parameter information.

또한, 상기한 과제를 해결하기 위한 일 실시 예에 따른 3D(3-dimension) 프린팅 시스템에서 인공 치아를 3D 프린팅하는 방법은, 3D 프린터의 프린팅 동작을 위해 필요한 데이터를 위한 인공 신경망을 학습하는 단계, 상기 학습된 인공 신경망을 이용하여 치아에 대한 목표 이미지 또는 상기 치아 대한 초기 3D 모델 데이터로부터 3D 모델 데이터를 결정하는 단계, 및 상기 3D 모델 데이터에 따라, 복수의 슬라이스들로 구성된 인공 치아를 프린팅하는 단계를 포함하며, 상기 인공 신경망은, 상기 인공 치아에 가해지는 소성(sintering)에 의한 변형을 고려하여 교정할 사항이 선반영된 3D 모델 데이터를 결정할 수 있다.In addition, a method for 3D printing an artificial tooth in a 3D (3-dimension) printing system according to an embodiment for solving the above problems includes learning an artificial neural network for data necessary for a printing operation of a 3D printer, Determining 3D model data from a target image of a tooth or initial 3D model data of the tooth using the learned artificial neural network, and printing an artificial tooth composed of a plurality of slices according to the 3D model data Including, the artificial neural network, considering the deformation due to sintering (sintering) applied to the artificial tooth can determine the 3D model data to be corrected in advance.

또한, 상기한 과제를 해결하기 위한 일 실시 예에 따른 컴퓨터로 읽을 수 있는 기록 매체는 전술한 일 실시 예에 따른 3D 프린팅 시스템을 이용하여 사물을 성형하는 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체일 수 있다.In addition, the computer-readable recording medium according to an embodiment for solving the above problems is a computer on which a computer program for performing a method of molding an object using the 3D printing system according to the above-described embodiment is recorded. It may be a recording medium that can be read by

본 명세서에 기재된 기술적 사항에 따라, 3D 프린팅 시스템은 인공 지능 알고리즘을 이용하여 대상 치아와 유사한 색상을 표현할 수 있는 슬라이스 색상 집합을 결정할 수 있다. According to the technical details described in this specification, the 3D printing system may determine a slice color set capable of expressing a color similar to that of a target tooth by using an artificial intelligence algorithm.

도 1은 일 실시 예에 따른 3D(3-dimension) 프린팅 시스템을 나타내는 도면이다.
도 2a 내지 도 2d는 일 실시 예에 따른 3D 프린팅 시스템에서 3D 프린터(printer)의 구조를 나타내는 도면이다.
도 3a 내지 도 3c는 일 실시 예에 따른 3D 프린팅 시스템에서 직선 이동하는 사각 플레이트 상에 배치된 복수의 수조들을 포함하는 3D 프린터의 구조의 일 예를 나타내는 도면이다.
도 4는 일 실시 예에 따른 3D 프린팅 시스템에서 회전하는 원형 플레이트 상에 배치된 복수의 수조들의 일 예를 나타내는 도면이다.
도 5는 일 실시 예에 따른 3D 프린팅 시스템에서 회전하는 사각 플레이트 상에 배치된 복수의 수조들의 다른 예를 나타내는 도면이다.
도 6은 일 실시 예에 따른 3D 프린팅 시스템에 적용 가능한 인공 신경망의 구조를 나타내는 도면이다.
도 7은 일 실시 예에 따른 3D 프린팅 시스템에서 3D 프린팅된 인공 치아의 소성 공정에 의한 형태 변화의 예를 나타내는 도면이다.
도 8은 일 실시 예에 따른 3D 프린팅 시스템에서 3D 프린팅을 수행하기 위한 절차를 나타내는 도면이다.
도 9는 실시 예에 따른 3D 프린팅 시스템에서 상호 연동 가능한 로컬 3D 프린팅 시스템들의 구조를 나타내는 도면이다.
1 is a diagram illustrating a 3-dimension (3D) printing system according to an embodiment.
2A to 2D are diagrams illustrating a structure of a 3D printer in a 3D printing system according to an embodiment.
3A to 3C are diagrams illustrating an example of a structure of a 3D printer including a plurality of water tanks disposed on a rectangular plate moving linearly in a 3D printing system according to an embodiment.
4 is a diagram illustrating an example of a plurality of water tanks disposed on a rotating circular plate in a 3D printing system according to an embodiment.
5 is a view showing another example of a plurality of water tanks disposed on a rotating rectangular plate in a 3D printing system according to an embodiment.
6 is a diagram showing the structure of an artificial neural network applicable to a 3D printing system according to an embodiment.
7 is a diagram illustrating an example of a shape change by a firing process of a 3D printed artificial tooth in a 3D printing system according to an embodiment.
8 is a diagram illustrating a procedure for performing 3D printing in a 3D printing system according to an embodiment.
9 is a diagram showing the structure of local 3D printing systems interoperable in a 3D printing system according to an embodiment.

이하의 내용은 단지 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시 되지 않았지만 발명의 원리를 구현하고 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다. The following merely illustrates the principle of the invention. Therefore, those skilled in the art can invent various devices that embody the principles of the invention and fall within the concept and scope of the invention, even though not explicitly described or shown herein. In addition, it should be understood that all conditional terms and embodiments listed in this specification are, in principle, expressly intended only for the purpose of making the concept of the invention understood, and are not limited to such specifically listed embodiments and conditions. .

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. The above objects, features and advantages will become more apparent through the following detailed description in conjunction with the accompanying drawings, and accordingly, those skilled in the art to which the invention belongs will be able to easily implement the technical idea of the invention. .

명세서 및 청구범위에서 "제1", "제2", "제3" 및 "제4" 등의 용어는, 만약 있는 경우, 유사한 구성요소 사이의 구분을 위해 사용되며, 반드시 그렇지는 않지만 특정 순차 또는 발생 순서를 기술하기 위해 사용된다. 그와 같이 사용되는 용어는 여기에 기술된 본 발명의 실시 예가, 예컨대, 여기에 도시 또는 설명된 것이 아닌 다른 시퀀스로 동작할 수 있도록 적절한 환경하에서 호환 가능한 것이 이해될 것이다. 마찬가지로, 여기서 방법이 일련의 단계를 포함하는 것으로 기술되는 경우, 여기에 제시된 그러한 단계의 순서는 반드시 그러한 단계가 실행될 수 있는 순서인 것은 아니며, 임의의 기술된 단계는 생략될 수 있고/있거나 여기에 기술되지 않은 임의의 다른 단계가 그 방법에 부가 가능할 것이다. In the specification and claims, terms such as "first", "second", "third" and "fourth", if any, are used to distinguish between similar elements, but not necessarily in a particular sequence. Or used to describe the order of occurrence. It will be understood that the terminology so used is compatible with the embodiments of the invention described herein, under appropriate circumstances, such that, for example, they may operate in sequences other than those shown or described herein. Likewise, where a method is described herein as comprising a series of steps, the order of those steps presented herein is not necessarily the order in which those steps may be performed, and any recited steps may be omitted and/or here Any other step not described may be added to the method.

또한 명세서 및 청구범위의 "왼쪽", "오른쪽", "앞", "뒤", "상부", "바닥", "위에", "아래에" 등의 용어는, 설명을 위해 사용되는 것이며, 반드시 불변의 상대적 위치를 기술하기 위한 것은 아니다. 그와 같이 사용되는 용어는 여기에 기술된 본 발명의 실시 예가, 예컨대, 여기에 도시 또는 설명된 것이 아닌 다른 방향으로 동작할 수 있도록 적절한 환경하에서 호환 가능한 것이 이해될 것이다. 여기서 사용된 용어 "연결된"은 전기적 또는 비 전기적 방식으로 직접 또는 간접적으로 접속되는 것으로 정의된다. 여기서 서로 "인접하는" 것으로 기술된 대상은, 그 문구가 사용되는 문맥에 대해 적절하게, 서로 물리적으로 접촉하거나, 서로 근접하거나, 서로 동일한 일반적 범위 또는 영역에 있는 것일 수 있다. 여기서 "일실시 예에서"라는 문구의 존재는 반드시 그런 것은 아니지만 동일한 실시 예를 의미한다.In addition, terms such as "left", "right", "front", "rear", "top", "bottom", "above", "below" in the specification and claims are used for explanation, It is not necessarily intended to describe an invariant relative position. It will be understood that the terminology so used is interchangeable under appropriate circumstances such that the embodiments of the invention described herein may, for example, operate in directions other than those shown or described herein. As used herein, the term "connected" is defined as being directly or indirectly connected in an electrical or non-electrical manner. Objects described herein as "adjacent" to each other may be in physical contact with each other, in close proximity to each other, or in the same general scope or area as is appropriate for the context in which the phrase is used. The presence of the phrase “in one embodiment” herein refers to the same embodiment, although not necessarily.

또한 명세서 및 청구범위에서 '연결된다', '연결하는', '체결된다', '체결하는', '결합된다', '결합하는' 등과 이런 표현의 다양한 변형들의 지칭은 다른 구성요소와 직접적으로 연결되거나 다른 구성요소를 통해 간접적으로 연결되는 것을 포함하는 의미로 사용된다. In addition, in the specification and claims, 'connected', 'connected', 'engaged', 'fastened', 'coupled', 'coupled', etc., refer to various variations of these expressions directly with other components. It is used in the meaning of being connected or indirectly connected through other components.

또한, 본 명세서에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffixes "module" and "unit" for the components used in this specification are given or used together in consideration of ease of writing the specification, and do not have meanings or roles that are distinguished from each other by themselves.

또한 본 명세서에서 사용된 용어들은 실시 예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprise)' 및/또는 '포함하는(comprising)'은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.Also, terms used in this specification are for describing embodiments and are not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, 'comprise' and/or 'comprising' means that a stated component, step, operation, and/or element is the presence of one or more other components, steps, operations, and/or elements. or do not rule out additions.

또한, 발명을 설명함에 있어서 발명과 관련된 공지 기술에 대한 구체적인 설명이 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하에는 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예에 대해 상세하게 설명한다.In addition, in describing the invention, if it is determined that a detailed description of a known technology related to the invention may unnecessarily obscure the subject matter of the invention, the detailed description will be omitted. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 일 실시 예에 따른 3D(3-dimension) 프린팅 시스템을 나타내는 도면이다.1 is a diagram illustrating a 3-dimension (3D) printing system according to an embodiment.

도 1을 참고하면, 3D 프린팅 시스템은 3D 프린터(printer)(110), 학습 서버(120)를 포함한다.Referring to FIG. 1 , the 3D printing system includes a 3D printer 110 and a learning server 120 .

3D 프린터(110)는 설정된 3D 모델 데이터에 기반하여 3D 프린팅을 수행하는 장치이다. 3D 프린터(110)는 광을 조사함으로써 혼합액을 경화시키는 과정을 통해 원하는 형태의 3D 형상을 프린팅한다. 3D 프린터(110)는 미리 저장된 3D 모델 데이터를 이용하거나 또는 외부로부터 입력되는 3D 모델 데이터를 이용할 수 있다. 예를 들어, 3D 프린터(110)는 학습 서버(120)로부터 제공되는 3D 모델 데이터에 기반하여 3D 프린팅을 수행할 수 있다.The 3D printer 110 is a device that performs 3D printing based on set 3D model data. The 3D printer 110 prints a 3D shape of a desired shape through a process of curing the mixed solution by irradiating light. The 3D printer 110 may use pre-stored 3D model data or 3D model data input from the outside. For example, the 3D printer 110 may perform 3D printing based on 3D model data provided from the learning server 120 .

학습 서버(120)는 3D 프린터(110)에서 사용되는 3D 모델 데이터의 적어도 일부를 결정한다. 일 실시 예에 따라, 학습 서버(120)는 AI(Artificial Intelligence) 기반 알고리즘을 이용하여 3D 모델 데이터의 적어도 일부를 생성한다. 이를 위해, 학습 서버(120)는 학습 데이터를 획득하고, 머신 러닝(machine learning) 또는 딥 러닝(deep learning)을 수행할 수 있다. 또한, 학습 서버(120)는 학습된 알고리즘(예: 인공 신경망)을 이용하여 추론(inference)을 수행함으로써 3D 모델 데이터의 적어도 일부를 생성할 수 있다. 그리고, 학습 서버(120)는 생성된 3D 모델 데이터를 3D 프린터(110)로 제공한다. 이를 위해, 학습 서버(120)는 적어도 하나의 프로세서, 통신부, 저장부를 포함할 수 있고, 사용자와의 상호 작용을 위해 입력부, 출력부를 더 포함할 수 있다.The learning server 120 determines at least part of the 3D model data used in the 3D printer 110 . According to an embodiment, the learning server 120 generates at least a portion of 3D model data using an AI (Artificial Intelligence) based algorithm. To this end, the learning server 120 may acquire training data and perform machine learning or deep learning. In addition, the learning server 120 may generate at least part of the 3D model data by performing inference using a learned algorithm (eg, an artificial neural network). Then, the learning server 120 provides the generated 3D model data to the 3D printer 110 . To this end, the learning server 120 may include at least one processor, a communication unit, and a storage unit, and may further include an input unit and an output unit for interaction with a user.

일 실시 예에 따라, 3D 프린터(110) 및 학습 서버(120)는 같은 공간에 설치되어 유선 링크 또는 무선 링크 상에서 직접 연결을 형성할 수 있다. 형성된 연결을 통해, 3D 프린터(110) 및 학습 서버(120)는 필요한 데이터를 송신 및 수신할 수 있다. 또는, 다른 실시 예에 따라, 3D 프린터(110) 및 학습 서버(120)는 외부 망(예: 인터넷 망)을 통해 연결될 수 있다. 이 경우, 학습 서버(120)는 클라우드 서버의 형태로 구현될 수 있다.According to one embodiment, the 3D printer 110 and the learning server 120 may be installed in the same space and form a direct connection over a wired link or a wireless link. Through the established connection, the 3D printer 110 and the learning server 120 may transmit and receive necessary data. Alternatively, according to another embodiment, the 3D printer 110 and the learning server 120 may be connected through an external network (eg, Internet network). In this case, the learning server 120 may be implemented in the form of a cloud server.

도 2a 내지 도 2d는 일 실시 예에 따른 3D 프린팅 시스템에서 3D 프린터(printer)의 구조를 나타내는 도면이다. 2A to 2D are diagrams illustrating a structure of a 3D printer in a 3D printing system according to an embodiment.

도 2a 내지 도 2d를 참고하면, 일 실시 예에 따른 3D 프린터는 광조사부(230)에서 방출된 광을 조사받아 경화된 성형물을 지지하는 프린팅 베드(210), 프린팅 베드의 하부 및 광조사부(230)의 상부로 특정되는 프린팅 공간에 위치하며 파우더와 바인더가 혼합된 혼합액을 수용하는 적어도 하나의 수조를 포함하는 수조부(220), 수조의 하부에 위치하며 제어된 광을 조사하여 혼합액을 경화함으로써 성형물의 면-분할된 층을 생성하는 광조사부(230) 및 앞서 설명한 적어도 하나의 구성을 전자적으로 제어하는 제어부(미도시)를 포함하여 구성될 수 있다.Referring to FIGS. 2A to 2D , the 3D printer according to an embodiment includes a printing bed 210 supporting a molded object cured by irradiation with light emitted from the light irradiation unit 230, a lower portion of the printing bed and the light irradiation unit 230. ) is located in the printing space specified above and includes at least one tank for accommodating a mixture of powder and binder, and is located at the bottom of the tank and irradiates controlled light to harden the mixture. It may include a light irradiation unit 230 that generates a surface-divided layer of the molding and a control unit (not shown) that electronically controls at least one of the components described above.

광조사부(230)는 경화성 광을 방출하는 광원(231)과 이를 반사하는 반사판(232)으로 구성될 수 있다. 또는 광조사부(230)는 별도의 반사판 없이 수조의 하면에 밀착하여 구비된 LED(light emission diode) 패널로 구성될 수도 있다. 수조의 하면(221)은 광투과성 필름으로 구성될 수 있다. 이에 따라, 광조사부(230)에서 조사되는 경화성 광이 수조에 수용된 혼합액에 도달할 수 있다. 이에 따라, 광조사부(230)에서 조사된 광은 수조의 하면을 투과하여 수조에 수용된 혼합액을 경화할 수 있다. 혼합액의 광투과성이 낮기 때문에, 광조사부(230)에서 조사된 광에 따라 혼합액이 경화되어 생성된 성형물은 성형물의 면-분할된 층을 이루게 된다.The light irradiation unit 230 may include a light source 231 that emits curable light and a reflector 232 that reflects the curable light. Alternatively, the light irradiation unit 230 may be formed of a light emission diode (LED) panel provided in close contact with the lower surface of the water tank without a separate reflector. The lower surface 221 of the water tank may be made of a light-transmitting film. Accordingly, the curable light irradiated from the light irradiation unit 230 may reach the liquid mixture contained in the water tank. Accordingly, the light irradiated from the light irradiation unit 230 may pass through the lower surface of the water tank to cure the liquid mixture contained in the water tank. Since the light transmittance of the liquid mixture is low, the molded product produced by curing the liquid mixture according to the light irradiated from the light irradiation unit 230 forms a surface-divided layer of the molded product.

일 실시 예에서, 경화된 성형물은 프린팅 베드(210)의 하면에 생성될 수 있다. 프린팅 베드(210)의 하면에 성형물의 면-분할된 층이 성형되기 위하여, 프린팅 베드(210)는 상하로 이동할 수 있다. 예를 들어 도 2b와 유사하게 프린팅 베드(210)가 수조의 하면에 소정의 거리를 두고 이격하여 위치하는 경우, 프린팅 베드(210)와 수조의 하면 사이에 소정의 거리에 따른 두께만큼 혼합액이 위치하게 된다. 광조사부(230)에서 방출된 경화성 광이 수조 하면으로 조사되는 경우, 혼합액이 경화되게 되고, 이에 따라 프린팅 베드(210)의 하면에 성형물의 면-분할된 층이 생성되게 된다.In one embodiment, the cured molding may be created on the lower surface of the printing bed 210 . In order to mold the surface-divided layer of the molding on the lower surface of the printing bed 210, the printing bed 210 may move up and down. For example, similar to FIG. 2B, when the printing bed 210 is spaced apart from the lower surface of the water tank at a predetermined distance, the mixed solution is positioned by the thickness according to the predetermined distance between the printing bed 210 and the lower surface of the water tank will do When the curable light emitted from the light irradiation unit 230 is irradiated to the lower surface of the water tank, the mixture is cured, and accordingly, a surface-divided layer of the molding is generated on the lower surface of the printing bed 210 .

마찬가지 방식으로, 프린팅 베드(210)의 하면에 생성된 성형물의 면-분할된 층이 수조의 하면과 소정의 거리를 두고 위치하게 한 후, 수조의 하면에 경화성 광을 조사할 수 있다. 이에 따라 프린팅 베드(210)의 하면에 성형물의 면-분할된 층이 연속적으로 생성될 수 있다. 이를 반복함으로써, 성형물이 프린팅 베드(210)의 하면에 생성될 수 있다.In the same way, after the surface-divided layer of the molding produced on the lower surface of the printing bed 210 is positioned at a predetermined distance from the lower surface of the water tank, the lower surface of the water tank may be irradiated with curing light. Accordingly, on the lower surface of the printing bed 210, a surface-divided layer of the molding may be continuously generated. By repeating this, a molding may be created on the lower surface of the printing bed 210 .

한편, 이와 같이 프린팅 베드(210)를 수조 내에서 상하 이동시키는 경우, 혼합액의 점성으로 인하여, 프린팅 베드(210)의 하면과 수조 하면 사이에 혼합액이 불균일하게 존재할 수 있다. 혼합액이 균일하게 존재하도록 일 실시 예에 따른 수조는 도 2c과 같이 교반부(222)를 더 포함할 수 있다. 일 실시 예에 따른 교반부는 판(plate)형상의 판체로 이루어진 블레이드(222a)를 포함할 수 있다. 블레이드는 수조내 혼합액의 표면을 고르게 하기 위하여 수조내 혼합액의 표면에서 직선 왕복 운동을 할 수 있다.Meanwhile, when the printing bed 210 is moved up and down in the tank, the mixed solution may be non-uniformly present between the lower surface of the printing bed 210 and the lower surface of the water tank due to the viscosity of the mixed solution. The water tank according to an embodiment may further include an agitator 222 as shown in FIG. 2C so that the mixed solution is uniformly present. The stirring unit according to an embodiment may include a blade 222a made of a plate body. The blade may make a linear reciprocating motion on the surface of the liquid mixture in the water tank to make the surface of the liquid mixture in the water tank even.

교반부(222)는 직선 왕복 운동을 하기 위하여, 액츄에이터(224)에 연결될 수 있다. 일 실시 예에서, 액츄에이터(224)는 회전 운동에너지를 제공하는 모터일 수 있다. 모터의 회전력은 동력 전달부(223)를 통해 교반부(222)로 제공될 수 있다. 예를 들어, 동력 전달부(223)는 볼 스크류를 포함할 수 있고, 교반부(222)는 스크류 관을 포함할 수 있다.The agitator 222 may be connected to the actuator 224 to perform linear reciprocating motion. In one embodiment, the actuator 224 may be a motor that provides rotational kinetic energy. Rotational force of the motor may be provided to the stirring unit 222 through the power transmission unit 223 . For example, the power transmission unit 223 may include a ball screw, and the stirring unit 222 may include a screw tube.

한편, 전술한 바와 같이 수조 내에서 혼합액이 교반됨에 따라 하나의 수조에는 한가지 혼합액이 수용되게 된다. 이에 따라 성형물의 각 층을 다른 성분으로 형성하기 위하여는 혼합액을 변경할 필요가 존재한다. 예를 들어, 성형물의 각 층을 서로 다른 색으로 성형하고자 하는 경우, 각 층을 성형하기 전에 수조 내 혼합액을 매번 교체하여야 하게 된다.On the other hand, as the mixed solution is stirred in the tank as described above, one mixed solution is accommodated in one tank. Accordingly, it is necessary to change the mixed solution in order to form each layer of the molded product with different components. For example, if you want to mold each layer of the molded product in a different color, the mixed solution in the water bath must be replaced each time before molding each layer.

일 실시 예에 따른 3D 프린터의 수조부(220)는 복수의 수조를 포함하여 구성될 수 있다. 앞서, 단일 수조가 프린팅 베드(210)와 광조사부(230) 사이의 공간인 프린팅 공간에 위치하여 3D 프린터가 구성된 예가 도 2a 및 2d를 참고하여 설명되었다. 그러나, 후술하는 바와 같이, 복수의 수조들를 포함하는 수조부(220)가 3D 프린터에 채택될 수도 있다.The water tank unit 220 of the 3D printer according to an embodiment may include a plurality of water tanks. Previously, an example in which a 3D printer is configured in which a single water tank is located in a printing space, which is a space between the printing bed 210 and the light irradiation unit 230, has been described with reference to FIGS. 2A and 2D. However, as will be described later, the water tank unit 220 including a plurality of water tanks may be adopted in a 3D printer.

도 3a 내지 도 3c는 일 실시 예에 따른 3D 프린팅 시스템에서 직선 이동하는 사각 플레이트 상에 배치된 복수의 수조들을 포함하는 3D 프린터의 구조의 일 예를 나타내는 도면이다.3A to 3C are diagrams illustrating an example of a structure of a 3D printer including a plurality of water tanks disposed on a rectangular plate moving linearly in a 3D printing system according to an embodiment.

도 3a 내지 도 3c을 참고하면, 일 실시 예에 따른 수조부(220)는 복수의 수조를 포함할 수 있으며, 예를 들어 제1 수조(321), 제2 수조(322) 및 제3 수조(323)를 포함할 수 있다. 본 예에서는 3개의 수조가 포함되는 예를 설명하나, 수조의 개수는 제한되지 않는다. 또한 수조에 수용된 혼합액의 성분은 서로 다를 수 있다.3A to 3C , the water tank unit 220 according to an embodiment may include a plurality of water tanks, for example, a first water tank 321, a second water tank 322, and a third water tank ( 323) may be included. In this example, an example including three tanks is described, but the number of tanks is not limited. In addition, the components of the mixed solution contained in the water tank may be different from each other.

각 수조는 플레이트(320) 상에 수용될 수 있다. 수조의 하면에 경화성 광이 조사되도록, 수조가 위치되는 플레이트(320)의 영역은 광투과성 소재로 구성되어 있거나, 천공되어 실질적으로 뚫려 있을 수 있다.Each bath may be accommodated on a plate 320 . An area of the plate 320 where the water tank is located may be made of a light-transmitting material or may be substantially perforated so that the curable light is irradiated to the lower surface of the water tank.

도 3a 내지 도 3c의 예와 같이, 플레이트는 사각 형태일 수 있으며, 플레이트(320)의 일 부분이 3D 프린터의 프린팅 공간(310)에 위치될 수 있다. 도 3a 및 도 3b는 제2 수조(322)가 프린팅 공간에 위치하는 예를 개념적으로 나타낸다. 프린팅 공간은 전술한 바와 같이 프린팅 베드(210)와 광조사부(230) 사이의 공간일 수 있다.As in the examples of FIGS. 3A to 3C , the plate may have a rectangular shape, and a portion of the plate 320 may be positioned in the printing space 310 of the 3D printer. 3A and 3B conceptually illustrate an example in which the second water tank 322 is located in a printing space. As described above, the printing space may be a space between the printing bed 210 and the light irradiation unit 230 .

일 실시 예에서, 플레이트(330)는 좌우로 이동할 수 있다. 플레이트가 좌우로 이동하기 위하여, 수조부(220)는 기어, 벨트, 휠 등으로 구성되는 수조 이동 수단을 더 포함할 수 있다. 수조 이동 수단은 제어부의 제어에 따라 플레이트(330)를 이동시킴으로써 수조의 위치를 변경시킬 수 있다.In one embodiment, the plate 330 can move left and right. In order to move the plate left and right, the water tank unit 220 may further include a water tank moving unit composed of a gear, belt, wheel, or the like. The water tank moving means may change the position of the water tank by moving the plate 330 under the control of the controller.

플레이트(320)가 이동됨으로써 프린팅 공간에 위치하는 수조가 변경될 수 있다. 이에 따라, 일 실시 예에 따른 3D 프린터는 성형물의 각 층을 성형할 때 마다 각 층을 성형하기 위하여 사용되는 수조를 변경할 수 있다. 예를 들어, 도 3a 및 3b에 도시된 플레이트가 우측으로 이동하는 경우, 제2 수조(322)는 프린팅 공간(310)에서 벗어나고, 도 3c과 같이, 제1 수조(321)가 프린팅 공간(310)에 위치할 수 있다. 이에 따라, 프린팅 베드(210)는 제1 수조(321) 내부로 상하 이동할 수 있고, 광조사부(230)는 제1 수조(321)의 하면으로 경화성 광을 조사할 수 있다.As the plate 320 is moved, the water tank located in the printing space may be changed. Accordingly, the 3D printer according to an embodiment may change the water bath used to mold each layer whenever forming each layer of the molded product. For example, when the plate shown in FIGS. 3A and 3B moves to the right, the second water tank 322 moves out of the printing space 310, and the first water tank 321 moves to the printing space 310 as shown in FIG. 3C. ) can be located. Accordingly, the printing bed 210 may move up and down inside the first water tank 321 , and the light irradiation unit 230 may irradiate curable light to the lower surface of the first water tank 321 .

한편, 앞서 설명한 교반부(222)는 수조가 상기 프린팅 공간에 위치하는 경우에 한하여 액츄에이터(224)로부터 동력을 공급받을 수 있다. 일 실시 예에서, 수조마다 교반부(222)와 동력 전달부(223)가 구비되지만, 액츄에이터(224)는 프린팅 공간(310) 인근에 한 개만 구비될 수 있다. 예를 들어, 프린팅 공간(310)에 수조가 위치하는 경우 동력 전달부(223)와 액츄에이터(224)는 기계적으로 결합되고, 프린팅 공간(310)에 수조가 위치하지 않는 경우 동력 전달부(223)와 액츄에이터(224)는 기계적으로 분리될 수 있다. 예를 들어, 동력 전달부(223)와 액츄에이터(224)는 기어 쌍와 클러치와 같은 분리 가능한 연결부를 통해 연결될 수 있다.Meanwhile, the stirring unit 222 described above may receive power from the actuator 224 only when the water tank is located in the printing space. In one embodiment, the stirring unit 222 and the power transmission unit 223 are provided for each tank, but only one actuator 224 may be provided near the printing space 310 . For example, when the water tank is located in the printing space 310, the power transmission unit 223 and the actuator 224 are mechanically coupled, and when the water tank is not located in the printing space 310, the power transmission unit 223 and the actuator 224 may be mechanically separated. For example, the power transmission unit 223 and the actuator 224 may be connected through a detachable connection unit such as a gear pair and a clutch.

이하 플레이트의 다른 실시 예에 대하여 설명한다. 도 4은 곡면의 형상을 가지는 플레이트(420)와 그에 구비된 복수의 수조를 도시하는 도면이다. 일 실시 예에 따른 수조부(220)는 원형 플레이트(420)와 그에 구비된 4개의 수조를 포함하여 구성될 수도 있다. 앞서 설명한 바와 같이 수조의 개수는 제한이 없으며, 수조에 수용된 혼합액의 성분은 서로 다를 수 있다.Another embodiment of the plate will be described below. 4 is a view showing a plate 420 having a curved shape and a plurality of water tanks provided thereon. The water tank unit 220 according to an embodiment may include a circular plate 420 and four water tanks provided thereon. As described above, the number of tanks is not limited, and the components of the mixed solution contained in the tank may be different.

원형 플레이트(420)는 원형 플레이트(420)를 회전시키기 위한 액츄에이터(430)를 포함할 수 있다. 이에 따라 원형 플레이트(420)는 회전함으로써 프린팅 공간(410)에 위치하는 수조(421)를 변경할 수 있다. 이에 따라, 일 실시 예에 따른 3D 프린터는 성형물의 각 층을 성형할 때 마다 각 층을 성형하기 위하여 사용되는 수조를 원형 플레이트(420)를 회전시킴으로써 변경할 수 있다.The circular plate 420 may include an actuator 430 for rotating the circular plate 420 . Accordingly, the water tank 421 located in the printing space 410 may be changed by rotating the circular plate 420 . Accordingly, the 3D printer according to an embodiment may change the water bath used to mold each layer by rotating the circular plate 420 whenever each layer of the molded object is molded.

한편, 플레이트는 도 5와 같이 사각의 형상을 가지는 사각 플레이트(520)일 수 있다. 도 5는 사각 형상을 가지는 플레이트(520)와 그에 구비된 복수의 수조를 도시하는 도면이다. 앞서 설명한 바와 같이 수조의 개수는 제한이 없으며, 수조에 수용된 혼합액의 성분은 서로 다를 수 있다. 사각 플레이트(520) 또한 액츄에이터(530)에 의하여 회전함으로써, 프린팅 공간(510)에 위치하는 수조(521)를 변경할 수 있다.Meanwhile, the plate may be a square plate 520 having a square shape as shown in FIG. 5 . 5 is a view showing a plate 520 having a square shape and a plurality of water tanks provided thereon. As described above, the number of tanks is not limited, and the components of the mixed solution contained in the tank may be different. As the square plate 520 is also rotated by the actuator 530, the water tank 521 located in the printing space 510 may be changed.

도 3a 내지 도 5를 참고하여 설명한 바와 같이, 수조부(220)는 복수의 수조들을 포함할 수 있다. 복수의 수조들을 이용하여 성형 동작을 수행하기 위해, 수조부(220)가 회전 또는 이동함으로써 해당 수조가 프린팅 베드(210)와 정렬된다. 하지만, 다른 실시 예에 따라, 수조부(220)는 고정되어 있고, 프린팅 베드(210)가 이동함으로써 해당 수조와 정렬될 수 있다. 이를 위해, 프린팅 베드(210)를 이동시키기 위한 액츄에이터가 더 포함된다. 이 경우, 일 실시 예에 따라, 광조사부(230)는 프린팅 베드(210)와 함께 이동할 수 있다. 또는, 다른 실시 예에 따라, 광조사부(230)는 회전 가능한 반사판을 포함하고, 반사판의 자세(예: 각도, 높이 등)를 조절함으로써 성형 동작이 수행되는 수조에 광을 조사할 수 있다. 또는, 또 다른 실시 예에 따라, 복수의 수조들을 위한 복수의 광조사부들이 배치될 수도 있다.As described with reference to FIGS. 3A to 5 , the water tank unit 220 may include a plurality of water tanks. In order to perform a molding operation using a plurality of tubs, the tub unit 220 is rotated or moved so that the tubs are aligned with the printing bed 210 . However, according to another embodiment, the water tank unit 220 is fixed, and the printing bed 210 may be moved to align with the corresponding water tank. To this end, an actuator for moving the printing bed 210 is further included. In this case, according to an embodiment, the light irradiation unit 230 may move together with the printing bed 210 . Alternatively, according to another embodiment, the light irradiator 230 may include a rotatable reflector, and may irradiate light to the water tank where the molding operation is performed by adjusting the posture (eg, angle, height, etc.) of the reflector. Alternatively, according to another embodiment, a plurality of light irradiation units for a plurality of water tanks may be disposed.

도 2 내지 도 5를 참고하여 설명된 3D 프린터는, DLP(Digital Light Processing) 방식을 위한 구조를 가진다. DLP 방식은 광경화수지가 저장된 저장조의 하부로 광을 조사하여 부분적으로 경화되는 원리를 이용한 방식이다. 그러나, 다양한 실시 예들에 따라, DLP 방식 외에도, 열에 녹는 고체 플라스틱 소재를 실타래처럼 뽑아 이것을 조금씩 녹여가며 쌓는 FDM(Fused Deposition Modeling) 방식, 광경화수지에 레이저 광을 주사하여 주사된 부분이 경화되는 원리를 이용한 SLA(Stereo Lithography Apparatus) 방식, SLA 방식에서 광경화수지 대신에 기능성 고분자 또는 금속분말을 사용하며 레이저 광선을 주사하여 고결시켜 성형하는 원리를 이용한 SLS(Selective Laser Sintering) 방식 등 다른 방식에 따르는 3D 프린터가 본 발명의 다양한 실시 예들을 위해 사용될 수 있다.The 3D printer described with reference to FIGS. 2 to 5 has a structure for Digital Light Processing (DLP). The DLP method is a method using the principle of partially curing by irradiating light to the bottom of a storage tank in which a photocurable resin is stored. However, according to various embodiments, in addition to the DLP method, a Fused Deposition Modeling (FDM) method in which a solid plastic material that melts in heat is pulled out like a skein and melted little by little and stacked, a principle in which laser light is injected into a photocurable resin and the scanned part is cured According to other methods, such as SLA (Stereo Lithography Apparatus) method using SLA method and SLS (Selective Laser Sintering) method using the principle of using functional polymer or metal powder instead of photocurable resin and forming by scanning laser beam to solidify A 3D printer may be used for various embodiments of the present invention.

전술한 3D 프린터(110)는 학습 서버(120)와 상호 작용한다. 구체적으로, 학습 서버(120)는 학습 데이터에 기반하여 AI 알고리즘을 학습하고, 학습된 AI 알고리즘을 이용하여 생성된 3D 프린팅을 위한 데이터를 3D 프린터로 제공한다. 여기서, AI는 인간의 지능으로 가능한 사고, 학습 및 분석 등을 컴퓨터 등의 기계가 수행하는 것을 의미한다. 최근 이러한 AI를 3D 프린팅 산업에 접목하는 기술이 증가하고 있는 실정이다. AI를 구현하기 위해, 인공 신경망(Artificial Neural Network, ANN)이 널리 사용된다. 본 발명에 적용 가능한 인공 신경망의 일 예는 이하 도 6과 같다.The aforementioned 3D printer 110 interacts with the learning server 120 . Specifically, the learning server 120 learns an AI algorithm based on the learning data, and provides data for 3D printing generated using the learned AI algorithm to a 3D printer. Here, AI means that machines such as computers perform thinking, learning, and analysis possible with human intelligence. Recently, the technology that applies such AI to the 3D printing industry is increasing. To implement AI, Artificial Neural Networks (ANNs) are widely used. An example of an artificial neural network applicable to the present invention is shown in FIG. 6 below.

도 6은 일 실시 예에 따른 3D 프린팅 시스템에 적용 가능한 인공 신경망의 구조를 나타내는 도면이다. 도 6을 참고하면, 인공 신경망은 입력 계층(input layer)(610), 적어도 하나의 은닉 계층(hidden layer)(620), 출력 계층(output layer)(630)으로 이루어진다. 계층들(610, 620, 630) 각각은 복수의 노드(node)들로 구성되어 있으며, 노드들 각각은 이전 계층에 속한 적어도 하나의 노드의 출력과 연결되어 있다. 각 노드는 이전 계층의 노드들의 각 출력 값과 그에 상응하는 연결 가중치(weight)를 내적(inner product)한 값에 바이어스(bias)를 더한 후, 비선형(non-linear)인 활성화 함수(activation function)와 곱한 출력 값을 다음 계층의 적어도 하나의 뉴런에게 전달한다. 6 is a diagram showing the structure of an artificial neural network applicable to a 3D printing system according to an embodiment. Referring to FIG. 6 , an artificial neural network includes an input layer 610, at least one hidden layer 620, and an output layer 630. Each of the layers 610, 620, and 630 is composed of a plurality of nodes, and each node is connected to an output of at least one node belonging to the previous layer. Each node adds a bias to the inner product of each output value of the nodes in the previous layer and the corresponding connection weight, and then generates a non-linear activation function The output value multiplied by is delivered to at least one neuron in the next layer.

본 발명의 다양한 실시 예에서 사용되는 인공 신경망 모델은 완전 합성곱 신경망(fully convolutional neural network), 합성곱 신경망(convolutional neural network, CNN), 순환 신경망(recurrent neural network, RNN), 제한 볼츠만 머신(restricted Boltzmann machine, RBM) 및 심층 신뢰 신경망(deep belief neural network, DBN) 중 적어도 하나를 포함할 수 있으나, 이에 한정되지 않는다. 또는, 딥러닝 이외의 머신 러닝 방법도 포함할 수 있다. 또는 딥러닝과 머신 러닝을 결합한 하이브리드 형태의 모델도 포함할 수 있다. 예컨대, 딥러닝 기반의 모델을 적용하여 영상의 특징을 추출하고, 상기 추출된 특징에 기초하여 영상을 분류하거나 인식할 때는 머신 러닝 기반의 모델을 적용할 수도 있다. 머신 러닝 기반의 모델은 서포트 벡터 머신(support vector machine, SVM), 에이다부스트(AdaBoost) 등을 포함할 수 있으나, 이에 한정되지 않는다. Artificial neural network models used in various embodiments of the present invention include a fully convolutional neural network, a convolutional neural network (CNN), a recurrent neural network (RNN), and a restricted Boltzmann machine. It may include at least one of a Boltzmann machine (RBM) and a deep belief neural network (DBN), but is not limited thereto. Alternatively, machine learning methods other than deep learning may also be included. Alternatively, a hybrid model combining deep learning and machine learning may also be included. For example, a deep learning-based model may be applied to extract features of an image, and a machine learning-based model may be applied when the image is classified or recognized based on the extracted features. The machine learning-based model may include a support vector machine (SVM), AdaBoost, and the like, but is not limited thereto.

전술한 구조의 3D 프린터를 이용하여 3D 프린팅을 수행하는 경우, 광의 조사에 따라 혼합액이 경화되며, 이러한 조사 및 경화의 과정을 통해 하나의 슬라이스(slice)가 생성된다. 형성된 슬라이스를 다시 혼합액에 접촉시키고 경화시킴으로써, 새로운 슬라이스가 적층적으로 생성된다. 이러한 광 조사 및 경화의 과정을 반복적으로 수행하면, 복수의 슬라이스들이 적층됨에 따라, 인공 치아가 형성된다.When 3D printing is performed using the 3D printer having the above-described structure, the mixed solution is cured according to light irradiation, and one slice is created through the process of irradiation and curing. By bringing the formed slices into contact with the liquid mixture again and curing, new slices are produced layer by layer. When the process of light irradiation and curing is repeatedly performed, an artificial tooth is formed as a plurality of slices are stacked.

3D 프린팅된 인공 치아는 이후 소성(sintering) 공정을 거친다. 소성은 분말과 같은 비표면적이 넓은 입자들을 더욱 치밀한 덩어리를 만들기 위해 충분한 온도와 압력을 가하는 공정을 의미한다. 소성 공정을 통해, 재료의 밀도나 기공도, 기공의 크기와 크기 분포가 조절될 수 있으며, 최종적으로 원하는 재료의 물성이 구현될 수 있다. 소성 공정을 통해 물성이 개선될 수 있으나, 도 7과 같이, 형상의 변화가 발생하는 것이 일반적이다. The 3D printed artificial tooth then goes through a sintering process. Firing refers to a process of applying sufficient temperature and pressure to make particles having a large specific surface area, such as powder, into a more dense mass. Through the firing process, the density, porosity, pore size and size distribution of the material can be adjusted, and finally, desired material properties can be realized. Physical properties may be improved through the firing process, but as shown in FIG. 7 , it is common that a change in shape occurs.

도 7은 일 실시 예에 따른 3D 프린팅 시스템에서 3D 프린팅된 인공 치아의 소성 공정에 의한 형태 변화의 예를 나타내는 도면이다. 도 7을 참고하면, 3D 프린팅된 인공 치아(702)에 대해 소성 공정이 수행된다. 소성된 인공 치아(704)는 다양한 변형을 포함할 수 있다. 예를 들어, 소성 전 인공 치아(702)에 비하여, 소성된 인공 치아(704)는 x축, y축 또는 z축 중 적어도 하나의 축에서 더 짧은 길이를 가질 수 있다. 또한, 전체가 아니라 일부에 대하여 부분적인 형상 변화, 즉, 축소, 비틀어짐 등이 발생할 수 있다.7 is a diagram illustrating an example of a shape change by a firing process of a 3D printed artificial tooth in a 3D printing system according to an embodiment. Referring to FIG. 7 , a firing process is performed on the 3D printed artificial tooth 702 . The fired artificial teeth 704 may include various modifications. For example, compared to the artificial tooth 702 before firing, the fired artificial tooth 704 may have a shorter length in at least one of the x-axis, y-axis, or z-axis. In addition, partial shape change, that is, shrinkage, distortion, etc., may occur for a part rather than the whole.

도 7의 예와 같은 소성 공정에 의한 형태 변화를 사후적으로 교정하는 것은 쉽지 아니하다. 따라서, 본 발명의 일 실시 예에 따라, 소성 공정에 의한 변화를 미리 반영함으로써, 왜곡을 고려하여 교정할 사항이 선반영된 형상으로 인공 치아가 3D 프린팅될 수 있다. 이를 위해, 왜곡을 고려하여 교정할 사항이 선반영하도록 설계된 3D 모델 데이터가 사용되며, 이러한 3D 모델 데이터를 생성하고 3D 프린팅을 수행하기 위한 절차는 이하 도 8과 같다.It is not easy to correct the shape change by the firing process as shown in the example of FIG. 7 ex post facto. Therefore, according to an embodiment of the present invention, the artificial tooth may be 3D printed in a shape in which the correction items are pre-applied in consideration of the distortion by reflecting the change due to the firing process in advance. To this end, 3D model data designed to reflect the correction in consideration of distortion is used, and a procedure for generating the 3D model data and performing 3D printing is shown in FIG. 8 below.

도 8은 일 실시 예에 따른 3D 프린팅 시스템에서 3D 프린팅을 수행하기 위한 절차를 나타내는 도면이다. 즉, 도 8은 소성 전 인공 치아 이미지 및 소성 후 인공 치아 이미지의 연관 관계를 나타내는 신경망 모델을 이용해서 현재 소성 전 인공 치아 이미지로부터 소성에 의한 왜곡을 고려하여 교정할 사항이 선반영된 3D 프린팅 데이터를 생성하고, 이에 기반하여 3D 프린팅을 수행하는 절차의 일 예이다. 도 8은 3D 프린터(110) 및 학습 서버(120)의 동작 및 신호 교환을 예시한다.8 is a diagram illustrating a procedure for performing 3D printing in a 3D printing system according to an embodiment. That is, FIG. 8 shows 3D printing data in which items to be corrected are pre-reflected in consideration of distortion due to firing from a current pre-firing artificial tooth image using a neural network model showing a correlation between an artificial tooth image before firing and an artificial tooth image after firing. This is an example of a procedure for generating and performing 3D printing based thereon. 8 illustrates the operation and signal exchange of the 3D printer 110 and the learning server 120.

도 8을 참고하면, S801 단계에서, 학습 서버(120)는 학습 데이터를 획득한다. 학습 데이터는 이하 S803 단계에서 3D 매핑 모델을 생성하기 위한 입력 데이터 세트이다. 예를 들어, 입력 데이터 세트는 소성 전 인공 치아 이미지 및 소성 후 인공 치아 이미지를 포함할 수 있다. 여기서, 이미지는 2D 또는 3D 이미지의 형식을 가질 수 있다. 예를 들어, 2D 이미지로서, 인공 치아 3D 출력물의 소성 전 이미지, 인공치아 3D 출력물의 소성 후 이미지가 사용될 수 있다. 또는, 3D 이미지로서, 인공 치아 3D 출력물의 소성 전 이미지, 인공치아 3D 출력물의 소성 후 이미지가 사용될 수 있다. 여기서, 2D 또는 3D 이미지로서, 인공 치아 3D 출력물의 소성 전 이미지 대신 인공 치아 3D 출력물을 생성하기 위한 모델링 데이터의 2D 이미지 또는 3D 이미지가 사용될 수도 있다. 여기서, 소성 전 이미지는 소성에 따라 발생하는 왜곡이 선반영된 3D 모델링 데이터 또는 3D 출력물에 대한 2D 또는 3D 이미지일 수 있다.Referring to FIG. 8 , in step S801, the learning server 120 acquires learning data. The training data is an input data set for generating a 3D mapping model in step S803. For example, the input data set may include an artificial tooth image before firing and an artificial tooth image after firing. Here, the image may have a 2D or 3D image format. For example, as the 2D image, a pre-firing image of the 3D output product of the artificial tooth and a post-firing image of the 3D output product of the artificial tooth may be used. Alternatively, as the 3D image, a pre-firing image of the 3D output product of the artificial tooth and a post-firing image of the 3D output product of the artificial tooth may be used. Here, as the 2D or 3D image, a 2D image or a 3D image of modeling data for generating a 3D output product of the artificial tooth may be used instead of an image of the 3D output product of the artificial tooth before firing. Here, the image before firing may be a 2D or 3D image of 3D modeling data or 3D output in which distortions generated by firing are pre-reflected.

추가적으로, 입력 데이터 세트는 소성 조건에 대한 정보를 더 포함할 수 있다. 소성 조건에 대한 정보는 온도, 시간, 소성 대상 인공 치아의 재료 성분비, 소성 대상 인공 치아의 제작 방법 중 적어도 하나를 포함할 수 있다. 나아가, 입력 데이터 세트는 부가 정보(예: 인공 치아를 구성하는 재료, 프린팅을 위해 사용된 방식, 3D 프린터 종류, 3D 프린터 모델명 등)를 더 포함할 수 있다.Additionally, the input data set may further contain information about firing conditions. The information on the firing conditions may include at least one of temperature, time, material component ratio of the artificial tooth to be fired, and a manufacturing method of the artificial tooth to be fired. Furthermore, the input data set may further include additional information (eg, material constituting the artificial tooth, method used for printing, type of 3D printer, model name of the 3D printer, etc.).

S803 단계에서, 학습 서버(120)는 3D 매핑 모델을 생성한다. 학습 서버(120)는 입력 데이터 세트를 이용하여 인공 치아 3D 매핑 모델을 생성한다. 여기서, 3D 매핑 모델은 AI 알고리즘에 기반한 인공 신경망 네트워크 모델로서, 목표가 되는 치아 이미지 등을 입력으로서 이용하여 3D 프린팅을 위한 3D 모델 데이터를 추론하는 알고리즘이다. 다시 말해, 학습 서버(120)는 학습 데이터를 이용하여 학습(예: 머신 러닝, 딥 러닝)을 수행한다. 이때, 소성 전 인공 치아 이미지 및 소성 후 인공 치아 이미지는 동일 방향, 동일 길이로 전처리될 수 있다. 예를 들어, 대상 치아 이미지와 슬라이스 색상 집합은 동일 좌표계에서 표현되며, 각 좌표계에서의 대응되는 지점들은 서로 대응되는 부분을 표현할 수 있다. 일 실시 예에 따라, 학습되는 인공 신경망 모델은 CNN(convolutional neural network) 모델을 포함할 수 있다.In step S803, the learning server 120 generates a 3D mapping model. The learning server 120 creates an artificial tooth 3D mapping model using the input data set. Here, the 3D mapping model is an artificial neural network model based on an AI algorithm, and is an algorithm that infers 3D model data for 3D printing by using a target tooth image or the like as an input. In other words, the learning server 120 performs learning (eg, machine learning, deep learning) using the learning data. In this case, the pre-sintering artificial tooth image and the post-sintering artificial tooth image may be pre-processed in the same direction and the same length. For example, the target tooth image and the slice color set are expressed in the same coordinate system, and corresponding points in each coordinate system may represent parts corresponding to each other. According to an embodiment, the artificial neural network model to be trained may include a convolutional neural network (CNN) model.

S805 단계에서, 학습 서버(120)는 목표 이미지 및 소성 조건 정보를 수신한다. 예를 들어, 목표 이미지는 인공 치아로 대체될 치아에 관련된 이미지를 포함할 수 있다. 구체적으로, 목표 이미지는 3D 프린팅 하고자 하는 인공 치아로 대체될 치아(예: 왼쪽 둘째 작은 어금니를 인공 치아로 제작하고자 하는 경우 왼쪽 둘째 작은 어금니) 또는 동일인의 다른 치아(예: 왼쪽 둘째 작은 어금니를 인공 치아로 제작하고자 하는 경우 왼쪽 둘째 작은 어금니가 아닌 다른 치아)에 대한 이미지를 포함한다. 여기서 다른 치아는 대상 치아와 대칭되는 치아(예: 왼쪽 둘째 작은 어금니를 인공 치아로 제작하고자 하는 경우 오른쪽 둘째 작은 어금니) 또는 인접한 치아(예: 왼쪽 둘째 작은 어금니를 인공 치아로 제작하고자 하는 경우 왼쪽 첫째 작은 어금니 또는 왼쪽 첫째 큰 어금니) 중 적어도 하나를 포함할 수 있다. 도 8에 도시되지 아니하였으나, 치아 이미지에 더하여, 3D 모델 데이터를 생성하기 위한 추론 동작에 필요한 부가 정보가 더 수신될 수 있다.In step S805, the learning server 120 receives target image and firing condition information. For example, the target image may include an image related to a tooth to be replaced with an artificial tooth. Specifically, the target image is the tooth to be replaced with the artificial tooth to be 3D printed (e.g., the second left molar when the artificial tooth is to be fabricated) or another tooth of the same person (e.g., the artificial tooth of the left second molar). If you want to make it as a tooth, include an image of a tooth other than the second small molar on the left. Here, the other tooth is a tooth that is symmetrical to the target tooth (e.g., the right second molar when the left second molar is to be fabricated as an artificial tooth) or an adjacent tooth (e.g., the left second molar when the left second molar is to be fabricated as an artificial tooth) or the left first tooth at least one of a premolar or a left first molar). Although not shown in FIG. 8 , additional information required for an inference operation for generating 3D model data may be further received in addition to the tooth image.

S807 단계에서, 학습 서버(120)는 3D 모델 데이터를 생성한다. 학습 서버(120)는 3D 매핑 모델을 이용하여 치아 이미지로부터 3D 모델 데이터를 추론한다. 예를 들어, 학습 서버(120)는 3D 매핑 모델을 이용하여 치아 이미지로부터 소성 전 인공 치아 이미지를 결정할 수 있다. 전술한 바와 같이, 소성 전 인공 치아 이미지는 소성이 수행되기 전의 인공 치아 3D 출력물의 2D 이미지 또는 3D 이미지이거나, 인공 치아 3D 출력물을 생성하기 위한 모델링 데이터의 2D 이미지 또는 3D 이미지일 수 있다. 소성 전 인공 치아 이미지가 소성이 수행되기 전의 인공 치아 3D 출력물의 2D 이미지 또는 3D 이미지인 경우, 그에 대응되는 3D 모델링 데이터가 결과값으로서 추론될 수 있다.In step S807, the learning server 120 generates 3D model data. The learning server 120 infers 3D model data from a tooth image using a 3D mapping model. For example, the learning server 120 may determine an artificial tooth image before firing from a tooth image using a 3D mapping model. As described above, the artificial tooth image before firing may be a 2D image or a 3D image of the artificial tooth 3D output before firing, or a 2D image or 3D image of modeling data for generating an artificial tooth 3D output. When the image of the artificial tooth before firing is a 2D image or a 3D image of the 3D output of the artificial tooth before firing, 3D modeling data corresponding thereto may be inferred as a result value.

구체적으로, 학습 서버(120)는 치아 이미지를 인공 신경망의 구조에 따른 입력 데이터로 변환하고, 입력 데이터를 인공 신경망에 입력함으로써 3D 모델 데이터를 획득할 수 있다. 다시 말해, 학습 서버(120)는 대상 치아 이미지를 인공 치아 3D 매핑 모델에 입력함으로써, 대응되는 3D 모델 데이터를 결과물로서 획득할 수 있다. 여기서, 3D 모델 데이터는 3D 프린팅을 위한 설계도로서, 소성 전의 모델링 이미지를 포함할 수 있다. 예를 들어, 모델링 이미지는 소성에 의한 형태 변경 이전의 인공 치아 이미지로서, 2D 또는 3D 형식을 가질 수 있다. 3D 매핑 모델을 이용함으로써, 소성에 의한 다양한 변형, 구체적인 예로, 특정 축(예: 도 7의 z 축)의 길이 축소, 일부의 뒤틀림, 변색 등을 고려한 3D 모델 데이터가 얻어질 수 있다.Specifically, the learning server 120 may obtain 3D model data by converting a tooth image into input data according to the structure of an artificial neural network and inputting the input data into the artificial neural network. In other words, the learning server 120 may obtain corresponding 3D model data as a result by inputting the target tooth image to the artificial tooth 3D mapping model. Here, the 3D model data is a blueprint for 3D printing and may include a modeling image before firing. For example, the modeling image is an artificial tooth image before shape change by plasticity, and may have a 2D or 3D format. By using the 3D mapping model, 3D model data can be obtained considering various deformations caused by plasticity, for example, length reduction of a specific axis (eg, the z axis of FIG. 7), partial distortion, discoloration, and the like.

S809 단계에서, 학습 서버(120)는 3D 프린터(110)로 3D 모델 데이터를 송신한다. S811 단계에서, 3D 프린터(110)는 3D 프린팅을 수행한다. 이때, 3D 프린터(110)는 학습 서버(120)로부터 제공된 3D 모델 데이터에 기반하여 3D 프린팅을 수행한다.In step S809, the learning server 120 transmits 3D model data to the 3D printer 110. In step S811, the 3D printer 110 performs 3D printing. At this time, the 3D printer 110 performs 3D printing based on the 3D model data provided from the learning server 120 .

도 8을 참고하여 설명한 절차에서, 학습 서버(120)는 학습 데이터를 이용하여 3D 매핑 모델을 생성한다. 학습을 위하여, 학습 서버(120)는 학습 데이터에 포함된 치아 이미지로부터 학습 인자(factor)들을 추출할 수 있다. 예를 들어, 학습 인자들은 이미지에 표현된 치아의 위치, 치아의 촬영 각도, 치아의 색상, 이미지 제공자의 연령 중 적어도 하나를 포함할 수 있다. 만일, 추출하고자 하는 학습 인자가 부가 정보로서 제공된 경우, 추출 동작은 생략될 수 있다. In the procedure described with reference to FIG. 8 , the learning server 120 generates a 3D mapping model using learning data. For learning, the learning server 120 may extract learning factors from the tooth image included in the learning data. For example, the learning factors may include at least one of a position of a tooth expressed in an image, a photographing angle of a tooth, a color of a tooth, and an age of an image provider. If the learning factor to be extracted is provided as additional information, the extraction operation may be omitted.

도 8을 참고하여 설명한 절차에서, 학습 서버(120)는 획득된 학습 데이터를 이용하여 3D 매핑 모델을 생성한다. 이때, 추가적으로, 학습 데이터에 포함된 이미지들(예: 소성 전 이미지, 소성 후 이미지)는 효과적은 학습을 위해 전처리될 수 있다. 일 실시 예에 따라, 소성 전 이미지, 소성 후 이미지를 동일 좌표계에서 정렬 및 대조하기 용이하도록, 각 이미지에 좌표 축 그래픽이 추가될 수 있다. 이 경우, 3D 모델 데이터의 생성 시에도, 목표 이미지에 대하여 유사한 전처리가 수행될 수 있다. 즉, S807 단계의 수행에 앞서, 목표 이미지에 좌표 축 그래픽이 추가될 수 있다. 전처리 동작은 학습 서버(120)에 의해 수행되거나 또는 별도의 장치에서 수행될 수 있다. 전처리 동작을 위한 별도의 AI 알고리즘이 사용될 수 있다. In the procedure described with reference to FIG. 8 , the learning server 120 generates a 3D mapping model using the acquired learning data. In this case, additionally, images included in the learning data (eg, images before firing and images after firing) may be preprocessed for effective learning. According to an embodiment, a coordinate axis graphic may be added to each image to facilitate aligning and contrasting an image before firing and an image after firing in the same coordinate system. In this case, similar pre-processing may be performed on the target image even when 3D model data is generated. That is, prior to performing step S807, a coordinate axis graphic may be added to the target image. The pre-processing operation may be performed by the learning server 120 or in a separate device. A separate AI algorithm for the pre-processing operation may be used.

또한, 다른 실시 예에 따라, 소성 전 이미지, 소성 후 이미지를 비교하여 변형이 존재하는 부분을 지시하는 마킹(marking)이 추가될 수 있다. 예를 들어, 마킹은 소성 전 이미지에 소성에 의해 변형되는 부분을 미리 정의된 색상으로 칠하는 방식으로 수행될 수 있다. 이때, 시스템은 변형의 정도에 따른 레벨을 정의하고, 레벨에 따라 색상의 값이 다르게 할당될 수 있다. 이때, 색상은 일정 투명도를 가지고 칠해질 수 있다. 전처리 동작은 학습 서버(120)에 의해 수행되거나 또는 별도의 장치에서 수행될 수 있다. 전처리 동작을 위한 별도의 AI 알고리즘이 사용될 수 있다.In addition, according to another embodiment, a marking indicating a portion where deformation exists may be added by comparing an image before firing and an image after firing. For example, marking may be performed by painting a portion deformed by firing in a pre-firing image in a predefined color. At this time, the system may define a level according to the degree of deformation, and different color values may be allocated according to the level. At this time, the color may be painted with a certain transparency. The pre-processing operation may be performed by the learning server 120 or in a separate device. A separate AI algorithm for the pre-processing operation may be used.

도 8을 참고하여 설명한 절차에서, 학습 서버(120)는 소성에 따른 왜곡이 선반영된 소성 전 이미지(예: 3D 출력물의 2D 이미지 또는 3D 이미지, 또는 3D 출력을 위한 3D 모델의 2D 이미지 또는 3D 이미지)와 그에 따른 인공 치아 3D 출력물의 소성 후 이미지(예: 2D 이미지 또는 3D 이미지)로 3D 매핑 모델을 생성하고, 생성된 3D 매핑 모델과 입력받은 치아 이미지를 이용하여 입력된 치아 이미지를 생성하기 위한 3D 모델 데이터가 생성될 수 있음이 설명되었다.In the procedure described with reference to FIG. 8 , the learning server 120 converts a pre-firing image in which distortion due to firing is pre-reflected (eg, a 2D image or 3D image of a 3D output, or a 2D image or 3D image of a 3D model for 3D output). ) and a 3D mapping model with an image (e.g., 2D image or 3D image) after firing the artificial tooth 3D output according thereto, and to generate an input tooth image using the generated 3D mapping model and the input tooth image. It has been described that 3D model data can be created.

한편, 일 실시 예에서는, 학습 서버(120)는 소성에 따른 왜곡이 반영되지 않은 소성 전 이미지(예: 3D 출력물의 2D 이미지 또는 3D 이미지, 또는 3D 출력을 위한 3D 모델의 2D 이미지 또는 3D 이미지)와 그에 따른 인공 치아 3D 출력물의 소성 후 이미지(예: 2D 이미지 또는 3D 이미지)를 신경망 모델의 학습 입력 쌍으로서 입력하여 3D 매핑 모델을 생성할 수 있다. 그리고, 이와 같이 생성된 3D 매핑 모델과 입력되는 치아 이미지를 이용하여, 입력된 치아 이미지를 생성하기 위한 3D 모델 데이터가 생성될 수도 있다. 이와 같은 학습 입력 쌍은 소성에 따른 왜곡을 선반영하고 있지 않기 때문에, 소성 후 부적격으로 결정된 소성 결과물들에 대한 입력 쌍을 포함할 수 있다. 그러나, 이와 같은 입력 쌍도 소성 시 소성물에 발현되는 특징(예: 소성에 의한 왜곡)을 포함하는 점에서, 신경망으로 구성되는 3D 매핑 모델을 학습시키기 위한 유효한 입력 쌍으로서 사용될 수 있다. 따라서, 도 8의 3D 매핑 모델 생성 단계(S803)는 왜곡이 선반영된 학습 입력 쌍만을 이용하여 수행되거나, 왜곡이 반영되지 않은 학습 입력 쌍만을 이용하여 수행되거나, 또는 왜곡이 선반영된 학습 입력 쌍과 왜곡이 반영되지 않은 학습 입력 쌍을 소정의 비율로 섞어서 생성된 학습 입력 쌍을 이용하여 수행될 수 있다. 이 경우, 학습 입력 쌍은 왜곡이 선반영된 학습 입력 쌍과 왜곡이 반영되지 않은 학습 입력 쌍을 구분하는 정보로 라벨링될 수 있다.On the other hand, in one embodiment, the learning server 120 is a pre-firing image in which distortion due to firing is not reflected (eg, a 2D image or 3D image of a 3D output, or a 2D image or 3D image of a 3D model for 3D output) A 3D mapping model may be generated by inputting a post-firing image (eg, a 2D image or a 3D image) of the 3D output of the artificial tooth and the resultant artificial tooth as a learning input pair of the neural network model. In addition, 3D model data for generating an input tooth image may be generated using the 3D mapping model and the input tooth image. Since such a learning input pair does not reflect the distortion due to firing in advance, it may include an input pair for firing results determined to be unqualified after firing. However, since such an input pair also includes a feature expressed in a plastic object during firing (eg, distortion due to firing), it can be used as an effective input pair for training a 3D mapping model composed of a neural network. Therefore, the 3D mapping model generation step (S803) of FIG. 8 is performed using only the learning input pair in which distortion is pre-reflected, or is performed using only the learning input pair in which distortion is not reflected, or the distortion is pre-reflected in the learning input pair and This may be performed using a learning input pair generated by mixing learning input pairs in which distortion is not reflected at a predetermined ratio. In this case, the learning input pair may be labeled with information for distinguishing a learning input pair in which distortion is pre-reflected and a learning input pair in which distortion is not reflected.

도 8을 참고하여 설명한 절차에서, 학습 서버(120)는 수신된 치아 이미지로부터 3D 모델 데이터를 추론한다. 여기서, 3D 모델 데이터는 소성에 의한 변형을 선반영한 인공 치아의 형상을 표현한다. 이는 소성에 의한 변형을 고려하지 않은 3D 모델 데이터를 1차적으로 생성하고, 1차적으로 생성된 초기 3D 모델 데이터를 수정함으로써 결정될 수도 있다. In the procedure described with reference to FIG. 8 , the learning server 120 infers 3D model data from the received tooth image. Here, the 3D model data expresses the shape of an artificial tooth in which deformation by plasticity is reflected in advance. This may be determined by primarily generating 3D model data that does not consider deformation due to plasticity and modifying the primarily generated initial 3D model data.

따라서, 다른 실시 예에 따라, 학습 서버(120)의 추론을 위한 입력 데이터로서, 치아 이미지가 아닌 소성을 고려하지 아니한 3D 모델 데이터, 즉, 초기 3D 모델 데이터가 사용될 수 있다. 즉, 대상 치아 이미지가 초기 3D 모델 데이터로 대체될 수 있다. 이 경우, 학습 서버(120)는 초기 3D 모델 데이터에 따라 생성된 소성 전의 3D 출력물이 소성에 따라 변형되는 왜곡을, 초기 3D 모델 데이터에 선반영하여 수정할 수 있다. 즉, 3D 매핑 모델은 초기 3D 모델 데이터를 수정함으로써 소성을 고려한 3D 모델 데이터를 생성하기 위한 신경망 모델일 수 있다. Therefore, according to another embodiment, 3D model data that does not consider plasticity other than the tooth image, ie, initial 3D model data, may be used as input data for reasoning of the learning server 120 . That is, the target tooth image may be replaced with initial 3D model data. In this case, the learning server 120 may modify the distortion in which the 3D output object before firing, which is generated according to the initial 3D model data, is deformed according to firing, by reflecting it in advance on the initial 3D model data. That is, the 3D mapping model may be a neural network model for generating 3D model data considering plasticity by modifying initial 3D model data.

이러한 신경망 모델을 만들기 위해, 3D 매핑 모델의 학습 시, 소성을 고려함 없이 설계된 3D 모델 데이터가 학습 데이터로서 사용될 수 있으며, 부가적으로, 해당 치아를 촬영한 이미지가 더 사용될 수 있다. 이러한 실시 예에 따르는 경우, 소정을 고려하지 않고 이미 생성된 3D 모델 데이터를 수정함으로써, 새롭게 치아 이미지를 획득하지 않고 기존의 3D 모델 데이터가 본 발명의 실시에 활용될 수 있다.In order to create such a neural network model, when learning a 3D mapping model, 3D model data designed without considering plasticity may be used as learning data, and additionally, an image of a corresponding tooth may be further used. According to this embodiment, existing 3D model data can be utilized in the practice of the present invention without newly obtaining a tooth image by modifying already generated 3D model data without considering a predetermined value.

도 8을 참고하여 설명한 절차에서, 학습 서버(120)는 3D 프린터(110)에게 3D 모델 데이터를 제공함으로써, 3D 프린터(110)가 3D 모델 데이터에 기반하여 인공 치아를 프린팅하도록 한다. 이때, 추가적으로, 학습 서버(120)가 3D 프린터(110)에게 3D 모델 데이터를 제공하기에 앞서, 3D 매핑 모델을 이용하여 추론된 3D 모델 데이터에 대한 검증 절차가 수행될 수 있다. 예를 들어, 검증 절차는 결정된 3D 모델 데이터에 기반하여 추정된 프린팅된 인공 치아의 예상 결과에 기반하여 이루어질 수 있다.In the procedure described with reference to FIG. 8 , the learning server 120 provides 3D model data to the 3D printer 110 so that the 3D printer 110 prints artificial teeth based on the 3D model data. At this time, additionally, before the learning server 120 provides the 3D model data to the 3D printer 110, a verification procedure for the 3D model data inferred using the 3D mapping model may be performed. For example, the verification procedure may be performed based on an expected result of the printed artificial tooth estimated based on the determined 3D model data.

일 실시 예에 따라, 학습 서버(120)는 이미지 비교에 기반하여 검증을 수행할 수 있다. 이를 위해, 학습 서버(120)는 3D 모델 데이터에 기반하여 인공 치아의 예상 결과 이미지를 생성한다. 그리고, 학습 서버(120)는 S805 단계에서 수신된 목표 이미지와 예상 결과 이미지를 비교한다. 비교를 통해 확인하고자 하는 사항은 프린팅된 인공 치아가 목표 이미지에 표현된 인공 치아보다 작지 않은지 여부이다. 일반적으로, 소성 공정을 거치면 인공 치아가 축소된다. 따라서, 프린팅된 인공 치아는 목표 이미지에 표현된 결과물보다 작지 아니함이 바람직하다. According to an embodiment, the learning server 120 may perform verification based on image comparison. To this end, the learning server 120 generates an expected result image of the artificial tooth based on the 3D model data. Then, the learning server 120 compares the target image and the expected result image received in step S805. A matter to be confirmed through comparison is whether or not the printed artificial tooth is smaller than the artificial tooth expressed in the target image. In general, artificial teeth are reduced by a firing process. Therefore, it is preferable that the printed artificial tooth is not smaller than the result expressed in the target image.

이러한 비교를 위해, 학습 서버(120)는 예상 결과 이미지 및 목표 이미지 각각으로부터 평가 지표들을 추출한다. 예를 들어, 지표는 특정 지점들 간 거리, 특정 영역의 면적 등을 포함할 수 있다. 3D 이미지가 사용되는 경우, 비교를 위해 미리 정의된 적어도 하나의 지점 및 치아 중심 간 거리가 지표로서 측정될 수 있다. 2D 이미지가 사용되는 경우, 치아 표면 상 미리 정의된 적어도 하나의 영역의 면적, 너비 또는 높이 중 적어도 하나가 지표로서 측정될 수 있다. 예상 결과 이미지에서 측정된 지표가 목표 이미지에서 측정된 지표보다 크면, 학습 서버(120)는 추론된 3D 모델 데이터가 적절하다고 판단하고, 3D 프린터(110)에게 3D 모델 데이터를 송신한다.For this comparison, the learning server 120 extracts evaluation indicators from each of the expected result image and the target image. For example, the indicator may include a distance between specific points, an area of a specific region, and the like. When a 3D image is used, a distance between at least one predefined point for comparison and a tooth center may be measured as an index. When a 2D image is used, at least one of the area, width or height of at least one predefined region on the tooth surface can be measured as an index. If the index measured in the expected result image is greater than the index measured in the target image, the learning server 120 determines that the inferred 3D model data is appropriate, and transmits the 3D model data to the 3D printer 110 .

전술한 검증 절차에 대한 설명에서, 3D 매핑 모델을 이용하여 한 셋트의 3D 모델 데이터가 추론되는 것이 전제되었다. 하지만, 3D 매핑 모델의 구조에 따라, 복수 셋트들의 3D 모델 데이터가 추론될 수 있다. 이 경우, 전술한 검증 동작은 복수의 셋트들 중 하나를 선택하는 동작으로서 활용될 수 있다. 즉, 검증 기준(예: 예상 결과 이미지에서 측정된 지표가 목표 이미지에서 측정된 지표보다 클 것)을 충족하지 못하는 셋트를 제외함으로써, 적절한 하나의 셋트가 선택될 수 있다.In the description of the verification procedure described above, it is assumed that a set of 3D model data is inferred using a 3D mapping model. However, depending on the structure of the 3D mapping model, multiple sets of 3D model data can be inferred. In this case, the above-described verification operation may be utilized as an operation of selecting one of a plurality of sets. That is, by excluding sets that do not satisfy the verification criterion (eg, the index measured in the expected result image is greater than the index measured in the target image), an appropriate set may be selected.

나아가, 3D 매핑 모델을 이용하여 결정된 3D 모델 데이터를 다시 3D 매핑 모델의 입력으로 이용함으로써 도출되는 예상 결과 이미지가 다수 개 도출될 수도 있다. 이러한 경우, 충족 여부는 예상 결과 이미지의 총 개수 중에 충족 조건을 만족하는 이미지의 개수에 기반하여 결정될 수 있으며, 충족 가능성 지표는 퍼센티지 형태로 표현될 수 있다. 이러한 경우 전술한 적절한 하나의 셋트는 충족 퍼센티지가 가장 높은 세트로 결정될 수 있다.Furthermore, a plurality of expected result images may be derived by using the 3D model data determined using the 3D mapping model as an input of the 3D mapping model again. In this case, the satisfaction may be determined based on the number of images satisfying the satisfaction condition among the total number of expected result images, and the satisfaction index may be expressed in a percentage form. In this case, one suitable set described above may be determined as a set having the highest satisfaction percentage.

도 8을 참고하여 설명한 절차에서, 학습 서버(120)는 이미지, 소정 조건 등을 포함하는 학습 데이터를 이용하여 학습을 수행한다. 다른 실시 예에 따라, 학습 서버(120)는 도 8의 절차를 통해 프린팅된 인공 치아의 소성 이후에 발생한 정보를 이용하여 추가적인 학습을 수행할 수 있다. 소성 이후에 발생한 정보를 획득하기 위해, 별도의 장치(이하 '피드백 장치')가 더 사용될 수 있다.In the procedure described with reference to FIG. 8 , the learning server 120 performs learning using learning data including images, predetermined conditions, and the like. According to another embodiment, the learning server 120 may perform additional learning using information generated after firing the artificial teeth printed through the procedure of FIG. 8 . In order to obtain information generated after firing, a separate device (hereinafter referred to as 'feedback device') may be further used.

피드백 장치는 소성된 인공 치아의 이미지를 획득하고, 학습 서버(120)로 송신한다. 예를 들어, 피드백 장치는 통신 망에 접속 가능한 장치로서, 피드백 장치의 사용자의 조작(예: 촬영, 오프라인 입력 등)에 의해 소성된 인공 치아의 이미지(이하 '결과 이미지'라 칭함)를 획득할 수 있다. 결과 이미지를 수신한 후, 학습 서버(120)는 S805 단계에서 수신한 목표 이미지와 결과 이미지를 비교한다. 비교 결과, 목표 이미지와 결과 이미지 간 오차가 임계치 보다 크면, 학습 서버(120)는 해당 인공 치아를 프린팅하기 위해 생성한 3D 모델 데이터 및 결과 이미지를 이용하여 추가 학습을 수행한다. 여기서, 목표 이미지와 결과 이미지 간 오차는 전술한 검증 절차에서 사용하는 지표를 이용하여 평가될 수 있다.The feedback device acquires an image of the fired artificial tooth and transmits it to the learning server 120 . For example, the feedback device is a device that can be connected to a communication network, and can acquire an image (hereinafter referred to as a 'result image') of an artificial tooth fired by a user's manipulation (eg, shooting, offline input, etc.) of the feedback device. can After receiving the resulting image, the learning server 120 compares the received target image with the resulting image in step S805. As a result of the comparison, if the error between the target image and the resulting image is greater than the threshold value, the learning server 120 performs additional learning using the 3D model data and result image generated to print the artificial tooth. Here, the error between the target image and the result image may be evaluated using the index used in the verification procedure described above.

도 9는 일 실시 예에 따른 3D 프린팅 시스템에서 상호 연동 가능한 로컬 3D 프린팅 시스템들의 구조를 나타내는 도면이다. 도 9은 복수의 3D 프린팅 시스템들이 존재하는 경우를 예시한다.9 is a diagram illustrating a structure of local 3D printing systems interoperable in a 3D printing system according to an embodiment. 9 illustrates a case in which a plurality of 3D printing systems exist.

도 9를 참고하면, 복수의 로컬 3D 프린팅 시스템들(910a, 910b, 910c)이 통신 망을 통해 중앙 서버(920)와 연결될 수 있다. 복수의 로컬 3D 프린팅 시스템들(910a, 910b, 910c) 각각은 도 1의 3D 프린팅 시스템에 해당하며, 적어도 하나의 학습 서버 및 적어도 하나의 3D 프린터를 포함한다.Referring to FIG. 9 , a plurality of local 3D printing systems 910a, 910b, and 910c may be connected to a central server 920 through a communication network. Each of the plurality of local 3D printing systems 910a, 910b, and 910c corresponds to the 3D printing system of FIG. 1 and includes at least one learning server and at least one 3D printer.

일 실시 예에 따라, 중앙 서버(920)는 AI 알고리즘의 학습에 사용하기 위한 학습 데이터를 제공할 수 있다. 즉, 새로운 로컬 3D 프린팅 시스템이 설치되면, 중앙 서버(920)는 새로운 로컬 3D 프린팅 시스템에게 학습 데이터를 제공함으로써, 빠르게 사용 가능한 상태에 도달하도록 도움을 줄 수 있다. 중앙 서버(920)에 저장된 학습 데이터는 서비스의 제공자에 의해 제공될 수 있다. 또는, 중앙 서버(920)는 로컬 3D 프린팅 시스템들(910a, 910b, 910c)에서 업로드된 데이터를 학습 데이터로서 저장할 수 있다. According to an embodiment, the central server 920 may provide learning data for use in learning AI algorithms. That is, when a new local 3D printing system is installed, the central server 920 may help the new local 3D printing system reach a usable state quickly by providing learning data to the new local 3D printing system. Learning data stored in the central server 920 may be provided by a service provider. Alternatively, the central server 920 may store data uploaded from the local 3D printing systems 910a, 910b, and 910c as learning data.

일 실시 예에 따라, 중앙 서버(920)는 전이 학습(transfer learning)을 지원할 수 있다. 전이 학습은 이미 학습된 AI 알고리즘의 파라미터를 이용하여 학습을 수행하는 학습 방식이다. 중앙 서버(920)는 로컬 3D 프린팅 시스템들(910a, 910b, 910c)로부터 학습된 인공 신경망의 파라미터들(예: 가중치)을 수신하고, 수신된 파라미터들을 학습을 수행하고자 하는 로컬 3D 프린팅 시스템에게 송신할 수 있다.According to an embodiment, the central server 920 may support transfer learning. Transfer learning is a learning method that performs learning using parameters of AI algorithms that have already been learned. The central server 920 receives parameters (eg, weights) of the artificial neural network learned from the local 3D printing systems 910a, 910b, and 910c, and transmits the received parameters to the local 3D printing system to perform learning. can do.

다른 실시 예에 따라, 3D 프린팅 시스템들(910a, 910b, 910c) 각각에 학습 서버가 포함되는 것을 대신하여, 중앙 서버(920)가 3D 프린팅 시스템들(910a, 910b, 910c) 각각에 포함된 3D 프린터를 위한 학습 서버의 기능을 통합적으로 수행할 수 있다. 이 경우, 복수의 로컬 3D 프린팅 시스템들 간 3D 매핑 모델을 위한 인공 신경망이 공유될 수 있다.According to another embodiment, instead of the learning server being included in each of the 3D printing systems 910a, 910b, and 910c, the central server 920 is included in each of the 3D printing systems 910a, 910b, and 910c. The function of the learning server for the printer can be performed in an integrated manner. In this case, an artificial neural network for a 3D mapping model may be shared among a plurality of local 3D printing systems.

앞서 설명된 일 실시 예에 따른 3D 프린팅 시스템는 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시 예에 따라 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The 3D printing system according to one embodiment described above may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the medium may be specially designed and configured according to embodiments or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.

앞선 실시 예에 대한 설명에서 참조된 도면 각각은 설명의 편의를 위해 도시된 일 실시 예에 불과하며, 각 화면에 표시된 정보들의 항목, 내용과 이미지들은 다양한 형태로 변형되어 표시될 수 있다.Each of the drawings referred to in the description of the previous embodiment is only one embodiment shown for convenience of explanation, and items, contents and images of information displayed on each screen may be modified and displayed in various forms.

본 발명은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to an embodiment shown in the drawings, this is only exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the attached claims.

Claims (10)

3D(3-dimension) 프린팅 시스템에 있어서,
복수의 슬라이스들로 구성된 인공 치아를 프린팅하도록 제어하는 3D 프린터; 및
상기 3D 프린터의 프린팅 동작을 위해 필요한 데이터를 위한 인공 신경망을 학습하고, 상기 학습된 인공 신경망을 이용하여 치아에 대한 목표 이미지 또는 상기 치아에 대한 초기 3D 모델 데이터로부터 3D 모델 데이터를 결정하는 서버를 포함하며,
상기 3D 프린터는, 상기 서버에 의해 결정된 3D 모델 데이터에 따라 상기 인공 치아를 프린팅하며,
상기 인공 신경망은, 상기 인공 치아에 가해지는 소성(sintering)에 의한 변형을 고려하여 교정할 사항이 선반영된 3D 모델 데이터를 결정하고,
상기 복수의 슬라이스들은, 제1 슬라이스 및 제2 슬라이스를 포함하고,
상기 제1 슬라이스는, 제1 혼합액에 대한 접촉, 광의 조사에 따른 상기 제1 혼합액의 경화에 의해 생성되고,
상기 제2 슬라이스는, 제2 혼합액에 대한 접촉, 상기 광의 조사에 따른 상기 제2 혼합액의 경화에 의해 생성되고,
상기 소성은, 상기 프린팅된 치아에 대하여 지정된 온도 및 지정된 압력을 가하는 동작을 포함하는 3D 프린팅 시스템
In a 3-dimension (3D) printing system,
A 3D printer that controls to print an artificial tooth composed of a plurality of slices; and
A server for learning an artificial neural network for data necessary for a printing operation of the 3D printer and determining 3D model data from a target image of a tooth or initial 3D model data of the tooth using the learned artificial neural network and
The 3D printer prints the artificial tooth according to the 3D model data determined by the server,
The artificial neural network determines 3D model data in which items to be corrected are pre-reflected in consideration of deformation due to sintering applied to the artificial tooth,
The plurality of slices include a first slice and a second slice,
The first slice is created by contact with the first mixed solution and curing of the first mixed solution according to light irradiation,
The second slice is created by contact with the second mixed solution and curing of the second mixed solution according to the irradiation of light,
The firing is a 3D printing system including an operation of applying a designated temperature and a designated pressure to the printed tooth.
제1항에 있어서,
상기 목표 이미지는, 상기 인공 치아에 의해 대체될 치아가 아닌 다른 위치의 치아에 대한 이미지를 포함하는 3D 프린팅 시스템.
According to claim 1,
The target image includes an image of a tooth at a position other than the tooth to be replaced by the artificial tooth.
제1항에 있어서,
상기 목표 이미지를 획득하고, 상기 인공 신경망을 이용하여 상기 교정할 사항이 선반영된 3D 모델 데이터를 결정하는 서버를 더 포함하는 3D 프린팅 시스템.
According to claim 1,
The 3D printing system further comprises a server that acquires the target image and determines 3D model data in which the items to be corrected are pre-reflected using the artificial neural network.
제1항에 있어서,
상기 서버는, 상기 교정할 사항을 선반영하여 상기 초기 3D 모델 데이터를 수정함으로써 상기 3D 모델 데이터를 결정하는 3D 프린팅 시스템.
According to claim 1,
The server determines the 3D model data by modifying the initial 3D model data by pre-reflecting the items to be corrected.
제1항에 있어서,
상기 서버는, 치아 이미지를 포함하는 학습 데이터를 획득하고, 상기 치아 이미지에 좌표 축 그래픽을 추가하고, 상기 좌표 축 그래픽이 추가된 치아 이미지를 이용하여 상기 인공 신경망을 학습하는 3D 프린팅 시스템.
According to claim 1,
The server acquires learning data including a tooth image, adds a coordinate axis graphic to the tooth image, and uses the tooth image to which the coordinate axis graphic is added to learn the artificial neural network.
제1항에 있어서,
상기 서버는, 치아 이미지 또는 초기 3D 모델 데이터를 포함하는 학습 데이터를 획득하고, 상기 치아 이미지 또는 상기 초기 3D 모델 데이터에 소성에 의해 변형되는 부분을 지시하는 마킹(marking)을 추가하고, 상기 마킹이 추가된 치아 이미지 또는 상기 초기 3D 모델 데이터를 이용하여 상기 인공 신경망을 학습하는 3D 프린팅 시스템.
According to claim 1,
The server acquires learning data including a tooth image or initial 3D model data, adds a marking indicating a portion deformed by plasticity to the tooth image or the initial 3D model data, and A 3D printing system for learning the artificial neural network using the added tooth image or the initial 3D model data.
제1항에 있어서,
상기 서버는, 외부 통신 망을 통해 접속 가능한 중앙 서버로부터 학습 데이터를 수신하고, 상기 학습 데이터를 이용하여 상기 인공 신경망을 학습하는 3D 프린팅 시스템.
According to claim 1,
The server receives learning data from a central server accessible through an external communication network, and uses the learning data to learn the artificial neural network.
제1항에 있어서,
상기 서버는, 외부 통신 망을 통해 접속 가능한 중앙 서버로부터 학습된 인공 신경망의 파라미터 정보를 수신하고, 상기 파라미터 정보를 이용하여 상기 인공 신경망을 전이 학습하는 3D 프린팅 시스템.
According to claim 1,
The server receives parameter information of the learned artificial neural network from a central server accessible through an external communication network, and transfer-learns the artificial neural network using the parameter information.
3D(3-dimension) 프린팅 시스템에서 인공 치아를 3D 프린팅하는 방법에 있어서,
3D 프린터의 프린팅 동작을 위해 필요한 데이터를 위한 인공 신경망을 학습하는 단계;
상기 학습된 인공 신경망을 이용하여 치아에 대한 목표 이미지 또는 상기 치아에 대한 초기 3D 모델 데이터로부터 3D 모델 데이터를 결정하는 단계; 및
상기 3D 모델 데이터에 따라, 복수의 슬라이스들로 구성된 인공 치아를 프린팅하는 단계를 포함하며,
상기 인공 신경망은, 상기 인공 치아에 가해지는 소성(sintering)에 의한 변형을 고려하여 교정할 사항이 선반영된 3D 모델 데이터를 결정하고,
상기 복수의 슬라이스들은, 제1 슬라이스 및 제2 슬라이스를 포함하고,
상기 제1 슬라이스는, 제1 혼합액에 대한 접촉, 광의 조사에 따른 상기 제1 혼합액의 경화에 의해 생성되고,
상기 제2 슬라이스는, 제2 혼합액에 대한 접촉, 상기 광의 조사에 따른 상기 제2 혼합액의 경화에 의해 생성되고,
상기 소성은, 상기 프린팅된 치아에 대하여 지정된 온도 및 지정된 압력을 가하는 동작을 포함하는 방법.
In the method of 3D printing an artificial tooth in a 3-dimension (3D) printing system,
Learning an artificial neural network for data necessary for a printing operation of a 3D printer;
determining 3D model data from a target image of a tooth or initial 3D model data of the tooth using the learned artificial neural network; and
Printing an artificial tooth composed of a plurality of slices according to the 3D model data,
The artificial neural network determines 3D model data in which items to be corrected are pre-reflected in consideration of deformation due to sintering applied to the artificial tooth,
The plurality of slices include a first slice and a second slice,
The first slice is created by contact with the first mixed solution and curing of the first mixed solution according to light irradiation,
The second slice is created by contact with the second mixed solution and curing of the second mixed solution according to the irradiation of light,
The firing method comprises an operation of applying a specified temperature and a specified pressure to the printed tooth.
제9항의 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium on which a computer program for performing the method of claim 9 is recorded.
KR1020210030127A 2020-06-29 2021-03-08 method and apparatus for determining 3-dimension model data based on sintering process in 3-dimension printing system KR102539486B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200079448 2020-06-29
KR1020200079448 2020-06-29

Publications (2)

Publication Number Publication Date
KR20220001435A KR20220001435A (en) 2022-01-05
KR102539486B1 true KR102539486B1 (en) 2023-06-05

Family

ID=79348979

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020210030127A KR102539486B1 (en) 2020-06-29 2021-03-08 method and apparatus for determining 3-dimension model data based on sintering process in 3-dimension printing system
KR1020210030126A KR102539485B1 (en) 2020-06-29 2021-03-08 method and apparatus for determining slice color set in 3-dimension printing system
KR1020210040646A KR102539488B1 (en) 2020-06-29 2021-03-29 Method for generating artificial tooth by using 3d printing technique and 3d printer

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020210030126A KR102539485B1 (en) 2020-06-29 2021-03-08 method and apparatus for determining slice color set in 3-dimension printing system
KR1020210040646A KR102539488B1 (en) 2020-06-29 2021-03-29 Method for generating artificial tooth by using 3d printing technique and 3d printer

Country Status (1)

Country Link
KR (3) KR102539486B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102423729B1 (en) * 2022-04-25 2022-07-21 쓰리디업앤다운 주식회사 3 Dimensional Printer For Dentures
KR20230174793A (en) * 2022-06-21 2023-12-29 주식회사 엠오피(M.O.P Co., Ltd.) Image processing method for high-precision ceramic 3d printing and high-precision ceramic 3d printing method using the same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101704620B1 (en) 2014-09-30 2017-02-09 주식회사 덴티스 FDM 3D printer for output error correction, and correction method using of it

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016525150A (en) 2014-01-13 2016-08-22 デンカ インク Photocurable resin composition and method of use in three-dimensional printing for producing artificial teeth and denture bases
CN106217882B (en) * 2016-08-19 2019-03-15 上海联泰科技股份有限公司 The method and apparatus of 3D printing ceramic false tooth suitable for Stereolithography
KR20180092786A (en) * 2017-02-10 2018-08-20 공석태 3d printer
DE102017203475A1 (en) * 2017-03-03 2018-09-06 Sirona Dental Systems Gmbh Method of constructing a restoration
KR101968967B1 (en) 2017-12-12 2019-08-21 에이온 주식회사 Molding platform device for 3D printer
KR102020131B1 (en) * 2017-12-29 2019-09-09 박성원 Photo-curable resin compositions and article using the same
KR102065069B1 (en) * 2018-05-09 2020-01-10 이승희 Device and Method for manufacturing tooth restoration using 3D printer
ES2918185T3 (en) 2018-12-20 2022-07-14 Ivoclar Vivadent Ag Multicolored dental grinding block

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101704620B1 (en) 2014-09-30 2017-02-09 주식회사 덴티스 FDM 3D printer for output error correction, and correction method using of it

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
비특허 1*
비특허 2*

Also Published As

Publication number Publication date
KR20220001435A (en) 2022-01-05
KR102539488B1 (en) 2023-06-05
KR20220001434A (en) 2022-01-05
KR20220001437A (en) 2022-01-05
KR102539485B1 (en) 2023-06-05

Similar Documents

Publication Publication Date Title
KR102539486B1 (en) method and apparatus for determining 3-dimension model data based on sintering process in 3-dimension printing system
US10137636B2 (en) Three-dimensional modelling and/or manufacturing apparatus, and related processes
JP2022506523A (en) Intelligent addition manufacturing method
US20020145213A1 (en) Layer manufacturing of a multi-material or multi-color 3-D object using electrostatic imaging and lamination
KR20180099752A (en) Construction using cylindrical layers in lamination manufacturing
CN105751511A (en) Two-photon polymerization 3D (three dimensional) printer and printing method
KR101956077B1 (en) 3d printing system and error detect and control method thereof
JP2017001216A (en) Apparatus for processing information and method for processing information
US11651122B2 (en) Machine learning for additive manufacturing
KR20180048717A (en) System and method for providing force compensation points on a model during 3D printing
US20170028647A1 (en) Three dimensional printing system
Vladić et al. Vat photopolymerization
US20230182399A1 (en) Methods and systems for three-dimensional printing management
KR102264538B1 (en) Outputting method in 3D(three-dimensional) printer for improving accuracy of printout
Song et al. 3D Printed electronics: Opportunities and challenges from case studies
CN107415232A (en) A kind of 3D printing method based on PolyJet technologies
Hiller Digital materials: voxel design, rapid assembly, structural properties, and design methods
WO2021154276A1 (en) Model prediction
JP2021094753A (en) Optical modeling apparatus, and optical molding method using the apparatus
Guan Intelligent Bioprinting for Structure and Mechanical Property Modulation
US20230051704A1 (en) Object deformations
US20220281178A1 (en) Systems and methods for three-dimensional printing and products produced thereby
WO2023016086A1 (en) Narrow passage repair using 3d printing
Perrucci High Performance & Smart Manufacturing.
Elhoone Smart Decision Support for Cyber Additive Design and Manufacturing

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant