KR20230102287A - A method of predicting a support of 3D printing using shadow projection - Google Patents

A method of predicting a support of 3D printing using shadow projection Download PDF

Info

Publication number
KR20230102287A
KR20230102287A KR1020210192285A KR20210192285A KR20230102287A KR 20230102287 A KR20230102287 A KR 20230102287A KR 1020210192285 A KR1020210192285 A KR 1020210192285A KR 20210192285 A KR20210192285 A KR 20210192285A KR 20230102287 A KR20230102287 A KR 20230102287A
Authority
KR
South Korea
Prior art keywords
pixels
printing
pixel
support
support structure
Prior art date
Application number
KR1020210192285A
Other languages
Korean (ko)
Other versions
KR102641460B1 (en
Inventor
지선구
설인환
정진영
Original Assignee
금오공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 금오공과대학교 산학협력단 filed Critical 금오공과대학교 산학협력단
Priority to KR1020210192285A priority Critical patent/KR102641460B1/en
Publication of KR20230102287A publication Critical patent/KR20230102287A/en
Application granted granted Critical
Publication of KR102641460B1 publication Critical patent/KR102641460B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C64/00Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
    • B29C64/30Auxiliary operations or equipment
    • B29C64/386Data acquisition or data processing for additive manufacturing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C64/00Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
    • B29C64/10Processes of additive manufacturing
    • B29C64/106Processes of additive manufacturing using only liquids or viscous materials, e.g. depositing a continuous bead of viscous material
    • B29C64/118Processes of additive manufacturing using only liquids or viscous materials, e.g. depositing a continuous bead of viscous material using filamentary material being melted, e.g. fused deposition modelling [FDM]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C64/00Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
    • B29C64/20Apparatus for additive manufacturing; Details thereof or accessories therefor
    • B29C64/245Platforms or substrates
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C64/00Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
    • B29C64/30Auxiliary operations or equipment
    • B29C64/386Data acquisition or data processing for additive manufacturing
    • B29C64/393Data acquisition or data processing for additive manufacturing for controlling or regulating additive manufacturing processes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y10/00Processes of additive manufacturing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y30/00Apparatus for additive manufacturing; Details thereof or accessories therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y50/00Data acquisition or data processing for additive manufacturing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y50/00Data acquisition or data processing for additive manufacturing
    • B33Y50/02Data acquisition or data processing for additive manufacturing for controlling or regulating additive manufacturing processes

Landscapes

  • Chemical & Material Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Materials Engineering (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Image Generation (AREA)

Abstract

본 발명은 그림자 투영법을 이용한 3D 프린팅의 지지체 예측방법에 관한 것으로, 출력 대상물을 3D 프린팅을 이용하여 프린팅 할 때 상기 출력 대상물을 지지하는 지지구조(서포트)의 양을 예측하는 방법에 있어서, 상기 출력 대상물을 카메라로 획득하는 면의 부피와 보이지 않는 면의 부피를 계산하되, 상기 카메라로 획득되는 출력 대상물의 단층사진(tomography)의 픽셀값을 적분하여 상기 지지구조의 소모량을 예측하고 이를 통해 지지구조의 최소량으로 출력 대상물을 출력한다. 또한, 카메라로 획득되는 상기 출력 대상물 면의 부피와 보이지 않는 면의 부피는, 출력 대상물의 물체 데이터를 메쉬 삼각형 픽셀의 노말 벡터 z성분값의 +/- 부호로부터 알파 픽셀, 베타 픽셀, TC 픽셀, NV 픽셀로 획득한 후 이들의 적분을 통해 지지구조의 소모량을 예측한다.The present invention relates to a method for predicting a support body for 3D printing using a shadow projection method, and in a method for predicting the amount of a support structure (support) supporting an output object when the output object is printed using 3D printing, the output Calculate the volume of the surface of the object acquired by the camera and the volume of the invisible surface, and estimate the consumption of the support structure by integrating the pixel values of the tomography of the output object obtained by the camera. Outputs the output object with the minimum amount of In addition, the volume of the surface of the output object and the volume of the invisible surface obtained by the camera converts the object data of the output object from the +/- sign of the normal vector z component value of the mesh triangle pixel to the alpha pixel, beta pixel, TC pixel, After acquiring the NV pixels, the consumption of the support structure is predicted through their integration.

Description

그림자 투영법을 이용한 3D 프린팅의 지지체 예측방법{A method of predicting a support of 3D printing using shadow projection}A method of predicting a support of 3D printing using shadow projection}

본 발명은 그림자 투영법을 이용한 3D 프린팅의 지지체 예측방법에 관한 것으로, 좀 더 상세하게는 3D 프린팅 필라멘트 소모량을 최소화하기 위하여 지지체를 예측하기 위한 그림자 투영법을 이용한 3D 프린팅의 지지체 예측방법에 관한 것이다.The present invention relates to a method for predicting a support for 3D printing using a shadow projection method, and more particularly, to a method for predicting a support for 3D printing using a shadow projection method for predicting a support in order to minimize 3D printing filament consumption.

3D 프린터는 3차원 형상을 제작하는 장치로써, 1980년대 미국의 한 회사에서 플라스틱 액체를 굳혀 입체 물품을 만들어내는 프린터를 시초로 하여 개발되었다. 초기에는 3D 프린터와 관련된 높은 생산 비용 및 지적재산권 등의 이유로 항공이나 자동차 산업 등에서 시제품을 만드는 용도로 제한적으로 사용되었으나, 최근 몇 년 사이에 3D 프린터를 제작하는 비용이 급격히 떨어지고 지적재산권의 행사 기간이 종료됨에 따라 본격적으로 개발되어 보급되고 있다.A 3D printer is a device for producing three-dimensional shapes, and was developed by an American company in the 1980s, starting with a printer that hardens plastic liquid to create three-dimensional objects. In the early days, due to the high production cost and intellectual property rights associated with 3D printers, it was limitedly used for making prototypes in the aerospace and automobile industries. As it is over, it is being developed and distributed in earnest.

3D 프린터의 종류는 대표적으로 FDM(Fused Deposition Modeling) 방식, SLS(Selective Laser Sintering) 방식, SLA(Stereo Lithography Apparatus) 방식, DLP(Digital Light Processing) 방식 등이 있다. FDM 방식의 3D 프린터는 필라멘트를 고온에서 녹여 노즐 구멍을 통해 필라멘트를 짜내고 적층하여 형상을 만드는 방식으로, 구조와 프로그램이 간단하고 장비의 가격과 유지보수 비용이 낮은 장점이 있으나, 층층이 쌓은 형태가 그대로 드러나 마감 품질이 떨어지고 적층 방향으로 강도가 약하며 제작 속도가 느린 단점이 있다. SLS 방식은 분말 형태의 재료를 특정 부분만 선택적으로 가열하여 굳어지도록 하고 분말 내의 받침대가 이동하여 출력물을 층층이 쌓아가는 방식으로, 분말을 재료로 사용하여 지지 구조가 불필요하며 이로 인해 설계가 자유로운 장점이 있으나, 비교적 시간이 오래 걸리고 장비가 고가라는 단점이 있다. SLA 방식의 3D 프린터는 광경화성 액체 수지를 이용하여 액체 수지 내에서 받침대가 이동하며 경화된 수지의 층을 한층 한층 쌓아가는 방식으로, 효율적인 적층 속도와 정밀도가 높은 장점이 있으나, 서포터 생성시간이 부가적으로 들어가며 재료, 장비 및 유지보수 비용이 비싼 단점이 있다. Types of 3D printers typically include a Fused Deposition Modeling (FDM) method, a Selective Laser Sintering (SLS) method, a Stereo Lithography Apparatus (SLA) method, and a Digital Light Processing (DLP) method. The FDM-type 3D printer melts the filament at a high temperature, squeezes the filament through the nozzle hole, and creates a shape by stacking it. It has the disadvantages of poor finish quality, low strength in the lamination direction, and slow production speed. The SLS method selectively heats a specific part of a powder-type material to harden it, and the pedestal in the powder moves to build up the output layer by layer. As the powder is used as a material, no support structure is required, which has the advantage of free design. However, it has the disadvantage that it takes a relatively long time and the equipment is expensive. The SLA type 3D printer uses photocurable liquid resin to move the pedestal within the liquid resin and builds up layers of the cured resin. It has the advantage of efficient lamination speed and high precision, but adds supporter creation time. The downside is that it is expensive and the cost of materials, equipment and maintenance is high.

DLP 방식은 레진이 담긴 수조에 UV 광원을 비춰 레진을 경화시켜 출력물을 형성하는 방식으로써, 면단위 조형을 하기 때문에 비교적 조형 속도가 빠르고 정밀도가 높은 장점이 있으나 제작 가능한 조형물의 크기가 제한적이고 레진이 고가라는 단점이 있다. 한국특허공개 제2016-0128963호("광 조형 방식 3D 프린터의 적층방법", 2016.11.08)에는 SLA 방식, DLP 방식의 3D 프린터 기술이 잘 개시되어 있다.The DLP method is a method of curing the resin by shining a UV light source on a tank containing the resin to form an output object. Since it is molded on a surface-by-surface basis, it has the advantage of relatively fast molding speed and high precision, but the size of the molding that can be produced is limited and The downside is that it is expensive. Korean Patent Publication No. 2016-0128963 ("lamination method of stereolithography 3D printer", 2016.11.08) discloses 3D printer technology of SLA method and DLP method.

앞서 설명한 여러 방식들 중 DLP 방식의 3D 프린터의 경우 상술한 바와 같은 장단점으로 인하여, 대량생산 공정에는 적합하지 않겠으나, 의료적 보형물 등과 같이 비교적 소형이면서 복잡한 형상의 제작물을 주로 제작하는 경우에는 매우 적합하다. 이에 특히 의료계 등과 같은 실무 현장에서 DLP 방식의 3D 프린터의 사용이 점차 늘어나고 있다.Among the various methods described above, the 3D printer of the DLP method is not suitable for mass production due to the advantages and disadvantages described above, but it is very suitable when mainly producing relatively small and complicated products such as medical implants. do. Accordingly, the use of DLP-type 3D printers is gradually increasing in practical fields such as the medical field.

한편, DLP 방식의 3D 프린터 또한 프린팅 할 모델링의 형상에 따라 서포터를 추가적으로 형성해야 하는데, 이러한 서포터의 위치 및 형상은 온전히 제작자의 경험에 따라 추가 형성하고 있어, 서포터를 적절하게 추가 형성하지 못하는 경우 제작물의 프린팅이 실패하는 등의 문제가 있어왔다.On the other hand, the DLP-type 3D printer also needs to additionally form a supporter according to the shape of the modeling to be printed. There has been a problem such as printing failure of .

상세히, 모델링의 상측 단부가 단일 형상이 아닌 높이가 서로 다른 다수의 단부로 형성된 경우, 높이가 가장 높은 단부는 스테이지에 접착되어 프린팅 되기에 지지 될 수 있지만, 그 이외의 상측 단부들은 프린팅 과정에서 지지되지 못하기 때문에 높이가 가장 높은 단부의 높이에 맞게 추가적인 서포터를 형성해야했고, 이러한 사실을 모르는 초보 사용자들은 제작물의 프린팅 실패로 이어졌다. 또한, 서포터를 적절히 형성한다고 하더라도 서포터 형성에 많은 재료가 소비되는 아쉬움이 있다.In detail, when the upper end of the modeling is formed of a plurality of ends having different heights rather than a single shape, the end with the highest height may be supported by being adhered to the stage and printed, but the other upper ends are supported during the printing process. Therefore, additional supporters had to be formed according to the height of the highest end, and novice users who did not know this fact led to printing failure of the product. In addition, even if the supporter is appropriately formed, a lot of material is consumed for forming the supporter.

반면, 지지구조 최소화에 대해서는 Wang등(Wang et al. 2017)의 연구가 대표적이다. 이들은 대형 물체를 cone, pyramid, ellipse, sphere 등 genus zero의 basic shape으로 분할하는 기법을 이용하여 유명한 dragon 모델 대해 필라멘트 소모량을 66.56%까지 줄이는데 성공하였다. 그러나 이 방법은 조각의 최적 orientation에 대한 고려는 이루어지지 않았다.On the other hand, Wang et al.'s (Wang et al. 2017) study is representative of the support structure minimization. They succeeded in reducing filament consumption by 66.56% for the famous dragon model by using a technique of dividing large objects into genus zero basic shapes such as cone, pyramid, ellipse, and sphere. However, this method does not take into account the optimal orientation of the pieces.

출력 물체의 최적 orientation을 찾기 위해서는 물체의 회전 방향별로 g-code를 필라멘트 소모량을 측정하는 방법이 가장 정확하다. 일부 상용 slicing SW에서는 도 1과 같이 필라멘트 소모량을 예측하는 분석 기능을 제공한다. 그러나 이들 기능은 각 방향별로 g-code 생성이 필요하므로 연산 시간이 소요되고, 이로 인해 x,y,z축 방향 등 제한된 정보만 제공한다. In order to find the optimal orientation of the output object, the most accurate method is to measure the g-code filament consumption for each rotation direction of the object. Some commercial slicing SWs provide an analysis function for predicting filament consumption as shown in FIG. 1 . However, these functions require calculation time because g-code generation is required for each direction, and thus only limited information such as x, y, and z-axis directions is provided.

따라서, g-code 생성 대신 출력 방향별 필라멘트 소모량 계산을 위한 대안들이 제안되었다. 대표적으로 Ezair 등은 특정 출력 방향 (yaw, pitch, roll)에 대해 물체의 top cover volume (V tc )로부터 물체의 실제 부피(V o )를 뺀 영역이 지지구조의 양(V ss )이라고 가정함으로써, 좀 더 간단하게 필라멘트 소모량을 예측한 바 있다. Therefore, alternatives for calculating filament consumption per output direction instead of g-code generation have been proposed. Representatively, Ezair et al. assumed that the area obtained by subtracting the actual volume ( V o ) of the object from the top cover volume ( V tc ) of the object for a specific output direction (yaw, pitch, roll) is the amount of the support structure ( V ss ). , the filament consumption was predicted more simply.

Figure pat00001
Figure pat00001

여기서, V o : 물체(object)의 부피로서 삼각형 메쉬의 좌표로부터 기하학적으로 계산된다.Here, V o : The volume of an object, calculated geometrically from the coordinates of the triangular mesh.

V ss : 초기방향이 (y,p,r)일 때의 지지구조(support structure)의 부피이다. V ss : The volume of the support structure when the initial direction is (y,p,r).

V tc : Top cover volume. 물체의 가장 위쪽 삼각형들(top most triangle elements)이 바닥면과 형성하는 부피 Vtc : Top cover volume. The volume formed by the top most triangle elements of an object with the bottom surface

(y,p,r) : 출력방향을 표시하기 위한 yaw, pitch, roll 축 기준 회전 각도이다.(y,p,r): The rotation angle based on the yaw, pitch, and roll axes to indicate the output direction.

Vtc를 계산하는 것이 최적 출력방향 결정에 있어서 결정적인 과정인데, 사실 이 값은 계산하기가 다소 까다롭다. Ezair는 Vo는 삼각형 메쉬의 좌표로부터 exact하게 algebraically 계산하고, Vtc는 그래픽 카드(GPU)의 depth test를 이용해 계산하였다. GPU를 이용하면 매우 빠른 속도로 그래픽적으로 top cover triangle을 찾을 수 있는 것이 장점이다. Wang 등(Wang et al. 2010), Das 등(Das et al. 2017)은 GPU내에서 복셀화 기법(voxelization)을 이용해 Vtc뿐만 아니라, Vo 등 물체 전체를 복셀화를 통해 매우 빠른 속도로 계산하였다. 그러나 이들 방법은 GPU라는 부가적인 하드웨어가 필요하고, 특히 복셀 기반 방법은 복셀의 크기가 작아질수록 메모리 사용량이 많아지는 단점이 있다.Calculating V tc is a crucial step in determining the optimal output direction, but in fact this value is rather tricky to calculate. Ezair calculated Vo exactly and algebraically from the coordinates of the triangular mesh, and V tc was calculated using the depth test of the graphic card (GPU). The advantage of using the GPU is that it can graphically find the top cover triangle at a very high speed. Wang et al. (Wang et al. 2010) and Das et al. (Das et al. 2017) calculated not only V tc but also the entire object, such as Vo, at very high speed using voxelization within the GPU. did However, these methods require additional hardware such as a GPU, and in particular, the voxel-based method has a disadvantage in that memory usage increases as the size of the voxel decreases.

KR 10-1978996호KR 10-1978996 KR 10-10-1756897호KR 10-10-1756897 KR 10-2109812호KR 10-2109812 KR 10-2019-0004593호KR 10-2019-0004593 KR 10-2017-0138618호KR 10-2017-0138618

상기와 같은 문제점을 해결하기 위한 본 발명은, 특별한 하드웨어의 도움 없이 물체의 부피, 지지구조 발생량과 및 최적 배향을 계산함으로써 결과적으로 3D 프린팅 시 지지체의 부피를 감소시키면서 출력 대상물을 출력하고자 하는데 지지체량 예측방법을 제공하고자 하는데 목적이 있다. The present invention for solving the above problems is to calculate the volume of the object, the amount of support structure generated, and the optimal orientation without the help of special hardware, and as a result, to output the output object while reducing the volume of the support during 3D printing, the amount of support The purpose is to provide a prediction method.

상기와 같은 목적을 달성하기 위한 본 발명은, 출력 대상물을 3D 프린팅을 이용하여 프린팅 할 때 상기 출력 대상물을 지지하는 지지구조(서포트)의 양을 예측하는 방법에 있어서, 상기 출력 대상물을 카메라로 획득하는 면의 부피와 보이지 않는 면의 부피를 계산하되, 상기 카메라로 획득되는 출력 대상물의 단층사진(tomography)의 픽셀값을 적분하여 상기 지지구조의 소모량을 예측하고 이를 통해 지지구조의 최소량으로 출력 대상물을 출력한다.The present invention for achieving the above object is a method for predicting the amount of a support structure (support) for supporting an output object when printing the output object using 3D printing, obtaining the output object with a camera Calculate the volume of the surface and the volume of the invisible surface, and integrate the pixel values of the tomography of the output object obtained by the camera to predict the consumption of the support structure, and through this, output the object with the minimum amount of the support structure outputs

또한, 카메라로 획득되는 상기 출력 대상물 면의 부피와 보이지 않는 면의 부피는, 출력 대상물의 물체 데이터를 메쉬 삼각형 픽셀의 노말 벡터 z성분값의 +/- 부호로부터 알파 픽셀, 베타 픽셀, TC 픽셀, NV 픽셀로 획득한 후 이들의 적분을 통해 지지구조의 소모량을 예측한다.In addition, the volume of the surface of the output object and the volume of the invisible surface obtained by the camera converts the object data of the output object from the +/- sign of the normal vector z component value of the mesh triangle pixel to the alpha pixel, beta pixel, TC pixel, After acquiring the NV pixels, the consumption of the support structure is predicted through their integration.

또한, 사용된 필라멘트가 지지구조를 생성하기 시작하는 오버행의 임계각을

Figure pat00002
라고 할 때, 베타 픽셀 중에서 법선 벡터의 z좌표인 nz값이 아래 수학식 1을 만족하는 것들을 복사하여 NV픽셀로 분류하는 단계와, 상기 NV픽셀로부터도 단층사진을 형성하는 단계를 포함하여 구성된다.In addition, the critical angle of the overhang at which the filament used begins to create the support structure.
Figure pat00002
, among the beta pixels, the steps of copying and classifying beta pixels whose n z value, which is the z coordinate of the normal vector, satisfies Equation 1 below, into NV pixels, and forming a tomogram from the NV pixels are also included. do.

[수학식 1][Equation 1]

Figure pat00003
Figure pat00003

(여기서,

Figure pat00004
는 지지구조 발생이 시작되는 오버행의 임계각으로써, +Z축과 이루는 각도값).(here,
Figure pat00004
is the critical angle of the overhang at which the support structure starts to occur, and is the angle value formed with the +Z axis).

또한, 상기 알파, 베타, TC, NV픽셀의 단층사진의 픽셀 정보를 각각 Vα,i, Vβ,j, Vtc,k, Vnv,l이라고 하고, i,j,k,l 및 I, J, K, L은 각 픽셀의 종류별 개수에 대한 첨자 및 총 갯수라고 할 때, 최종 지지구조 부피 Vss를 상기 단층사진 4장으로부터 아래 수학식 2에 의해 계산하는 단계;를 포함하여 구성된다.In addition, the pixel information of the tomogram of the alpha, beta, TC, and NV pixels is respectively Vα,i, Vβ,j, Vtc,k, Vnv,l, and i,j,k,l and I, J,K , where L is a subscript for the number of each type of pixel and the total number, calculating the final support structure volume Vss from the four tomographic images by Equation 2 below.

[수학식 2][Equation 2]

Figure pat00005
Figure pat00005

(여기서, i,j,k,l 및 I, J, K, L은 각각 알파, 베타, TC, NV 픽셀의 개수).(Where i, j, k, l and I, J, K, L are the number of alpha, beta, TC, and NV pixels, respectively).

또한, 상기 픽셀 정보 적분은, 픽셀의 z방향 높이값으로부터 3D프린팅 바닥면의 z방향 높이값을 뺀 것을 대상으로 한다.In addition, the pixel information integration is based on subtracting the z-direction height value of the 3D printing floor from the z-direction height value of the pixel.

또한, 상기 지지구조 부피 Vss의 계산을 임의의 간격에 대해 회전변환을 반복하여 그 값들을 4차원 박스 형태 그래프에 표시하는 단계를 포함하여 구성된다.In addition, the calculation of the support structure volume V ss is configured to include the step of repeating the rotation transformation for an arbitrary interval and displaying the values in a 4-dimensional box-shaped graph.

또한, 상기 4차원 박스 그래프의 빈 곳을 3차원 내삽(interpolation)을 통해 채워 연속적인 그래프를 형성하는 단계를 포함하여 구성된다.In addition, it is configured to form a continuous graph by filling empty spaces in the 4-dimensional box graph through 3-dimensional interpolation.

또한, 상기 연속적인 4차원 박스 그래프에서 가장 작은 값을 갖는 픽셀의 좌표값을 찾아 최적 배향 값으로 선택하는 단계를 포함하여 구성된다.In addition, it is configured to include a step of finding the coordinate value of the pixel having the smallest value in the continuous 4-dimensional box graph and selecting it as an optimal alignment value.

또한, 소수점 오차를 최소화하기 위해 동일한 (x,y,z)정수 좌표에 위치하는 중복 픽셀들의 경우 하나만 남도록 제거하는 단계를 포함하여 구성된다.In addition, in order to minimize a decimal point error, it is configured to include a step of removing duplicate pixels located at the same (x, y, z) integer coordinates so that only one remains.

또한, 부피 계산 오차를 줄이기 위해 법선 벡터가 XY 평면과 평행한 픽셀들을 제거하는 단계를 포함하여 구성된다.Also, to reduce the volume calculation error, a step of removing pixels whose normal vectors are parallel to the XY plane is included.

상기와 같이 구성되고 작용되는 본 발명은, 지지구조(지지체) 발생 현황을 2D 그림 파일인 단층사진(tomography)을 통해 시각적으로 확인가능하고, 이 tomography의 픽셀값을 적분하면 정량적으로도 지지구조 양을 알 수 있으며, 최종 지지구조 단층사진(Vss tomography)의 색상이 짙은 곳은 지지구조가 많이 발생하는 영역을 의미하므로, 필요한 경우 사용자는 이곳을 절단하여 프린팅함으로 지지구조를 최소화시킬 수 있는 이점이 있다.In the present invention configured and operated as described above, the current state of the support structure (support) can be visually confirmed through tomography, which is a 2D picture file, and integrating the pixel values of this tomography can quantitatively determine the amount of support structure. , and the darker color of the final support structure tomography (Vss tomography) means an area where a lot of support structures occur, so if necessary, the user can cut and print this area to minimize the support structure. there is.

또한, 본 발명은 연산과정이 픽셀화 및 사칙연산만으로 구성되므로 간단하므로 각종 언어로 쉽게 구현 가능하고, 알파 픽셀로부터 TC픽셀을 구하는 과정은 일종의 GPU의 depth test를 CPU로 에뮬레이션한 것으로. 즉, 픽셀화를 이용함으로써 GPU가 필요 없으며, 각종 임베디드 시스템 등 소형 PC에도 적용 가능한 이점이 있다.In addition, since the calculation process of the present invention is simple because it consists of only pixelation and four arithmetic operations, it can be easily implemented in various languages, and the process of obtaining a TC pixel from an alpha pixel is a kind of depth test of a GPU emulated by a CPU. That is, by using pixelation, GPU is not required, and there is an advantage that it can be applied to small PCs such as various embedded systems.

또한, 픽셀화를 통해 물체의 부피(Vo)를 기하학적으로 구하지 않더라도 알파, 베타 픽셀로부터 구할 수 있으며, 특히 NV 픽셀을 이용하면 임계각을 구려한 지지구조의 부피(Vss)를 쉽게 구할 수 있는 장점이 있다.In addition, even if the volume (V o ) of an object is not geometrically obtained through pixelation, it can be obtained from alpha and beta pixels. In particular, by using the NV pixel, the volume (V ss ) of the support structure obtained with the critical angle can be easily obtained. There are advantages.

도 1은 종래기술에 따른 3D 프린팅의 필라멘트 소모량을 예측하는 기능을 도시한 도면,
도 2는 본 발명에 따른 그림자 투영법을 이용한 3D 프린팅의 지지체 예측방법에서 삼각형의 법선벡터를 계산하는 과정을 도시한 도면,
도 3은 본 발명에 따른 그림자 투영법을 이용한 3D 프린팅의 지지체 예측방법에서 측정 대상물의 배향을 나타낸 실시예도,
도 4는 본 발명에 따른 예측방법에서 4D box graph의 예시도,
도 5는 본 발명에 따른 예측방법에서 픽셀에 따른 지지체의 양을 분석하기 위한 과정도,
도 6은 본 발명에 따른 예측방법에서 삼각형의 바운더리 에지가 픽셀로 변화되는 과정을 나타낸 도면,
도 7은 본 발명에 따른 예측방법에서 소수점 오차에 따라 발생된 알파 또는 베타 픽셀의 범위를 나타낸 도면,
도 8은 본 발명에 따른 예측방법에서 콘(cone) 형상의 계산 과정을 설명하기 위한 도면,
도 9는 본 발명에 따른 예측방법에서 대칭성 코드가 Gz인 Stanford bunny에 대한 결과를 도시한 도면,
도 10은 본 발명에 따른 예측방법에서 임계각 조건의 영향을 분석한 도면,
도 11은 본 발명에 따른 예측방법에서 측정대상물별 box graph 구현의 예시도,
도 12는 본 발명에 따른 예측방법에서 측정대상물의 초기 배향을 4D box graph로 나타낸 예시도,
도 13은 본 발명에 따른 예측방법에서 각도 전달에 따른 지지구조량의 픽셀을 나타낸 도면,
도 14는 본 발명에 따른 예측방법의 일실시예를 도시한 도면,
도 15는 본 발명에 따른 픽셀화 기법의 실시예를 도시한 도면.
1 is a diagram showing a function of predicting filament consumption of 3D printing according to the prior art;
Figure 2 is a diagram showing the process of calculating the normal vector of a triangle in the support prediction method of 3D printing using a shadow projection method according to the present invention;
Figure 3 is an embodiment showing the orientation of the measurement object in the support prediction method of 3D printing using the shadow projection method according to the present invention,
4 is an example of a 4D box graph in the prediction method according to the present invention;
5 is a process diagram for analyzing the amount of support according to pixels in the prediction method according to the present invention;
6 is a diagram showing a process in which a boundary edge of a triangle is changed into a pixel in a prediction method according to the present invention;
7 is a diagram showing the range of alpha or beta pixels generated according to decimal point errors in the prediction method according to the present invention;
8 is a view for explaining the calculation process of the cone shape in the prediction method according to the present invention;
9 is a diagram showing the results of a Stanford bunny whose symmetric code is Gz in the prediction method according to the present invention;
10 is a diagram analyzing the influence of the critical angle condition in the prediction method according to the present invention;
11 is an example of box graph implementation for each measurement object in the prediction method according to the present invention;
12 is an exemplary view showing the initial orientation of a measurement object in a 4D box graph in the prediction method according to the present invention;
13 is a diagram showing pixels of support structure amount according to angular transfer in the prediction method according to the present invention;
14 is a diagram showing an embodiment of a prediction method according to the present invention;
15 illustrates an embodiment of a pixelation technique in accordance with the present invention;

이하, 첨부된 도면을 참조하여 본 발명에 따른 그림자 투영법을 이용한 3D 프린팅의 지지체 예측방법을 상세히 설명하면 다음과 같다.Hereinafter, a support prediction method for 3D printing using a shadow projection method according to the present invention will be described in detail with reference to the accompanying drawings.

본 발명에 따른 그림자 투영법을 이용한 3D 프린팅의 지지체 예측방법은, 출력 대상물을 3D 프린팅을 이용하여 프린팅 할 때 상기 출력 대상물을 지지하는 지지구조(서포트)의 양을 예측하는 방법에 있어서, 상기 출력 대상물을 카메라로 획득하는 면의 부피와 보이지 않는 면의 부피를 계산하되, 상기 카메라로 획득되는 출력 대상물의 단층사진(tomography)의 픽셀값을 적분하여 상기 지지구조의 소모량을 예측하고 이를 통해 지지구조의 최소량으로 출력 대상물을 출력한다.A method for predicting a support body for 3D printing using a shadow projection method according to the present invention is a method for predicting the amount of a support structure (support) for supporting an output object when the output object is printed using 3D printing, wherein the output object Calculate the volume of the surface acquired by the camera and the volume of the invisible surface, and estimate the consumption of the support structure by integrating the pixel values of the tomography of the output object obtained by the camera, and through this, Print the object in the minimum amount.

또한, 카메라로 획득되는 상기 출력 대상물 면의 부피와 보이지 않는 면의 부피는, 출력 대상물의 물체 데이터를 메쉬 삼각형 픽셀의 노말 벡터 z성분값의 +/- 부호로부터 알파 픽셀, 베타 픽셀, TC 픽셀, NV 픽셀로 획득한 후 이들의 적분을 통해 지지구조의 소모량을 예측한다.In addition, the volume of the surface of the output object and the volume of the invisible surface obtained by the camera converts the object data of the output object from the +/- sign of the normal vector z component value of the mesh triangle pixel to the alpha pixel, beta pixel, TC pixel, After acquiring the NV pixels, the consumption of the support structure is predicted through their integration.

본 발명에 따른 그림자 투영법을 이용한 3D 프린팅의 지지체 예측방법은, 지지구조(지지체)의 부피(Vss)를 계산하되, 물체부피(Vo)를 직접 기하학적으로 구하는 대신 광원(또는 카메라)로부터 보이는 면의 부피와, 보이지 않는 면의 부피로 나누어 계산하는 것을 주요 기술적 요지로 한다. 컴퓨터 그래픽 분야에서는 이러한 보이지 않는 면을 은면(hidden surface)이라고 지칭하는데, 복잡한 3D 형상을 렌더링 할 때 그래픽 카드(GPU)가 미리 depth-test를 통해 은면을 제거하면 렌더링 속도를 향상된다.The support prediction method of 3D printing using the shadow projection method according to the present invention calculates the volume (V ss ) of the support structure (support), but instead of directly geometrically obtaining the object volume (V o ), it is visible from the light source (or camera) The main technical point is to calculate by dividing the volume of the face and the volume of the invisible face. In the field of computer graphics, this invisible surface is referred to as a hidden surface. When rendering a complex 3D shape, the graphics card (GPU) removes the hidden surface through a depth-test in advance to improve rendering speed.

물체 메쉬 삼각형 픽셀의 노말 벡터 z성분값의 +/- 부호로부터 alpha, beta 등 4종류의 픽셀 그룹을 생성하고, 이들의 적분을 통해 필라멘트 소모량을 예측하는 것이다. 종래기술들은 물체 전체의 필라멘트 소모량 총량만 알 수 있었으나, 본 발명은 물체 부위별로 필라멘트(지지체 재료) 소모량을 정확히 계산할 수 있는 것이 특징이다. Four types of pixel groups, such as alpha and beta, are generated from the +/- sign of the normal vector z component value of the object mesh triangle pixel, and the filament consumption is predicted through their integration. In the prior art, only the total amount of filament consumption of the entire object could be known, but the present invention is characterized in that it is possible to accurately calculate the amount of filament (support material) consumed for each part of the object.

도 2는 본 발명에 따른 그림자 투영법을 이용한 3D 프린팅의 지지체 예측방법에서 삼각형의 법선벡터를 계산하는 과정을 도시한 도면이다.2 is a diagram illustrating a process of calculating a normal vector of a triangle in the method of predicting a support body for 3D printing using a shadow projection method according to the present invention.

지지구조 발생량 계산에 있어서는 V TC 값 계산이 핵심이다. 이 때 GPU와 같은 특별한 장비가 필요 없도록 본 발명에서는 입력된 물체 메쉬의 각 삼각형을 먼저 (e)처럼 각각 픽셀로 변환한 후 이들 픽셀을 법선 벡터 방향에 따라 네 가지 그룹으로 나누어 부피를 계산한다. 픽셀로 변환하는 이유는, Vtc를 정확하게 계산하기 위해서이다. 삼각형의 픽셀화 변환은 3D 다각형의 scan-converting 알고리즘(Kaufman and Shimony 1987), 삼각형 래스터화 알고리즘(Kugler 1996) 또는 3D Bresenham 알고리즘(Andres et al. 1997) 등을 통해 쉽게 구할 수 있다.Calculation of the V TC value is the key to calculating the generation amount of the support structure. At this time, in the present invention, so that no special equipment such as a GPU is required, each triangle of the input object mesh is first converted into pixels as shown in (e), and then these pixels are divided into four groups according to the direction of the normal vector to calculate the volume. The reason for converting to pixels is to accurately calculate V tc . The pixelation conversion of a triangle can be easily obtained through a 3D polygon scan-converting algorithm (Kaufman and Shimony 1987), a triangle rasterization algorithm (Kugler 1996), or a 3D Bresenham algorithm (Andres et al. 1997).

변환된 픽셀들은 부모 삼각형의 법선 벡터를 그대로 전달받아 보관한다. 이후 그룹화의 첫번째로, 법선 벡터가 +z 방향을 향하고 있을 경우, 그 픽셀은 alpha 그룹으로 복사하여 분류한다(a). alpha 그룹은 지지구조를 형성하지 않는 것이 특징이다. 두번째로, 반대의 경우가 beta 그룹인데, 이는 오버행 구조에서 발생하며 지지구조를 형성하는 원인이 된다(b). 세번째로 alpha 그룹 픽셀 중에서 가장 +z 방향으로 상단에 위치하는 것들을 TC 픽셀 그룹이라고 명명한다(c). 이들은 V tc 를 계산하기 위해서 필요한 핵심 정보이다. 마지막으로 베타 그룹 중에서, (g)와 같이 법선 벡터의 각도가 "지지구조 발생의 임계각 이하"인 것들을 "NV(NonoVerhang) 픽셀"이라고 명명한다. 이들은 오버행 구조이기는 하지만, 지지 구조를 발생시키지 않기 때문에 Vss 계산 시 그 값을 빼줘야 한다.Converted pixels receive and store the normal vector of the parent triangle as it is. After that, as the first grouping, if the normal vector is in the +z direction, the pixel is copied into the alpha group and classified (a). The alpha group is characterized by not forming a supporting structure. Second, the opposite case is the beta group, which occurs in the overhang structure and causes the formation of the support structure (b). Thirdly, among the pixels of the alpha group, those located at the top in the +z direction are called the TC pixel group (c). These are key pieces of information needed to calculate V tc . Finally, among the beta groups, as shown in (g), those whose angle of the normal vector is "below the critical angle for supporting structure generation" are named "NV (NonoVerhang) pixels". Although these are overhang structures, they do not generate support structures, so their value must be subtracted from the calculation of V ss .

그 다음 과정은, 각각의 그룹이 바닥면과 형성하는 부피를 계산하는 것이다. 예를 들어 alpha 그룹의 경우, (f)처럼 알파 픽셀들이 3D프린터 바닥면과 이루는 수직 방향 높이 값 차이를 적분하여, 알파 그룹의 총 부피(V α,i )를 계산할 수 있다. 이들의 합인 V α 는 alpha triangle들이 바닥면과 형성하는 전체 부피를 의미하며, 이는 물체의 실제 부피(V o )와 같거나 더 큰 값을 갖게 된다.The next step is to calculate the volume each group forms with the bottom surface. For example, in the case of the alpha group, the total volume ( V α,i ) of the alpha group can be calculated by integrating the height difference between the alpha pixels and the bottom surface of the 3D printer in the vertical direction, as shown in (f). The sum of these, V α , means the total volume formed by the alpha triangles with the bottom surface, which has a value equal to or greater than the actual volume ( V o ) of the object.

Figure pat00006
Figure pat00006

베타, TC 픽셀 그룹의 부피 ( V β , V' tc )도 마찬가지로 계산된다.The volume of the beta, TC pixel group ( , V′tc ) is similarly calculated.

Figure pat00007
Figure pat00007

Figure pat00008
Figure pat00008

[수학식 2,3,4]를 도 2의 (f)와 결합하여 적용하면 물체의 실제 부피(V 0 )는 다음과 같이 알파, 베타 부피로부터 계산가능하다.When [Equation 2,3,4] is applied in combination with (f) of FIG. 2, the actual volume ( V 0 ) of the object can be calculated from the alpha and beta volumes as follows.

Figure pat00009
Figure pat00009

또한, 상기 수학식 1의 V tc 는 수학식 4의 V tc '과 같은 값을 갖는다. 따라서, 수학식 1을 다시 적용하면 아래 수학식 6과 같다.In addition, V tc in Equation 1 has the same value as V tc 'in Equation 4. Therefore, applying Equation 1 again gives Equation 6 below.

Figure pat00010
Figure pat00010

여기서 필라멘트별 물성은 고려되지 않았다. 즉 수학식 6에서는 임계각(θ)은 0°로서 모든 베타 픽셀이 지지구조를 형성하게 된다. 그런데 실제 3D프린팅에서 고분자 필라멘트는 재질의 종류에 따라 45도 부근의 임계각을 가지게 된다. 그러면 도 2의 (d)와 같이 임계각 θ c 에 따라 beta 픽셀 중 일부는 지지구조를 발생시키지 않는다. 이를 NV(Non-oVerhang) 픽셀이라 명명하겠다. 특정 Beta 픽셀의 법선 벡터를 n라고 할 때, NV 픽셀은 다음 조건으로 판별할 수 있다.Here, the physical properties of each filament are not considered. That is, in Equation 6, the critical angle θ is 0°, and all beta pixels form a support structure. However, in actual 3D printing, the polymer filament has a critical angle of around 45 degrees depending on the type of material. Then, as shown in (d) of FIG. 2, some of the beta pixels do not generate a support structure according to the critical angle θ c . This will be referred to as a Non-oVerhang (NV) pixel. When the normal vector of a specific beta pixel is n, the NV pixel can be determined under the following condition.

Figure pat00011
Figure pat00011

여기서 θc는 지지구조 발생이 시작되는 오버행의 임계각으로서, +Z축과 이루는 각도 값이다. 이를 고려하면 수학식 6은 다음과 같이 수정된다.Here, θc is the critical angle of the overhang at which the support structure starts to occur, and is an angle value formed with the +Z axis. Considering this, Equation 6 is modified as follows.

Figure pat00012
Figure pat00012

위에서 설명한 바와 같이 특정 배향에 대해서만 지지구조 정보를 2D 비트맵 그림파일의 형태로 제공한다. 최적 배향을 알기 위해서는 모든 각도에 대해 이러한 계산을 반복해야 한다. 그 결과 얻어진 부피 정보를 본 발명에서는 4D box 형태의 그래프로 나타내었다. As described above, support structure information is provided in the form of a 2D bitmap picture file only for a specific orientation. It is necessary to repeat these calculations for all angles to find the optimal orientation. The volume information obtained as a result is shown as a graph in the form of a 4D box in the present invention.

도 3은 본 발명에 따른 그림자 투영법을 이용한 3D 프린팅의 지지체 예측방법에서 측정 대상물의 배향을 나타낸 실시예도이다.Figure 3 is an embodiment diagram showing the orientation of the measurement object in the support prediction method of 3D printing using a shadow projection method according to the present invention.

본 발명에서는 배향(orientation) 정보의 표기법 "(y,p,r)"에 대해 먼저 정의하고자 한다. 본 발명에서는 수학식 9와 같이 (y,p,r,) 방향으로 향하고 있는 물체(M 1 )의 배향정보를 물체의 원래 위치(M 0 )로부터의 세 개의 회전행렬과, 하나의 평행이동 행렬의 조합, 즉 , R X (y), R Y (p), R Z (r), T Z 로 나타내고자 한다. 예를 들어 R X (y) 는 전역좌표계 X축을 중심으로 y도만큼 반시계방향으로 회전시키는 변환행렬을 의미한다. In the present invention, the notation "(y, p, r)" of orientation information is first defined. In the present invention, as shown in Equation 9, the orientation information of the object ( M 1 ) heading in the (y, p, r,) direction is divided into three rotation matrices from the object's original position ( M 0 ) and one translation matrix. It is intended to be expressed as a combination of , that is, R X (y) , R Y (p) , R Z (r), T Z . For example, R X (y) means a transformation matrix that rotates counterclockwise by y degrees around the X-axis of the global coordinate system.

도 3에서 y,p,r 표기법을 이용해 물체의 배향을 나타난 사례이다. 입력 메쉬 데이터는 항상 (a)과 같이 XY 평면상에 존재하고, +Z 방향을 up vector로 하여 놓인다고 가정한다. 그러면 물체를 x축에 대해 회전한 후, y축, z축에 대해 회전하는 행렬을 "(y,p,r)"이라고 표기한다. 또한 axis인 Z축을 yaw axis, y축을 pitch axis, yaw axis라고 정의한다. 예를 들어 입력된 물체를 회전시키지 않은 경우, 기본 orientation은 (0,0,0)으로 나타내어진다. 또한, "V ss (y,p,r)"은 이후 주어진(y, p, r) 방향에 대한 지지구조의 부피를 의미한다. 아래 수학식 9에서 Tz 행렬은 회전된 물체를 바닥면에 놓이도록 수직 방향 위치를 조정하는 평행이동 행렬이다. 이 행렬은 본 발명의 부피 적분이 같이 프린터 바닥면을 기준으로 하기 때문에 필요하다.In FIG. 3, the orientation of an object is shown using the y, p, r notation. It is assumed that the input mesh data always exists on the XY plane as in (a) and is placed with the +Z direction as an up vector. Then, after rotating the object about the x-axis, the matrix that rotates about the y-axis and z-axis is expressed as "(y,p,r)". In addition, the axis Z axis is defined as the yaw axis, and the y axis is defined as the pitch axis and yaw axis. For example, if the input object is not rotated, the default orientation is represented as (0,0,0). In addition, “ V ss (y, p, r)” means the volume of the support structure in the direction given (y, p, r). In Equation 9 below, the Tz matrix is a translation matrix that adjusts the vertical position of the rotated object so that it is placed on the floor. This matrix is necessary because the volume integral of the present invention is based on the bottom surface of the printer.

Figure pat00013
Figure pat00013

도 4는 최적 배향을 찾기 위한 4D box graph의 사례이다. 박스의 세 변은 각각 Yaw, pitch, roll 등 세 가지 방향으로의 배향 각도를 의미하며, 각각 0°~ 360°의 범위를 갖는다. 모든 각도에 대해 tomograph를 생성하는 것은 시간이 많이 소요되므로 본 발명에서는 특정 간격으로 tomograph를 생성한 뒤, 그 적분값들을 4D box graph에 점 데이터로 표시한 고, 이들을 3D interpolation하여 사용하였다. 박스 내부의 밝은 흰색 부분이 지지구조가 많은 것을 의미한다. 반대로 짙은 파란색이 지지구조가 최소인 영역이며, 이 점의 좌표값이 최적 출력 배향이 된다. 이후 몇몇 그래프에서는 최적 배향점의 위치를 강조하기 위해 빨간점을 수작업으로 표시하였다.4 is an example of a 4D box graph for finding an optimal orientation. The three sides of the box mean orientation angles in three directions, such as yaw, pitch, and roll, respectively, and each has a range of 0° to 360°. Since it takes a lot of time to create tomographs for all angles, in the present invention, tomographs are created at specific intervals, the integral values are displayed as point data on a 4D box graph, and these are used after 3D interpolation. The bright white area inside the box indicates that there are many support structures. On the contrary, dark blue is the area with the minimum support structure, and the coordinate value of this point becomes the optimal output orientation. Later, in some graphs, red dots were manually marked to emphasize the position of the optimal alignment point.

본 발명은 크게 두 가지 과정으로 이루어진다. 첫 번째로, 정해진 배향 각도에 대해지지구조 발생량을 tomograph 형태로 예측하고 Vss값을 계산한다. 두 번째로, 배향각도를 달리하며 얻어진 Vss값들을 각각 4D box 그래프 상에 표시한 후, 그 중에서 최소값을 갖는 지점에서 최적 배향 각도를 찾는다.The present invention is largely composed of two processes. First, for a given orientation angle, the amount of support structure generated is predicted in the form of a tomograph and the V ss value is calculated. Second, after displaying the V ss values obtained by varying the orientation angle on the 4D box graph, the optimal orientation angle is found at the point having the minimum value among them.

본 발명은 한 장의 최종 tomograph그림을 형성하기 위해서 alpha, beta, TC, NV 등 네 장의 그림이 중간 계산 과정에서 필요하다. 이들 그림들을 수학식 8에 따라 조합하면, 최종 지지구조량 분포를 한 장의 tomography 그림으로 나타낼 수 있고, 상기 tomography 픽셀값의 합이 총 지지구조의 양이 된다. 본 발명을 검증하기 위해 먼저 부피 계산이 Sphere 등의 간단한 도형들을 대상으로 tomography를 측정하여 비교하였다. 다만 다음과 같은 가정들을 사용하였다.In the present invention, in order to form one final tomograph picture, four pictures, such as alpha, beta, TC, and NV, are required in the intermediate calculation process. Combining these pictures according to Equation 8, the final support structure amount distribution can be expressed as one tomography picture, and the sum of the tomography pixel values becomes the total amount of support structure. To verify the present invention, volume calculation was first compared by measuring tomography for simple figures such as spheres. However, the following assumptions were used.

가정 1: 지지구조 발생의 임계각(θ c ) 조건 이외의 필라멘트 소재 특성은 고려되지 않는다.Assumption 1: Filament material characteristics other than the critical angle ( θ c ) condition for support structure generation are not considered.

가정 2: 내부 구조, 표면, 지지구조는 동일한 필라멘트로 출력된다.Assumption 2: Internal structure, surface, and support structure are printed with the same filament.

가정 3: 물체 내부와 지지구조는 완벽하게 채워진다.Assumption 3: The interior of the object and its support structure are completely filled.

도 5는 본 발명에 따른 예측방법에서 픽셀에 따른 지지체의 양을 분석하기 위한 과정도이다. 대칭성 코드가 Gd에 속하는 sphere 메쉬를 사례로 사용하였다. 입력된 삼각형 메쉬(a)로부터, 노말 벡터 방향에 따라 삼각형들을 alpha/beta/TC 세 그룹으로 나눈 후, 색상을 달리하여 표시한 것이 (b)이다. 이들 픽셀들의 높이값을 적분하여 바닥면에 색상으로 나타내면, (c)와 같이 표현된다. 이 들 세 가지 tomography 그림들을 상기 수학식 6에 따라 조합하면 (d)와 같은 최종 support structure의 부피를 나타내는 tomography 그림이 된다. (d)의 tomograph에서 공통적으로 진한 색상의 픽셀은 지지구조의 양이 많은 곳을 의미한다. 이는 (c)도 마찬가지다. 따라서, 본 발명은 물체의 국소적인 지지구조 발생 정보도 그림을 통해 직관적으로 알 수도 있고, 이들 픽셀 정보를 통해 기존 Ezair 등의 방법 등과 같이 전체 부피도 정확하게 수치적으로 예측할 수 있다.5 is a process diagram for analyzing the amount of support according to pixels in the prediction method according to the present invention. A sphere mesh whose symmetry code belongs to Gd is used as an example. From the input triangle mesh (a), triangles are divided into alpha/beta/TC groups according to the normal vector direction, and then displayed with different colors (b). When the height values of these pixels are integrated and displayed as colors on the floor, it is expressed as (c). Combining these three tomography pictures according to Equation 6 results in a tomography picture representing the volume of the final support structure as shown in (d). In the tomograph of (d), the dark colored pixels in common mean the places where the amount of support structure is large. This is also true for (c). Therefore, according to the present invention, the local support structure generation information of an object can also be intuitively known through a picture, and the entire volume can be accurately and numerically predicted through these pixel information, like the existing method of Ezair et al.

여기서 도 5의 (c)와 (d)의 tomograph들로부터 픽셀값을 적분하여 부피를 측정한 결과 일부 오차가 발견되었다. 그 원인을 파악하기 위해, Sphere 메쉬를 geometry의 변화 없이 반지름을 달리 하여 부피를 측정하여 보았다. 그 결과 평균 edge length가 작을수록 오차가 커지는 것을 확인하였다. 이는 본 발명의 삼각형 메쉬 픽셀화가 모니터 상에서 직선을 표현할 때 사용되는 Bresenham 알고리즘처럼 실수 데이터를 픽셀, 즉 정수화하여 사용하는 것인데, 도 6과 같이 삼각형의 바운더리 edge가 픽셀로 변환되는 과정에서 일부 픽셀이 유실되는 것이 원인으로 보인다. 이를 방지하기 위해서는 물체의 크기를 크게 확대하여 입력하는 방법이 있으나 이 경우 반대로 연산 시간이 증가하게 되는 단점이 있다.Here, as a result of measuring the volume by integrating the pixel values from the tomographs in (c) and (d) of FIG. 5, some errors were found. To find out the cause, the volume of the sphere mesh was measured by varying the radius without changing the geometry. As a result, it was confirmed that the smaller the average edge length, the larger the error. This is to use real data as pixels, i.e. integers, like the Bresenham algorithm used when the triangular mesh pixelation of the present invention is used to express straight lines on a monitor. As shown in FIG. It appears to be the cause of In order to prevent this, there is a method of greatly enlarging and inputting the size of the object, but in this case, there is a disadvantage in that the calculation time increases.

또, 다른 계산 오차의 원인은 수직 방향 삼각형 요소의 픽셀로 인한 잘못된 적분이다. 법선 벡터의 Z축 방향 각도가 0도에 가까운 삼각형들은 바닥면과 이루는 부피값이 이론적으로 0이어야 하지만, 도 7과 같이 소수점오차로 인해 일부가 alpha 또는 beta 픽셀에 포함될 수 있고, 이 경우 이들은 오차의 원인이 된다. 해결 방법으로는 alpha 및 beta 픽셀의 픽셀화 과정에서 법선벡터의 +Z축 방향 각도가 0도에 가까운 것들을 배제하는 방법이 있다. Another source of computational error is incorrect integration due to the pixels of vertical triangular elements. Triangles whose Z-axis angle of the normal vector is close to 0 degrees should theoretically have a volume value of 0 formed with the floor, but as shown in FIG. 7, some may be included in alpha or beta pixels due to decimal point error, in which case they are error cause of As a solution, there is a method of excluding those whose angles in the +Z-axis direction of the normal vector are close to 0 degrees in the pixelization process of alpha and beta pixels.

도 8은 본 발명에 따른 예측방법에서 콘(cone) 형상의 계산 과정을 설명하기 위한 도면이다.8 is a diagram for explaining a process of calculating a cone shape in the prediction method according to the present invention.

앞의 sphere는 orientation과 지지구조 발생이 관계없는 경우이다. 그 다음 사례는 좀 더 일반적인 대칭성 Gc 타입인 cone을 사례로 사용하였다. 먼저 도 8과 같이 정상적인 방향으로 tomography를 측정한 결과 b와 같이 지지구조가 0인 것을 확인하였다. 물체 크기에 의한 오차는 R/H=10/20인 경우에는 Vo가 25%까지 발생하였으나, 물체가 커질수록 앞의 Table 2와 마찬가지로 그 오차는 2%대로 감소하는 경향을 보였다. 반대로 (c)와 같이 뒤집힌 방향으로 tomography를 작성한 결과, (d)와 같이 지지구조의 양이 대폭 증가한 것을 볼 수 있다. 두 가지 경우 모두 계산시간은 1초 이하의 짧은 시간 안에 연산이 실행될 수 있었다. 따라서 이런 방식으로 물체의 orientation을 달리하면서 tomography를 작성하면, 지지구조 발생량이 최소가 되는 optimal printing direction을 쉽게 예측할 수 있다. The preceding sphere is a case where orientation and support structure generation are not related. The next example uses the more general symmetric Gc type, cone, as an example. First, as a result of measuring tomography in a normal direction as shown in FIG. 8, it was confirmed that the support structure was 0 as shown in b. The error due to the size of the object occurred up to 25% in the case of R/H = 10/20, but as the object became larger, the error tended to decrease to the 2% level, as shown in Table 2 above. Conversely, as a result of creating tomography in an inverted direction as in (c), it can be seen that the amount of support structure has increased significantly as in (d). In both cases, the calculation time could be executed in a short time of less than 1 second. Therefore, if the tomography is created while changing the orientation of the object in this way, the optimal printing direction that minimizes the generation of support structures can be easily predicted.

이에 따른 본 발명의 픽셀화 기법은 GPU가 물체의 은면(hidden surface) 제거에서 사용되는 "depth test"와 유사하지만, 본 발명은 beta 삼각형 그룹을 고려하지 않는 점이 차이점이다. 본 발명을 이용하면 GPU의 필요 없이 CPU나 임베디드 시스템 등에서도 지지구조 분석이 가능하다.Accordingly, the pixelation technique of the present invention is similar to the "depth test" in which the GPU is used to remove the hidden surface of an object, but the difference is that the beta triangle group is not considered in the present invention. Using the present invention, it is possible to analyze the support structure in a CPU or embedded system without the need for a GPU.

본 발명은 알파, 베타 픽셀 그룹 높이 값의 간단한 사칙연산을 통해 물체 부피(Vo)도 구할 수 있다. 이는 기존 연구에서 사용하지 않은 originality있는 부분이다.In the present invention, the object volume (Vo) can also be obtained through simple arithmetic operations of alpha and beta pixel group height values. This is a part with originality that has not been used in previous studies.

또한, 본 발명은 픽셀화를 통해 NV픽셀, 즉 임계각을 고려한 지지구조량(nv)도 알 수 있으며, 모든 계산이 정수 기반의 간단한 선형대수(linear algebra)기법이므로 계산량이 작다. 기존의 g-code 생성기법의 경우 물체의 slicing 과정과 절단된 slice내의 tool path 를 생성하는 과정으로 구성된다. 특히, 후자의 경우 Traveling saleman problem에 속하는 데, 별다른 처리(approximation)가 없을 경우 계산시간이 매우 많이 필요한 NP-hard problem이다(Zambito 2006). 반면 본 발명의 픽셀화의 경우 단순히 물체의 전체 표면적에 비례하는 O(N*(ηlogη+νμ))의 연산량을 가진다 .(여기서, N=폴리곤 개수, η = 폴리곤의 edge 개수, 즉 3. ν,μ = 폴리곤을 둘러싸는 AABB의 세 축 중 가장 긴 두 변)In addition, in the present invention, NV pixels, that is, the amount of support structure (nv) considering the critical angle can be known through pixelation, and since all calculations are simple integer-based linear algebra techniques, the amount of calculation is small. In the case of the existing g-code generation technique, it consists of the process of slicing the object and the process of generating the tool path within the cut slice. In particular, the latter case belongs to the Traveling saleman problem, which is an NP-hard problem that requires a lot of computation time if there is no approximation (Zambito 2006). On the other hand, the pixelation of the present invention has an operation amount of O(N*(ηlogη+νμ)), which is simply proportional to the total surface area of the object. ,μ = the two longest sides of the three axes of the AABB enclosing the polygon)

도 9는 본 발명에 따른 예측방법에서 대칭성 코드가 Gz인 Stanford bunny에 대한 결과를 도시한 도면이다. 좀 더 일반적인 물체에 대해 검증하기 위해, 대칭성 코드가 Gz인 Stanford bunny에 대한 결과를 나타내었다. 출력 배향은 일단 (0°,0°,0°)으로 설정하였고, 임계각은 일단 0도, 즉 모든 오버행 구조에서 지지구조가 반드시 발생한다고 가정하였다. (a)가 입력된 메쉬 데이터이며, (b)는 이들 삼각형을 픽셀화 한 후 alpha, beta, TC 그룹으로 분리하여 서로 다른 색깔로 표시한 것이다. (b)의 픽셀 부피를 적분하면, (c)와 같은 각 그룹별 2D tomograph 이미지를 얻을 수 있다. 그 결과 (d)의 최종 지지구조 tomograph로부터 Stanford Bunny는 귀 부분에서 가장 많은 지지구조가 발생하는 것을 시각적으로 확인할 수 있다. 이와 같이, 본 발명은 단순한 기하 도형뿐만 아니라 일반적이고 복잡한 형상의 물체에도 적용 가능하다. 9 is a diagram showing the results of a Stanford bunny whose symmetric code is Gz in the prediction method according to the present invention. To validate for a more general object, the results are presented for a Stanford bunny with symmetry code Gz. The output orientation was set to (0°, 0°, 0°) once, and the critical angle was assumed to be 0° once, that is, the support structure must occur in all overhang structures. (a) is the input mesh data, and (b) is the pixelation of these triangles and then separated into alpha, beta, and TC groups and displayed in different colors. By integrating the pixel volume of (b), 2D tomograph images for each group can be obtained as shown in (c). As a result, from the final support structure tomograph in (d), it can be visually confirmed that the most support structure occurs in the ear part of Stanford Bunny. As such, the present invention can be applied not only to simple geometric figures but also to objects of general and complicated shapes.

도 10은 임계각 조건의 영향을 분석한 것이다. 임계각을 달리하면서 측정한 결과, NV 픽셀이 그림의 자주색과 같이 서로 다른 양으로 형성되는 것을 알 수 있다. G-code 변환으로 측정한 부피값과 비교하여도 동일한 경향성을 갖는다는 것을 알 수 있다.10 is an analysis of the influence of the critical angle condition. As a result of measurement while varying the critical angle, it can be seen that NV pixels are formed in different amounts as shown in purple in the figure. It can be seen that it has the same tendency when compared with the volume value measured by G-code conversion.

도 11은 본 발명에 따른 예측방법에서 측정대상물별 box graph 구현의 예시도이다.11 is an exemplary view of box graph implementation for each measurement object in the prediction method according to the present invention.

물체의 지지구조 정보가 배향 정보 (y,p,r) 및 서포트(지지구조체)의 양 Vss 등 총 4 가지 변수에 의해 나타나므로, 각각의 경우 발생하는 지지구조의 양도 4D 형태로 나타내어야 한다. 앞의 도 10과 같이 yaw, pitch, roll등 세 가지 각도에 대해 일정 간격을 두고 적분을 실시하고, 그 결과를 그래프 상의 점 데이터로 plotting 한 뒤, 이들을 interpolation하여 box graph를 구현하였다. 최적 3D프린팅 출력 배향 각도를 찾기 위해서는, 이 box graph에서 가장 옆은 색상을 갖는 점의 "(y,p,r)"좌표를 찾으면 된다. 물론 최적 배향은 복수 개 존재할 수 있다. Since the support structure information of an object is represented by a total of four variables, such as orientation information (y, p, r) and the amount of support (support structure) Vss, the amount of support structure generated in each case must be expressed in 4D form. As shown in FIG. 10, integration was performed at regular intervals for three angles, such as yaw, pitch, and roll, and the result was plotted as point data on the graph, and then interpolated to implement a box graph. In order to find the optimal 3D printing output orientation angle, find the "(y,p,r)" coordinates of the point with the color next to it in this box graph. Of course, a plurality of optimal orientations may exist.

도 12는 본 발명에 따른 예측방법에서 측정대상물의 초기 배향을 4D box graph로 나타낸 예시도이다. 그래프에서 최적 배향을 빨간 점으로 표시하였다. 도 11에 나타난 바와 같이 그 최적 배향을 시각적으로도 쉽게 알 수 있으며, 우리 방법의 연산결과도 이와 일치하는 것을 알 수 있다. 계산시간은 앞 절의 tomograph 작성시간 * (2π/ yaw각도 간격) * (2π/ pitch 각도 간격) * (2π/ roll 각도 간격)과 거의 동일하다. 예를 들어 "Cone"의 4d box graph 생성에 41.92초가 소요되었다.12 is an exemplary view showing the initial orientation of a measurement object in a 4D box graph in the prediction method according to the present invention. In the graph, the optimal orientation is indicated by a red dot. As shown in FIG. 11, the optimal orientation can be easily seen visually, and it can be seen that the calculation result of our method is also consistent with this. The calculation time is almost the same as the tomograph creation time in the previous section * (2π/ yaw angular interval) * (2π/ pitch angular interval) * (2π/ roll angular interval). For example, it took 41.92 seconds to create a 4d box graph of "Cone".

물체의 초기 배향에 관계없이 항상 동일한 최적 배향을 나타내어야 할 것이다. 이를 검증하기 위해 도 12와 같이 물체의 초기 배향을 다르게 한 상태에서 4D box graph를 작성하였다. 그 결과, 초기 배향에 관계없이 동일한 결과를 생성됨이 입증되었다. Regardless of the object's initial orientation, it should always exhibit the same optimal orientation. To verify this, as shown in FIG. 12, a 4D box graph was created in a state where the initial orientation of the object was different. As a result, it was demonstrated that the same results were produced regardless of the initial orientation.

도 13은 본 발명에 따른 예측방법에서 각도 전달에 따른 지지구조량의 픽셀을 나타낸 도면이다."Stanford Bunny"의 각도 간격을 달리하였을 때의 4D graph 생성 결과이다. 각도 간격에 상관없이 박스 내의 지지구조 량을 의미하는 픽셀 색상들이 거의 균일한 분포 형태를 보이는 것을 알 수 있다. 이처럼 대부분의 일반 물체는 closed-volume을 가지고 있으므로, 모든 각도에 대해 계산할 필요가 없다. 30°도 정도의 각도 간격이면 충분한 것을 알 수 있다. 13 is a diagram showing the pixels of the amount of support structure according to the angular transfer in the prediction method according to the present invention. This is the result of 4D graph creation when the angular interval of " Stanford Bunny " is changed. Regardless of the angular spacing, it can be seen that the pixel colors representing the amount of support structure in the box show an almost uniform distribution. As such, most normal objects have a closed-volume, so there is no need to calculate all angles. It can be seen that an angular spacing of about 30° is sufficient.

도 14는 본 발명에 따른 본 발명에 따른 예측방법의 일실시예를 도시한 도면이다.14 is a diagram showing an embodiment of a prediction method according to the present invention according to the present invention.

대부분의 간단한 물체의 경우는 사용자가 직관적으로 그 최적 방향을 예측할 수 있다. 다음 도 14는 가상의 Serpentine형 heat exchanger를 그린 것이다. 본 발명을 이용하면 이와 같이 여러 shell이 적층된 형태에 복잡한 구조에 대해서도 정량적으로 (d)와 같이 (90°, 360°, 360°)에서 최적 배향임을 쉽게 예측할 수 있다. For most simple objects, the user can intuitively predict the optimal direction. Next, FIG. 14 is a drawing of a virtual Serpentine type heat exchanger. Using the present invention, it is easy to predict the optimal orientation at (90 °, 360 °, 360 °) as shown in (d) quantitatively even for a complex structure in which several shells are stacked.

도 15는 본 발명의 픽셀화 기법의 실시예를 도시한 도면이다. 도 14a는 종래 기술로서, 물체의 복셀화 기법을 사용한 실시예이다. 이 경우 Z축 방향으로 하나 이상의 복셀이 생성됨에 따라, 부피값 계산의 오차가 된다. 본 발명은 픽셀화를 위해 도 14b와 같이 일단 XY평면상에서 픽셀들을 생성한 후, 이들의 무게중심이 물체 삼각형의 면(face)위에 존재하도록 Z방향으로 평행이동시킴으로써 도 14c와 같은 방식으로 픽세화를 진행한다. 이 경우 Z방향으로 하나의 픽셀만 존재하므로, 부피계산의 오차가 적어지는 장점이 있다. 15 is a diagram illustrating an embodiment of the pixelation technique of the present invention. 14A is a prior art, and an example using a voxelization technique of an object. In this case, as one or more voxels are generated in the Z-axis direction, an error in volume value calculation occurs. For pixelation, the present invention once creates pixels on the XY plane, as shown in FIG. 14b, and then translates them in the Z direction so that their center of gravity exists on the face of the object triangle. proceed with In this case, since only one pixel exists in the Z direction, there is an advantage in reducing the error in volume calculation.

이와 같이 구성되는 본 발명은 3D프린팅을 할 때 지지구조 발생량을 미리 예측해볼 수 있는 기술을 제공한다. 종래기술과 달리 본 발명은 GPU와 같은 특별한 하드웨어의 도움 없이 물체의 부피, 지지구조 발생량과 및 최적 배향을 계산할 수 있다.The present invention configured as described above provides a technology capable of predicting the generation amount of a support structure in advance during 3D printing. Unlike the prior art, the present invention can calculate the volume of the object, the amount of support structure generated, and the optimal orientation without the help of special hardware such as a GPU.

출력 대상 물체는 파일 포맷을 통해 삼각형 메쉬 형태로 입력되고, 이후 각 삼각형은 픽셀로 변환되며, 법선 벡터의 방향에 따라 alpha, beta, top-cover (TC) 등 세 개의 그룹으로 나뉘어진다. 이 중 beta 픽셀 법선 벡터의 방향이 지지구조 임계각보다 작은 것들은 추가적으로 non-overhang (NV)으로 구분하여 보관한다. The output target object is input in the form of a triangular mesh through a file format, and then each triangle is converted into pixels, and is divided into three groups: alpha, beta, and top-cover (TC) according to the direction of the normal vector. Among them, those whose direction of the beta pixel normal vector is smaller than the support structure critical angle are additionally classified as non-overhang (NV) and stored.

이들 픽셀 그룹들이 바닥면과 이루는 부피를 정해진 식에 따라 적분하면, 최종적인 tomography 그림을 얻을 수 있다. tomography의 각 픽셀 색상은 지지구조의 양을 나타내며, 이들을 모두 적분하면 총 지지구조의 양이 얻어진다. 이러한 과정을 yaw, pitch, roll 등 세 가지 회전 방향에 대해 반복하면 4D box 형태의 지지구조 그래프가 얻어진다. 여기서도 마찬가지로 각 색상이 지지구조의 양을 의미하며, 최소값을 갖는 점의 좌표가 3D프린팅 시 지지구조 발생량이 가장 작아지는 최적 배향을 의미한다. The final tomography picture can be obtained by integrating the volume of these pixel groups with the floor surface according to the given formula. Each pixel color of the tomography represents the amount of support structure, and integrating them all gives the total amount of support structure. If this process is repeated for three rotation directions, such as yaw, pitch, and roll, a support structure graph in the form of a 4D box is obtained. Likewise, each color means the amount of the support structure, and the coordinates of the point with the minimum value mean the optimal orientation in which the amount of support structure generated is the smallest during 3D printing.

이상, 본 발명의 원리를 예시하기 위한 바람직한 실시예와 관련하여 설명하고 도시하였지만, 본 발명은 그와 같이 도시되고 설명된 그대로의 구성 및 작용으로 한정되는 것이 아니다. 오히려, 첨부된 청구범위의 사상 및 범주를 일탈함이 없이 본 발명에 대한 다수의 변경 및 수정이 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주되어야 할 것이다.Although the above has been described and illustrated in relation to preferred embodiments for illustrating the principles of the present invention, the present invention is not limited to the configuration and operation as shown and described. Rather, it will be appreciated by those skilled in the art that many changes and modifications may be made to the present invention without departing from the spirit and scope of the appended claims. Accordingly, all such appropriate changes and modifications and equivalents should be regarded as falling within the scope of the present invention.

Claims (11)

출력 대상물을 3D 프린팅을 이용하여 프린팅 할 때 상기 출력 대상물을 지지하는 지지구조(서포트)의 양을 예측하는 방법에 있어서,
상기 출력 대상물을 카메라로 획득하는 면의 부피와 보이지 않는 면의 부피를 계산하되,
상기 카메라로 획득되는 출력 대상물의 단층사진(tomography)의 픽셀값을 적분하여 상기 지지구조의 소모량을 예측하고 이를 통해 지지구조의 최소량으로 출력 대상물을 출력하기 위한 그림자 투영법을 이용한 3D 프린팅의 지지체 예측방법.
In the method of predicting the amount of the support structure (support) for supporting the output object when printing the output object using 3D printing,
Calculate the volume of the surface of the output object obtained by the camera and the volume of the invisible surface,
3D printing support prediction method using a shadow projection method for predicting the consumption of the support structure by integrating the pixel values of the tomography of the output object obtained by the camera and outputting the output object with the minimum amount of the support structure through this .
제 1항에 있어서,
카메라로 획득되는 상기 출력 대상물 면의 부피와 보이지 않는 면의 부피는, 출력 대상물의 물체 데이터를 메쉬 삼각형 픽셀의 노말 벡터 z성분값의 +/- 부호로부터 알파 픽셀, 베타 픽셀, TC 픽셀, NV 픽셀로 획득한 후 이들의 적분을 통해 지지구조의 소모량을 예측하는 것을 그림자 투영법을 이용한 3D 프린팅의 지지체 예측방법.
According to claim 1,
The volume of the surface of the output object and the volume of the invisible surface obtained by the camera are obtained by converting the object data of the output object to the +/- sign of the normal vector z component value of the mesh triangle pixel to the alpha pixel, beta pixel, TC pixel, and NV pixel. A support prediction method for 3D printing using a shadow projection method to predict the consumption of a support structure through their integration after acquisition.
제 1항에 있어서, 상기 소모량 예측은,
3D 프린팅 할 상기 출력 대상물의 물체 데이터를 삼각형 메쉬 형태로 준비하고 각각의 상기 삼각형 법선 벡터를 계산하는 단계;
상기 삼각형을 정수(integer) 좌표로 된 픽셀로 변환하고 상기 픽셀에 상기 삼각형 법선 벡터 정보를 부여하는 단계;
상기 픽셀들에 부여된 법선 벡터의 z좌표가 0보다 크면 알파(alpha) 픽셀, 작으면 베타(beta) 픽셀로 분류하는 단계;
상기 알파 픽셀 중에서, x, y 좌표값이 같은 것들 중에서 z 좌표값이 가장 큰 것들만 TC 픽셀로 복사하여 분류하는 단계; 및
상기 알파 픽셀, 베타 픽셀, TC 픽셀들을 각각 물체가 위치한 XY 평면위에 누적하여 그 픽셀 개수를 단층사진(tomograph) 형태로 나타내는 단계;를 포함하여 구성되고,
각각의 상기 알파, 베타, TC 픽셀값을 지지구조의 양측으로 예측하는 것으로 구성되는 그림자 투영법을 이용한 3D 프린팅의 지지체 예측방법.
The method of claim 1, wherein the consumption amount prediction,
Preparing object data of the output object to be 3D printed in the form of a triangular mesh and calculating each of the triangular normal vectors;
converting the triangle into pixels with integer coordinates and giving the triangle normal vector information to the pixels;
classifying the pixels as alpha pixels if the z-coordinates of the normal vectors assigned to the pixels are greater than 0, and as beta pixels if they are smaller;
copying and classifying only those having the largest z coordinate value among the alpha pixels having the same x and y coordinate values as TC pixels; and
Accumulating the alpha pixels, beta pixels, and TC pixels on the XY plane where the object is located, and representing the number of pixels in the form of a tomograph;
A support prediction method for 3D printing using a shadow projection method consisting of predicting each of the alpha, beta, and TC pixel values to both sides of the support structure.
제 2항에 있어서,
사용된 필라멘트가 지지구조를 생성하기 시작하는 오버행의 임계각을
Figure pat00014
라고 할 때, 베타 픽셀 중에서 법선 벡터의 z좌표인 nz값이 아래 수학식 1을 만족하는 것들을 복사하여 NV픽셀로 분류하는 단계;와,
상기 NV픽셀로부터도 단층사진을 형성하는 단계;를 포함하여 구성되는 그림자 투영법을 이용한 3D 프린팅의 지지체 예측방법.
[수학식 1]
Figure pat00015

(여기서,
Figure pat00016
는 지지구조 발생이 시작되는 오버행의 임계각으로써, +Z축과 이루는 각도값.)
According to claim 2,
The critical angle of the overhang at which the filaments used begin to create the support structure.
Figure pat00014
, copying beta pixels whose n z value, which is the z coordinate of the normal vector, satisfies Equation 1 below, among beta pixels, and classifying them as NV pixels;
A method for predicting a support body for 3D printing using a shadow projection method, comprising: forming a tomogram from the NV pixels.
[Equation 1]
Figure pat00015

(here,
Figure pat00016
is the critical angle of the overhang at which the support structure starts to occur, and is the angle value formed with the +Z axis.)
제 4항에 있어서,
상기 알파, 베타, TC, NV픽셀의 단층사진의 픽셀 정보를 각각 Vα,i, Vβ,j, Vtc,k, Vnv,l이라고 하고, i,j,k,l 및 I, J, K, L은 각 픽셀의 종류별 개수에 대한 첨자 및 총 갯수라고 할 때, 최종 지지구조 부피 Vss를 상기 단층사진 4장으로부터 아래 수학식 2에 의해 계산하는 단계;를 포함하여 구성되는 그림자 투영법을 이용한 3D 프린팅의 지지체 예측방법.
[수학식 2]
Figure pat00017

(여기서, i,j,k,l 및 I, J, K, L는 각각 알파, 베타, TC, NV 픽셀의 개수)
According to claim 4,
The pixel information of the tomogram of the alpha, beta, TC, and NV pixels is respectively referred to as Vα,i, Vβ,j, Vtc,k, Vnv,l, and i,j,k,l and I, J, K,L 3D printing using a shadow projection method comprising: Support prediction method.
[Equation 2]
Figure pat00017

(Where i, j, k, l and I, J, K, L are the number of alpha, beta, TC, and NV pixels, respectively)
제 5항에 있어서, 상기 픽셀 정보 적분은,
픽셀의 z방향 높이값으로부터 3D프린팅 바닥면의 z방향 높이값을 뺀 것을 대상으로 하는 그림자 투영법을 이용한 3D 프린팅의 지지체 예측방법.
The method of claim 5, wherein the integration of pixel information comprises:
A support prediction method for 3D printing using a shadow projection method that targets the subtraction of the z-direction height value of a 3D printed floor from the z-direction height value of a pixel.
제 6항에 있어서,
상기 지지구조 부피 Vss의 계산을 임의의 간격에 대해 회전변환을 반복하여 그 값들을 4차원 박스 형태 그래프에 표시하는 단계;를 포함하여 구성되는 그림자 투영법을 이용한 3D 프린팅의 지지체 예측방법.
According to claim 6,
A method for predicting a support body for 3D printing using a shadow projection method comprising the steps of repeating rotation conversion for the calculation of the support structure volume V ss at an arbitrary interval and displaying the values on a 4-dimensional box-shaped graph.
제 7항에 있어서,
상기 4차원 박스 그래프의 빈 곳을 3차원 내삽(interpolation)을 통해 채워 연속적인 그래프를 형성하는 단계;를 포함하여 구성되는 그림자 투영법을 이용한 3D 프린팅의 지지체 예측방법.
According to claim 7,
Forming a continuous graph by filling empty spaces in the 4-dimensional box graph through 3-dimensional interpolation; A support prediction method for 3D printing using a shadow projection method, comprising:
제 8항에 있어서,
상기 연속적인 4차원 박스 그래프에서 가장 작은 값을 갖는 픽셀의 좌표값을 찾아 최적 배향 값으로 선택하는 단계;를 포함하여 구성되는 그림자 투영법을 이용한 3D 프린팅의 지지체 예측방법.
According to claim 8,
A method for predicting a support for 3D printing using a shadow projection method comprising: finding the coordinate value of the pixel having the smallest value in the continuous 4-dimensional box graph and selecting it as an optimal orientation value.
제 3항에 있어서,
소수점 오차를 최소화하기 위해 동일한 (x,y,z)정수 좌표에 위치하는 중복 픽셀들의 경우 하나만 남도록 제거하는 단계;를 포함하여 구성되는 그림자 투영법을 이용한 3D 프린팅의 지지체 예측방법.
According to claim 3,
A support prediction method for 3D printing using a shadow projection method comprising the steps of removing duplicate pixels located at the same (x, y, z) integer coordinates so that only one remains in order to minimize decimal point error.
제 3항에 있어서,
부피 계산 오차를 줄이기 위해 법선 벡터가 XY 평면과 평행한 픽셀들을 제거하는 단계;를 포함하여 구성되는 그림자 투영법을 이용한 3D 프린팅의 지지체 예측방법.
According to claim 3,
A support prediction method for 3D printing using a shadow projection method comprising the steps of removing pixels whose normal vector is parallel to the XY plane in order to reduce volume calculation error.
KR1020210192285A 2021-12-30 2021-12-30 A method of predicting a support of 3D printing using shadow projection KR102641460B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210192285A KR102641460B1 (en) 2021-12-30 2021-12-30 A method of predicting a support of 3D printing using shadow projection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210192285A KR102641460B1 (en) 2021-12-30 2021-12-30 A method of predicting a support of 3D printing using shadow projection

Publications (2)

Publication Number Publication Date
KR20230102287A true KR20230102287A (en) 2023-07-07
KR102641460B1 KR102641460B1 (en) 2024-02-27

Family

ID=87153863

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210192285A KR102641460B1 (en) 2021-12-30 2021-12-30 A method of predicting a support of 3D printing using shadow projection

Country Status (1)

Country Link
KR (1) KR102641460B1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010033850A (en) * 1998-11-03 2001-04-25 사이버옵틱스 코포레이션 Tomographic reconstruction of electronic components from shadow image sensor data
KR101756897B1 (en) 2016-04-15 2017-07-11 주식회사 새론 3D printer product on-line mediating system based on rotation of heating bed for minimizing support structure, and method thereof
KR20170138618A (en) 2016-06-07 2017-12-18 서울시립대학교 산학협력단 Quantitative evaluation method for 3D printer output and system
KR20190000978A (en) * 2017-06-26 2019-01-04 호서대학교 산학협력단 Tree type support and optimum design method thereof
KR20190004593A (en) 2017-07-04 2019-01-14 (주)온메이커스 Method for calculating of 3D printer preview based on measured material deformation
KR101978996B1 (en) 2018-12-11 2019-05-17 주식회사 쓰리딜라이트 A 3D Printer For Minimum Support
KR102109812B1 (en) 2018-06-20 2020-05-13 한국과학기술연구원 Simulation apparatus for 3d printing
KR102175206B1 (en) * 2019-06-03 2020-11-06 숭실대학교 산학협력단 Apparatus for 3d printing design and minimizing support design using the method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010033850A (en) * 1998-11-03 2001-04-25 사이버옵틱스 코포레이션 Tomographic reconstruction of electronic components from shadow image sensor data
KR101756897B1 (en) 2016-04-15 2017-07-11 주식회사 새론 3D printer product on-line mediating system based on rotation of heating bed for minimizing support structure, and method thereof
KR20170138618A (en) 2016-06-07 2017-12-18 서울시립대학교 산학협력단 Quantitative evaluation method for 3D printer output and system
KR20190000978A (en) * 2017-06-26 2019-01-04 호서대학교 산학협력단 Tree type support and optimum design method thereof
KR20190004593A (en) 2017-07-04 2019-01-14 (주)온메이커스 Method for calculating of 3D printer preview based on measured material deformation
KR102109812B1 (en) 2018-06-20 2020-05-13 한국과학기술연구원 Simulation apparatus for 3d printing
KR101978996B1 (en) 2018-12-11 2019-05-17 주식회사 쓰리딜라이트 A 3D Printer For Minimum Support
KR102175206B1 (en) * 2019-06-03 2020-11-06 숭실대학교 산학협력단 Apparatus for 3d printing design and minimizing support design using the method

Also Published As

Publication number Publication date
KR102641460B1 (en) 2024-02-27

Similar Documents

Publication Publication Date Title
US11625889B2 (en) GPU material assignment for 3D printing using 3D distance fields
Chougrani et al. Lattice structure lightweight triangulation for additive manufacturing
EP2779109B1 (en) Image processing device, image processing method and image file data structure
CN101629805A (en) Method for measuring railway tank car volume based on computer vision
Tedia et al. Manufacturability analysis tool for additive manufacturing using voxel-based geometric modeling
US8149237B2 (en) Information processing apparatus and program
US10373371B2 (en) Generating slicing data from a tree data structure
Li et al. Review of heterogeneous material objects modeling in additive manufacturing
EP3544817A1 (en) Method and system for three-dimensional print oriented image segmentation
US10380792B2 (en) Three-dimensional model generation
Waktola et al. A new data-processing approach to study particle motion using ultrafast X-ray tomography scanner: case study of gravitational mass flow
KR102641460B1 (en) A method of predicting a support of 3D printing using shadow projection
US20210200185A1 (en) Determining object volumes in virtual object space
JP2012237620A (en) Error image generation method
EP2266457A1 (en) Intermediate image generating method, device, and program
US10061284B2 (en) Three-dimensional printing using fast STL file conversion
Chen et al. Half-space power diagrams and discrete surface offsets
KR20240036939A (en) A method of predicting a support of 3D printing using modified shadow projection
WO2021080561A1 (en) Surface offsets
Tolok et al. Voxel modeling of the control of prototype manufacturing with additive technologies
Gerbino et al. Reverse Engineering
CN106652022A (en) Spherical coordinate index method for medical three-dimensional visualization
Hasegawa et al. Fused visualization with non-uniform transparent surface for volumetric data using stochastic point-based rendering
Liu et al. Color printing based on 3MF: Color diffusion from the surface to the interior of voxel model
Zhou et al. Geometry Attributes Computation of 3D Model for Additive Manufacturing

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant