KR20200068777A - Method for preventing the production of weapons based on three-dimensional printers - Google Patents

Method for preventing the production of weapons based on three-dimensional printers Download PDF

Info

Publication number
KR20200068777A
KR20200068777A KR1020180150053A KR20180150053A KR20200068777A KR 20200068777 A KR20200068777 A KR 20200068777A KR 1020180150053 A KR1020180150053 A KR 1020180150053A KR 20180150053 A KR20180150053 A KR 20180150053A KR 20200068777 A KR20200068777 A KR 20200068777A
Authority
KR
South Korea
Prior art keywords
production
printing model
weapon
model
printer
Prior art date
Application number
KR1020180150053A
Other languages
Korean (ko)
Other versions
KR102159947B1 (en
Inventor
권기룡
녹 자오 팜
Original Assignee
부경대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 부경대학교 산학협력단 filed Critical 부경대학교 산학협력단
Priority to KR1020180150053A priority Critical patent/KR102159947B1/en
Publication of KR20200068777A publication Critical patent/KR20200068777A/en
Application granted granted Critical
Publication of KR102159947B1 publication Critical patent/KR102159947B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C64/00Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
    • B29C64/30Auxiliary operations or equipment
    • B29C64/386Data acquisition or data processing for additive manufacturing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y50/00Data acquisition or data processing for additive manufacturing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Materials Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Manufacturing & Machinery (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a method for preventing 3D printer-based manufacturing of weapons. More specifically, the method comprises the steps of: once a 3D printing model is inputted, extracting geometric features from the 3D printing model; classifying the type of the 3D printing model through predetermined data information on the basis of the extracted geometric features and an improved convolutional neural network (CNN); confirming whether the classified type is included in weaponry; and performing the production if the classified type is not included in weaponry as a result of confirmation, and if the classified type is included in weaponry, not performing the production.

Description

3차원 프린터 기반 무기 생산 방지 방법{METHOD FOR PREVENTING THE PRODUCTION OF WEAPONS BASED ON THREE-DIMENSIONAL PRINTERS}METHOD FOR PREVENTING THE PRODUCTION OF WEAPONS BASED ON THREE-DIMENSIONAL PRINTERS}

본 발명은 3차원 프린터 기반 무기 생산 방지 방법에 관한 것으로, 보다 상세하게는 3D(Three-Dimensional) 프린팅을 위한 3D 무기 모델을 검출하여 3D 프린터를 통한 무기 생산을 방지할 수 있도록 하는 3차원 프린터 기반 무기 생산 방지 방법에 관한 것이다.The present invention relates to a 3D printer-based weapon production prevention method, and more specifically, to detect a 3D weapon model for 3D (Three-Dimensional) printing to prevent weapon production through a 3D printer. It relates to a method for preventing the production of weapons.

3D 프린터의 개발과 함께 생산 관리자의 제한없이 무기를 쉽게 프린트할 수 있다.With the development of 3D printers, weapons can be easily printed without the limitations of production managers.

3D 프린팅의 혁명은 사용자가 3D 프린터를 사용하여 디지털 모델을 통해 아이디어를 실현하는 데 도움이 될 수 있다. 보석, 신발류, 산업 디자인, 건축, 엔지니어링 및 건설, 자동차, 항공 우주, 의료 및 건강 관리 산업, 교육 및 소비자 제품을 비롯한 다양한 생활 영역에서 3 차원 인쇄가 사용되고 있다. 3D 프린팅 기술의 개발로 사람들은 화기, 총기 및 칼과 같은 3D 무기 모델을 검색하여 가정용 3D 프린터로 실제 3D 물체를 인쇄하거나 무제한으로 공유할 수 있다. 특히 신소재를 사용하면 사용자는 위험한 무기를 인쇄할 수 있으며 피해를 주기 위해 사용할 수 있다. 이것은 누구나 위험한 무기를 인쇄할 수 있기 때문에 3D 프린터 보안에 대한 우려로 이어진다.The revolution of 3D printing can help users realize their ideas through digital models using 3D printers. Three-dimensional printing is used in a variety of living areas, including jewelry, footwear, industrial design, architecture, engineering and construction, automotive, aerospace, medical and healthcare industries, education and consumer products. With the development of 3D printing technology, people can search 3D weapon models such as firearms, firearms and knives and print or share unlimited 3D objects with a home 3D printer. Especially with new materials, users can print dangerous weapons and use them to damage them. This leads to concerns about 3D printer security because anyone can print dangerous weapons.

지금까지 3D 프린터로 제작된 무기의 위험성이 입증되었지만, 3D 프린터 무기의 위험성에 대한 걱정은 이제 막 고려 사항 및 정책으로 형성되기 시작했다. 연구자들은 3D 무기 모델의 프린트를 제한하는 방법의 측면에 대해서는 아직 관심이 없으며, 3D 프린트 업계에서 3D 무기 모델 인쇄를 중단할 해결책이 없다. 공항이나 빌딩과 같은 특별한 장소에서 감시 시스템이나 보안 시스템에 적용된 이미지 처리 방법을 기반으로 한 권총 탐지 기술은 안전한 3D 프린터에 적용할 수 없다. 3D 프린터의 입력은 3D 프린팅 모델이므로 이미지가 아니다. So far, the dangers of weapons manufactured with 3D printers have been proven, but concerns about the dangers of 3D printer weapons have just begun to form into considerations and policies. Researchers are not interested in the aspect of how to limit the printing of 3D weapon models, and there is no solution in the 3D printing industry to stop printing 3D weapon models. Pistol detection technology based on image processing methods applied to surveillance systems or security systems in special places such as airports and buildings cannot be applied to secure 3D printers. The input of the 3D printer is not an image because it is a 3D printing model.

또한, 3D 모델 매칭 기술은 3D 무기 모델의 프린트를 방지하기 위해 안전한 3D 프린팅에도 적용할 수 없다. 이는 3D 모델 매칭 기술이 3D 모델의 데이터베이스에 액세스하여 결정을 내리지 않으면 안되기 때문이다. 모델 유형의 샘플 모델이 3D 모델의 데이터베이스에 저장되지 않으면 3D 모델 매칭 기술로 쿼리 할 때 입력 모델이 어떤 모델과도 일치하지 않는다.In addition, 3D model matching technology cannot be applied to secure 3D printing to prevent printing of 3D weapon models. This is because the 3D model matching technology must access the database of the 3D model and make a decision. If the model-type sample model is not stored in the database of the 3D model, the input model does not match any model when querying with the 3D model matching technique.

따라서, 안전한 3D 프린팅 산업을 위해서는 3D 프린팅을 위한 3D 무기 모델을 검출할 수 있도록 하는 기술이 개발될 필요가 있다.Therefore, for a safe 3D printing industry, a technology capable of detecting a 3D weapon model for 3D printing needs to be developed.

따라서, 본 발명은 상기한 바와 같은 문제점을 해결하기 위하여 제안된 것으로, 3D 프린팅을 위한 3D 무기 모델을 검출하여 3D 프린터를 통해 무기가 생산되는 것을 방지할 수 있도록 함으로써, 안전한 3D 프린팅 산업을 구현할 수 있도록 하는 3차원 프린터 기반 무기 생산 방지 방법을 제공함에 있다.Therefore, the present invention has been proposed to solve the above-described problems, and by detecting a 3D weapon model for 3D printing to prevent weapons from being produced through a 3D printer, it is possible to implement a safe 3D printing industry. It is to provide a method for preventing production of a weapon based on a 3D printer.

또한, 본 발명은 D2 형상 분포와 딥러닝 기반 CNN(Convolutional Neural Network)을 이용함으로써, 3D 프린터에 입력되는 3D 프린팅 모델이 3D 무기 모델인지 여부를 높은 정확도로 검출할 수 있도록 하는 3차원 프린터 기반 무기 생산 방지 방법을 제공함에 있다.In addition, the present invention uses a D2 shape distribution and a deep learning-based convolutional neural network (CNN), a 3D printer-based weapon capable of detecting whether a 3D printing model input to a 3D printer is a 3D weapon model with high accuracy. It is to provide a method for preventing production.

본 발명의 목적은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.The objects of the present invention are not limited to those mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

상기와 같은 목적을 달성하기 위한 본 발명에 따른 3차원 프린터 기반 무기 생산 방지 방법은, 3D 프린팅 모델이 입력되면, 상기 3D 프린팅 모델로부터 기하학적 특성을 추출하는 단계; 상기 추출된 기하학적 특성과 향상된 CNN(Convolutional Neural Network)을 기반으로 기학습된 데이터 정보를 통해 상기 3D 프린팅 모델의 유형을 분류하는 단계; 상기 분류된 유형이 무기류에 포함되는지 여부를 확인하는 단계; 및 확인 결과, 상기 분류된 유형이 무기류에 포함되지 않는 경우에는 생산을 실행하고, 상기 분류된 유형이 무기류에 포함되는 경우에는 생산을 비실행하는 단계를 포함한다.A 3D printer-based weapon production prevention method according to the present invention for achieving the above object, when a 3D printing model is input, extracting geometric characteristics from the 3D printing model; Classifying the type of the 3D printing model through pre-trained data information based on the extracted geometric characteristics and an improved convolutional neural network (CNN); Determining whether the classified type is included in a weapon; And, as a result of the verification, when the classified type is not included in the inorganics, production is performed, and when the classified type is included in the inorganics, production is not performed.

본 발명에 의하면, 3D 프린팅을 위한 3D 무기 모델을 검출하여 3D 프린터를 통해 무기가 생산되는 것을 방지할 수 있도록 함으로써, 안전한 3D 프린팅 산업을 구현할 수 있도록 한다.According to the present invention, by detecting a 3D weapon model for 3D printing to prevent the production of weapons through a 3D printer, it is possible to implement a safe 3D printing industry.

또한, 본 발명에 의하면, D2 형상 분포와 딥러닝 기반 CNN을 이용함으로써, 3D 프린터에 입력되는 3D 프린팅 모델이 3D 무기 모델인지 여부를 높은 정확도로 검출할 수 있도록 한다.In addition, according to the present invention, by using a D2 shape distribution and deep learning-based CNN, it is possible to detect whether a 3D printing model input to a 3D printer is a 3D weapon model with high accuracy.

본 발명의 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 특정 무기의 3D 삼각형 메쉬의 구조를 나타내는 도면,
도 2는 본 발명의 실시예에 따른 향상된 CNN 기반 학습을 수행하는 방법을 나타내는 순서도,
도 3은 본 발명의 실시예에 따라 3D 삼각형 메쉬로부터 D2 형상 분포를 계산하는 과정의 일 예를 나타내는 도면,
도 4는 본 발명의 실시예에 따라 D2 형상 분포로부터 구성된 D2 벡터를 나타내는 도면,
도 5는 본 발명의 실시예에 따라 D2 벡터를 향상된 CNN 기반으로 학습하는 과정의 일 예를 나타내는 도면,
도 6a 내지 도 6c는 본 발명의 실시예에 따라 각 유형의 3D 모델에 대한 D2 형상 분포의 히스토그램을 나타내는 도면,
도 7은 본 발명의 실시예에 따른 3차원 프린터 기반 무기 생산 방지 방법을 나타내는 순서도이다.
1 is a diagram showing the structure of a 3D triangular mesh of a specific weapon,
2 is a flowchart illustrating a method for performing enhanced CNN-based learning according to an embodiment of the present invention,
3 is a diagram showing an example of a process of calculating a D2 shape distribution from a 3D triangular mesh according to an embodiment of the present invention;
4 is a diagram showing a D2 vector constructed from D2 shape distribution according to an embodiment of the present invention;
5 is a diagram illustrating an example of a process of learning a D2 vector based on an improved CNN according to an embodiment of the present invention,
6A to 6C are histograms of D2 shape distribution for each type of 3D model according to an embodiment of the present invention;
7 is a flowchart illustrating a method for preventing production of a 3D printer-based weapon according to an embodiment of the present invention.

본 발명의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기증을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. The objectives and effects of the present invention, and technical configurations for achieving them, will be clarified with reference to embodiments described below in detail together with the accompanying drawings. In describing the present invention, when it is determined that a detailed description of known functions or configurations may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted. In addition, terms to be described later are terms defined in consideration of donations in the present invention, which may vary according to a user's or operator's intention or practice.

그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms. Only the present examples are provided to make the disclosure of the present invention complete, and to fully inform the person of ordinary skill in the art to which the present invention pertains, the scope of the invention being defined by the scope of the claims. It just works. Therefore, the definition should be made based on the contents throughout this specification.

한편, 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.On the other hand, in the specification, when a part is "connected" with another part, it is not only "directly connected" but also "indirectly connected" with another member in between. Includes. Also, when a part “includes” a certain component, this means that other components may be further provided instead of excluding other components, unless otherwise stated.

종래에는 3D 모델 매칭 기술을 통해 데이터 베이스에 저장된 3D 모델 중 사용자에 의해 입력되는 3D 모델과 유사한 3D 모델을 검색하였다. 그러나, 이 3D 모델 매칭 기술은 사용자에 의해 입력되는 3D 모델이 데이터 베이스에 저장되어 있지 않은 경우, 잘못된 3D 모델을 검색할 우려가 있을 뿐만 아니라, 그 정확도 또한 낮은 단점이 있다. Conventionally, a 3D model similar to a 3D model input by a user was searched among 3D models stored in a database through 3D model matching technology. However, this 3D model matching technique has a disadvantage in that when a 3D model input by a user is not stored in a database, there is a fear of searching for an incorrect 3D model, and its accuracy is also low.

따라서, 3D 모델 매칭 기술을 통해서는 3D 프린터로 입력되는 3D 프린팅 모델이 3D 무기 모델인지 여부를 검출할 수 없다.Therefore, it is not possible to detect whether the 3D printing model input to the 3D printer is a 3D weapon model through the 3D model matching technology.

사용자는 3D 프린터를 통해 3차원의 입체 물품을 생산하기 위해서 3D 프린터에 3D 프린팅 모델을 입력해야 하는데, 이때, 3D 프린팅 모델은 CAD 소프트웨어에 의해 설계된 3D 삼각형 메쉬이다.The user needs to input a 3D printing model into a 3D printer in order to produce a 3D stereoscopic article through a 3D printer, where the 3D printing model is a 3D triangular mesh designed by CAD software.

도 1은 특정 무기의 3D 삼각형 메쉬의 구조를 나타내는 도면이다.1 is a view showing the structure of a 3D triangular mesh of a specific weapon.

도 1을 참조하면, 3D 삼각형 메쉬는 패싯 세트를 포함한다. 각 패싯은 3개의 정점과 법선 벡터를 포함한다. 각 정점은 x, y 및 z의 세 좌표로 나타난다.Referring to FIG. 1, the 3D triangular mesh includes a facet set. Each facet contains three vertices and a normal vector. Each vertex is represented by three coordinates: x, y and z.

본 발명은 이러한 3D 삼각형 메쉬의 표면에서 얻어진 D2 형상 분포를 인식하고, D2 형상 분포로 구성된 D2 벡터를 향상된 CNN을 기반으로 학습하여 3D 무기 모델을 높은 정확도로 검출한다. 이로써, 3D 프린터를 통해 무기를 생산하는 것을 방지할 수 있도록 하는 것이다.The present invention recognizes the D2 shape distribution obtained from the surface of the 3D triangular mesh, and learns the 3D weapon model with high accuracy by learning the D2 vector composed of the D2 shape distribution based on the improved CNN. Thus, it is possible to prevent the production of a weapon through a 3D printer.

이하에서는 본 발명의 실시예에 따른 3차원 프린터 기반 무기 생산 방지 방법에 대하여 첨부된 도면을 참고하여 구체적으로 설명하기로 한다. Hereinafter, a 3D printer-based weapon production prevention method according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명의 실시예에 따른 향상된 CNN 기반 학습을 수행하는 방법을 나타내는 순서도이다.2 is a flowchart illustrating a method of performing improved CNN-based learning according to an embodiment of the present invention.

먼저, 무기류 및 비무기류에 대한 3D 프린팅 모델, 즉, 3D 삼각형 메쉬를 수집하고, 그 수집된 3D 삼각형 메쉬들을 기반으로 향상된 CNN 기반 학습을 수행한다.First, 3D printing models for weapons and non-weapons, that is, 3D triangular meshes are collected, and improved CNN-based learning is performed based on the collected 3D triangular meshes.

도 2를 참조하면, 3D 삼각형 메쉬가 입력되면, 그 입력된 3D 삼각형 메쉬에서 패싯과 꼭지점을 추출하여 두 개의 임의의 점을 N 쌍 생성한다(S201). 여기서, 두 개의 임의의 점 쌍은 3D 삼각형 메쉬의 정점을 포함하는 3D 삼각형 메쉬의 표면상의 점에서 임의로 선택된다.Referring to FIG. 2, when a 3D triangular mesh is input, N pairs of two arbitrary points are generated by extracting facets and vertices from the input 3D triangular mesh (S201). Here, the two arbitrary point pairs are randomly selected from points on the surface of the 3D triangular mesh including the vertices of the 3D triangular mesh.

이후, 상기 S201단계에서 생성된 N쌍의 두 개의 임의의 점으로부터 거리를 계산하고(S203), 그 계산된 거리를 통해 3D 삼각형 메쉬의 D2 형상 분포를 계산한다(S205). S205단계에서 D2 형상 분포를 계산한 이후, D2 형상 분포의 히스토그램으로부터 D2 벡터를 구성한다(S207). Thereafter, a distance is calculated from two arbitrary points of N pairs generated in step S201 (S203), and a D2 shape distribution of the 3D triangular mesh is calculated through the calculated distance (S205). After calculating the D2 shape distribution in step S205, a D2 vector is constructed from the histogram of the D2 shape distribution (S207).

한편, 이 D2 벡터를 통해 유형을 분류하고(S209), 그 분류된 동일한 유형에서 D2 벡터의 유사 정도에 따라 가중치를 갱신한다(S211). 이를 통해 D2 벡터에 대한 학습 결과가 개선될 수 있다.Meanwhile, the type is classified through the D2 vector (S209), and the weight is updated according to the similarity degree of the D2 vector in the classified same type (S211). Through this, the learning result for the D2 vector can be improved.

이하에서는 도 3 내지 도 5를 참조하여, 도 2에서 설명한 각 단계에 대해 구체적으로 설명하도록 한다.Hereinafter, each step described in FIG. 2 will be described in detail with reference to FIGS. 3 to 5.

도 3은 본 발명의 실시예에 따라 3D 삼각형 메쉬로부터 D2 형상 분포를 계산하는 과정의 일 예를 나타내는 도면이다.3 is a diagram illustrating an example of a process of calculating a D2 shape distribution from a 3D triangular mesh according to an embodiment of the present invention.

3D 삼각형 메쉬의 D2 형상 분포는 3D 삼각형 메쉬의 표면에 있는 임의의 두 점 집합으로부터 계산된 거리 집합의 분포로써, 3D 삼각형 메쉬로부터 D2 형상 분포를 계산하기 위해서는, 먼저 3D 삼각형 메쉬의 표면에 두 개의 임의의 점을 N 쌍 생성한 후, 그 N 쌍으로부터 거리를 계산한다.The D2 shape distribution of a 3D triangle mesh is a distribution of a set of distances calculated from any two sets of points on the surface of the 3D triangle mesh. To calculate the D2 shape distribution from a 3D triangle mesh, first, two surfaces of the 3D triangle mesh are After generating N pairs of random points, calculate the distance from the N pairs.

앞서 설명한 바와 같이, 3D 삼각형 메쉬는 삼각형 집합을 포함하는데, 그 각각의 삼각형에는 세 개의 꼭지점이 있다. 즉, 3D 삼각형 메쉬 M = {V, F}를 고려한다. 여기서, V는 정점들의 집합이고, F는 패싯들의 집합으로, 하기 <수학식 1>과 같이 나타낼 수 있다.As described above, the 3D triangular mesh includes a set of triangles, each of which has three vertices. That is, consider 3D triangular mesh M = {V, F}. Here, V is a set of vertices, F is a set of facets, and can be expressed as Equation 1 below.

<수학식 1><Equation 1>

Figure pat00001
Figure pat00001

Figure pat00002
Figure pat00002

여기서,

Figure pat00003
Figure pat00004
로부터 형성된다.here,
Figure pat00003
The
Figure pat00004
Is formed from.

한편, 정점들의 집합과 패싯들의 집합으로부터 두 개의 임의의 점을 N쌍 생성하며, 하기 <수학식 2>와 같이 나타낼 수 있다.Meanwhile, N pairs of two arbitrary points are generated from a set of vertices and a set of facets, and can be expressed as Equation 2 below.

<수학식 2><Equation 2>

Figure pat00005
Figure pat00005

여기서,

Figure pat00006
는 {V, F}에서 임의로 선택된 두 점이다.here,
Figure pat00006
Are two randomly selected points in {V, F}.

한편, N 쌍의 두 개의 임의의 점으로부터 거리의 집합

Figure pat00007
을 계산하며, 여기서,
Figure pat00008
Figure pat00009
사이의 유클리드 거리이며, 하기 <수학식 3>과 같이 나타낼 수 있다.On the other hand, a set of distances from two random points of N pairs
Figure pat00007
Calculate, where:
Figure pat00008
The
Figure pat00009
It is the Euclidean distance between and can be expressed as <Equation 3> below.

<수학식 3><Equation 3>

Figure pat00010
Figure pat00010

Figure pat00011
Figure pat00011

다음으로 거리의 값 범위를 결정하기 위해 이 거리 집합에서 최소 거리 및 최대 거리를 찾는다. 이 최소 거리 및 최대 거리를 각각

Figure pat00012
Figure pat00013
라 가정하면, 하기 <수학식 4>와 같이 나타낼 수 있다.Next, find the minimum and maximum distances in this set of distances to determine the range of values for the distance. This minimum distance and maximum distance respectively
Figure pat00012
And
Figure pat00013
Assuming D, it can be expressed as Equation 4 below.

<수학식 4><Equation 4>

Figure pat00014
Figure pat00014

Figure pat00015
Figure pat00015

이후, (

Figure pat00016
,
Figure pat00017
)를 B빈으로 나눔으로써 3D 삼각형 메쉬의 D2 형상 분포를 계산하고, 각 빈에 속하는 거리의 수를 센다. 각각의 빈의 평균 폭 및 각 빈의 값 범위는 하기 <수학식 5>와 같이 나타낼 수 있다.<수학식 5>after, (
Figure pat00016
,
Figure pat00017
) Is divided by B bin to calculate the D2 shape distribution of the 3D triangular mesh and count the number of distances belonging to each bin. The average width of each bin and the value range of each bin can be expressed as Equation 5 below.

Figure pat00018
Figure pat00018

Figure pat00019
Figure pat00019

Figure pat00020
Figure pat00020

각 빈

Figure pat00021
는 상응하는
Figure pat00022
거리를 갖는다고 가정한다. 따라서, 3D 삼각형 메쉬의 D2 형상 분포는 하기 <수학식 6>과 같이 B빈들로 표현되고, 각 빈
Figure pat00023
Figure pat00024
거리를 갖는다.Each blank
Figure pat00021
Is equivalent
Figure pat00022
Assume you have a distance. Therefore, the D2 shape distribution of the 3D triangular mesh is represented by B bins as shown in <Equation 6> below, and each bin
Figure pat00023
The
Figure pat00024
Have a distance

<수학식 6><Equation 6>

Figure pat00025
Figure pat00025

Figure pat00026
를 각 빈
Figure pat00027
의 대표 값으로 간주하면 상기 <수학식 6>은 하기 <수학식 7>과 같이 된다.
Figure pat00026
Each bin
Figure pat00027
Regarding as a representative value of <Equation 6> is as follows <Equation 7>.

<수학식 7><Equation 7>

Figure pat00028
Figure pat00028

도 4는 본 발명의 실시예에 따라 D2 형상 분포로부터 구성된 D2 벡터를 나타내는 도면이다.4 is a diagram showing a D2 vector constructed from a D2 shape distribution according to an embodiment of the present invention.

앞서 설명한 바와 같이, D2 형상 분포를 계산한 이후, D2 형상 분포의 히스토그램으로부터 D2 벡터를 구성한다.As described above, after calculating the D2 shape distribution, the D2 vector is constructed from the histogram of the D2 shape distribution.

빈(bin)의 개수는 해당 D2 벡터의 요소 수이다. 따라서, D2 벡터는 B 요소 집합이며, 하기 <수학식 8>에 의해 계산된다.The number of bins is the number of elements in the corresponding D2 vector. Accordingly, the D2 vector is a set of B elements, and is calculated by Equation 8 below.

<수학식 8><Equation 8>

Figure pat00029
Figure pat00029

Figure pat00030
Figure pat00030

여기서,

Figure pat00031
는 빈
Figure pat00032
에 있는 거리의 수이다.도 5는 본 발명의 실시예에 따라 D2 벡터를 향상된 CNN 기반으로 학습하는 과정의 일 예를 나타내는 도면이다.here,
Figure pat00031
Is empty
Figure pat00032
5 is a diagram illustrating an example of a process of learning a D2 vector based on an improved CNN according to an embodiment of the present invention.

D2 벡터는 향상된 CNN을 기반으로 학습이 수행되는데, 여기서 향상된 CNN의 구조는 도 5에 도시된 바와 같이 하나의 컨볼루션 레이어(convolution layer)과 신경망(neural network)로 구성된다.The D2 vector is trained based on the enhanced CNN, where the structure of the enhanced CNN consists of one convolution layer and a neural network, as shown in FIG. 5.

컨볼루션 레이어의 입력은 D2 벡터이고, 각각의 D2 벡터는 B개의 이산 요소들의 집합이며, 컨볼루션 레이어의 출력은 신경망을 위한 입력 뉴런이다.The input of the convolution layer is a D2 vector, each D2 vector is a set of B discrete elements, and the output of the convolution layer is an input neuron for a neural network.

Figure pat00033
은 컨볼루셔널 레이어의 컨볼루션 함수이고,
Figure pat00034
은 컨볼루션 프로세스의 출력이라고 가정하면, 입력 뉴런
Figure pat00035
은 하기 <수학식 9>와 같이 나타낼 수 있다.
Figure pat00033
Is the convolution function of the convolutional layer,
Figure pat00034
Assuming is the output of the convolution process, the input neuron
Figure pat00035
Can be expressed as <Equation 9> below.

<수학식 9><Equation 9>

Figure pat00036
Figure pat00036

Figure pat00037
Figure pat00037

여기서, g는 컨볼루션의 커널(kernel)이고, m은 g의 길이이다.Here, g is the kernel of convolution, and m is the length of g.

신경망에 의한 훈련 과정에서는 역 전파 알고리즘을 사용하여 입력 뉴런

Figure pat00038
을 학습한다. 역 전파 알고리즘은 순방향 통과, 손실 함수, 역방향 통과 및 가중치 갱신의 네 가지 섹션으로 구분된다. 순방향 통과 동안
Figure pat00039
은 전체 네트워크를 통과한다. 하이퍼볼릭 탄젠트 함수는 히든 레이어(Hidden Layer)에 활성 함수로 적용되고, 소프트-맥스(soft-max) 함수는 출력 레이어(Output Layer)에 활성 함수로 적용된다. 손실 함수는 신경망의 출력 오류를 계산하는데 사용된다. 목표 출력과 실제 출력에서 계산된다. 손실 함수는 다양한 방법으로 정의할 수 있지만 MSE(Mean Squared Error)가 일반적이다. 신경망은 MSE 함수에 의해 계산된 오차에 기초하여 역방향 통과 및 가중치 갱신 프로세스를 통해 히든 레이어의 가중치 및 바이어스를 조정하고 갱신한다.In the course of training by neural networks, input neurons are used using the inverse propagation algorithm.
Figure pat00038
To learn. The back propagation algorithm is divided into four sections: forward pass, loss function, reverse pass and weight update. During forward passage
Figure pat00039
Goes through the entire network. The hyperbolic tangent function is applied to the hidden layer as an active function, and the soft-max function is applied to the output layer as an active function. The loss function is used to calculate the output error of the neural network. It is calculated from the target output and actual output. The loss function can be defined in various ways, but Mean Squared Error (MSE) is common. The neural network adjusts and updates the weight and bias of the hidden layer through a reverse pass and weight update process based on the error calculated by the MSE function.

도 6a 내지 도 6c는 본 발명의 실시예에 따라 각 유형의 3D 모델에 대한 D2 형상 분포의 히스토그램을 나타내는 도면으로, 도 6a 및 도 6b는 모두 무기류에 대한 것으로 각각 총기류 및 나이프류의 3D 모델에 대한 D2 형상 분포의 히스토그램이고, 도 6c는 비무기류에 대한 것으로 비행기, 교회, 배트맨 형상을 갖는 입체 물품의 3D 모델에 대한 D2 형상 분포의 히스토그램이다.6A to 6C are histograms of D2 shape distribution for each type of 3D model according to an embodiment of the present invention, and FIGS. 6A and 6B are all for weapons, respectively, for 3D models of firearms and knives. Is a histogram of the D2 shape distribution for, and FIG. 6C is a histogram of the D2 shape distribution for a 3D model of a three-dimensional article having a plane, church, and Batman shape as for non-weapon.

도 6a 내지 도 6c를 참조하면, 동일한 유형의 3D 모델들이라 하더라도 3D 삼각형 메쉬에 있는 패싯의 수, 면의 수 등이 서로 상이한 것을 확인할 수 있다. 그러나, 동일한 유형의 3D 모델의 D2 형상 분포는 모두 유사한 것을 확인할 수 있는 바, 이는 즉, 동일한 유형의 각 3D 삼각형 메쉬의 D2 벡터가 유사하다는 것을 의미한다. 또한, 상이한 유형 별, 즉, 무기류 모델 및 비무기류 모델의 D2 형상 분포가 서로 상이한 것을 확인할 수 있는 바, 이는 즉, 무기류 모델 및 비무기류 모델의 D2 벡터가 상이하다는 것을 의미한다. 한편, 동일한 유형에서 D2 벡터가 유사한 경우, 학습의 결과는 개선된다.6A to 6C, it can be seen that even if 3D models of the same type, the number of facets, the number of faces, and the like in the 3D triangular mesh are different from each other. However, it can be confirmed that all D2 shape distributions of the same type of 3D model are similar, which means that the D2 vectors of each 3D triangular mesh of the same type are similar. In addition, it can be confirmed that the D2 shape distributions of different types, that is, the inorganic model and the non-inorganic model are different from each other, which means that the D2 vectors of the inorganic and non-inorganic models are different. On the other hand, if the D2 vectors in the same type are similar, the result of learning is improved.

즉, D2 형상 분포로 구성된 D2 벡터를 향상된 CNN을 기반으로 학습하여 이용함으로써, 3D 프린터에 입력되는 3D 프린팅 모델이 무기류인지 비무기류인지 여부를 검출할 수 있다.That is, by learning and using a D2 vector composed of a D2 shape distribution based on an improved CNN, it is possible to detect whether a 3D printing model input to a 3D printer is a weapon or a non-weapon.

도 7은 본 발명의 실시예에 따른 3차원 프린터 기반 무기 생산 방지 방법을 나타내는 순서도이다.7 is a flowchart illustrating a method for preventing production of a 3D printer-based weapon according to an embodiment of the present invention.

3D 프린터에 3D 프린팅 모델, 즉, 3D 삼각형 메쉬가 입력되면(S701), 그 입력된 3D 삼각형 메쉬에서 패싯과 꼭지점을 추출하여 두 개의 임의의 점을 N 쌍 생성한다(S703). 여기서, 두 개의 임의의 점 쌍은 3D 삼각형 메쉬의 정점을 포함하는 3D 삼각형 메쉬의 표면상의 점에서 임의로 선택된다.When a 3D printing model, that is, a 3D triangle mesh, is input to the 3D printer (S701), N pairs of two arbitrary points are generated by extracting facets and vertices from the input 3D triangle mesh (S703). Here, the two arbitrary point pairs are randomly selected from points on the surface of the 3D triangular mesh including the vertices of the 3D triangular mesh.

이후, 상기 S702단계에서 생성된 N쌍의 두 개의 임의의 점으로부터 거리를 계산하고(S705), 그 계산된 거리를 통해 3D 삼각형 메쉬의 D2 형상 분포를 계산한다(S707). S705단계에서 D2 형상 분포를 계산한 이후, D2 형상 분포의 히스토그램으로부터 D2 벡터를 구성한다(S709).Thereafter, a distance is calculated from two arbitrary points of N pairs generated in step S702 (S705), and a D2 shape distribution of the 3D triangular mesh is calculated through the calculated distance (S707). After calculating the D2 shape distribution in step S705, a D2 vector is constructed from the histogram of the D2 shape distribution (S709).

이 D2 벡터와 향상된 CNN을 기반으로 기학습된 데이터를 통해 유형을 분류한다(S711). 즉, S701단계에서 입력된 3D 프린팅 모델이 어떤 유형의 모델인지를 분류하는 것이다.Based on the D2 vector and the improved CNN, the type is classified through pre-trained data (S711). That is, it is to classify what type of model the 3D printing model input in step S701.

이후, 그 분류 결과를 통해 3D 프린팅 모델이 무기류인지 여부를 판단한다(S713).Thereafter, it is determined whether the 3D printing model is a weapon through the classification result (S713).

한편, S713단계에서의 판단 결과, 3D 프린팅 모델이 비무기류인 것으로 판단된 경우에는 생산을 실행하고(S715), 3D 프린팅 모델이 무기류인 것으로 판단된 경우에는 생산을 비실행한다(S717).On the other hand, as a result of the determination in step S713, when it is determined that the 3D printing model is non-inorganic, production is performed (S715), and when it is determined that the 3D printing model is weapon, non-production is performed (S717).

따라서, 본 발명은 3D 프린팅 모델의 기하학적 특징을 기반으로 그 3D 프린팅 모델이 무기류인지 여부를 판단함으로써, 3D 프린터를 통해 무기류가 생산되는 것을 방지할 수 있도록 한다.Accordingly, the present invention is to determine whether the 3D printing model is a weapon based on the geometric characteristics of the 3D printing model, thereby preventing the production of weapons through the 3D printer.

본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.In the present specification and drawings, preferred embodiments of the present invention have been disclosed, and although specific terms are used, they are merely used in a general sense to easily describe the technical contents of the present invention and to understand the present invention. It is not intended to limit the scope. It is apparent to those skilled in the art to which the present invention pertains that other modifications based on the technical spirit of the present invention can be implemented in addition to the embodiments disclosed herein.

Claims (4)

3차원 프린터 기반 무기 생산 방지 방법에 있어서,
3D 프린팅 모델이 입력되면, 상기 3D 프린팅 모델로부터 기하학적 특성을 추출하는 단계;
상기 추출된 기하학적 특성과 향상된 CNN(Convolutional Neural Network)을 기반으로 기학습된 데이터 정보를 통해 상기 3D 프린팅 모델의 유형을 분류하는 단계;
상기 분류된 유형이 무기류에 포함되는지 여부를 확인하는 단계; 및
확인 결과, 상기 분류된 유형이 무기류에 포함되지 않는 경우에는 생산을 실행하고, 상기 분류된 유형이 무기류에 포함되는 경우에는 생산을 비실행하는 단계를 포함하는 것을 특징으로 하는 3차원 프린터 기반 무기 생산 방지 방법.
In the 3D printer-based weapon production prevention method,
When a 3D printing model is input, extracting geometric characteristics from the 3D printing model;
Classifying the type of the 3D printing model through pre-trained data information based on the extracted geometric characteristics and an improved convolutional neural network (CNN);
Determining whether the classified type is included in a weapon; And
As a result of the check, when the classified type is not included in the weaponry, the production is performed, and when the classified type is included in the weaponry, the production is not performed. Way.
제1항에 있어서,
상기 3D 프린팅 모델로부터 기하학적 특성을 추출하는 단계는,
상기 3D 프린팅 모델에서 N쌍의 두 개의 임의의 점을 생성하는 단계;
상기 N쌍의 두 개의 임의의 점으로부터 거리를 계산하는 단계;
상기 계산된 거리를 통해 D2 형상 분포를 계산하는 단계; 및
상기 D2 형상 분포의 히스토그램으로부터 D2 벡터를 구성하는 단계를 포함하는 것을 특징으로 하는 3차원 프린터 기반 무기 생산 방지 방법.
According to claim 1,
Extracting the geometric properties from the 3D printing model,
Generating two arbitrary points of N pairs in the 3D printing model;
Calculating a distance from the two arbitrary points of the N pair;
Calculating a D2 shape distribution through the calculated distance; And
And constructing a D2 vector from the histogram of the D2 shape distribution.
제2항에 있어서,
상기 N쌍의 두 개의 임의의 점은,
상기 3D 프린팅 모델의 정점을 포함하는 3D 프린팅 모델의 표면 상의 점에서 임의로 선택되는 것을 특징으로 하는 3차원 프린터 기반 무기 생산 방지 방법.
According to claim 2,
The two arbitrary points of the N pair,
A method for preventing production of a weapon based on a 3D printer, characterized in that it is randomly selected from points on a surface of a 3D printing model including the vertices of the 3D printing model.
제2항에 있어서,
상기 D2 형상 분포는,
상기 3D 프린팅 모델의 표면에 있는 임의의 두 점 집합으로부터 계산된 거리 집합의 분포인 것을 특징으로 하는 3차원 프린터 기반 무기 생산 방지 방법.
According to claim 2,
The D2 shape distribution,
A 3D printer-based weapon production prevention method, characterized in that it is a distribution of a set of distances calculated from a set of arbitrary two points on the surface of the 3D printing model.
KR1020180150053A 2018-11-28 2018-11-28 Method for preventing the production of weapons based on three-dimensional printers KR102159947B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180150053A KR102159947B1 (en) 2018-11-28 2018-11-28 Method for preventing the production of weapons based on three-dimensional printers

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180150053A KR102159947B1 (en) 2018-11-28 2018-11-28 Method for preventing the production of weapons based on three-dimensional printers

Publications (2)

Publication Number Publication Date
KR20200068777A true KR20200068777A (en) 2020-06-16
KR102159947B1 KR102159947B1 (en) 2020-09-28

Family

ID=71141523

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180150053A KR102159947B1 (en) 2018-11-28 2018-11-28 Method for preventing the production of weapons based on three-dimensional printers

Country Status (1)

Country Link
KR (1) KR102159947B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4739507B2 (en) * 2000-11-29 2011-08-03 株式会社アスペクト 3D modeling equipment
JP5071114B2 (en) * 2008-01-09 2012-11-14 ソニー株式会社 Stereolithography apparatus and stereolithography method
JP6075809B2 (en) * 2013-07-29 2017-02-08 Necソリューションイノベータ株式会社 3D printer device, 3D printing method, and manufacturing method of three-dimensional structure
KR101898580B1 (en) * 2018-01-22 2018-09-13 주식회사 뷰노 Method for facilitating image view and apparatus using the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4739507B2 (en) * 2000-11-29 2011-08-03 株式会社アスペクト 3D modeling equipment
JP5071114B2 (en) * 2008-01-09 2012-11-14 ソニー株式会社 Stereolithography apparatus and stereolithography method
JP6075809B2 (en) * 2013-07-29 2017-02-08 Necソリューションイノベータ株式会社 3D printer device, 3D printing method, and manufacturing method of three-dimensional structure
KR101898580B1 (en) * 2018-01-22 2018-09-13 주식회사 뷰노 Method for facilitating image view and apparatus using the same

Also Published As

Publication number Publication date
KR102159947B1 (en) 2020-09-28

Similar Documents

Publication Publication Date Title
WO2015015554A1 (en) 3d printer device, 3d printing method and method for manufacturing stereolithography product
Drews et al. Novelty detection and 3d shape retrieval using superquadrics and multi-scale sampling for autonomous mobile robots
Zhang et al. An Improved Fuzzy c‐Means Clustering Algorithm Based on Shadowed Sets and PSO
KR20190126857A (en) Detect and Represent Objects in Images
Toda et al. Multilayer batch learning growing neural gas for learning multiscale topologies
Parvin et al. A heuristic scalable classifier ensemble of binary classifier ensembles
CN103136540B (en) A kind of Activity recognition method based on implicit structure reasoning
Punhani et al. Binning-based silhouette approach to find the optimal cluster using K-means
Song et al. Boundary‐enhanced supervoxel segmentation for sparse outdoor LiDAR data
Xiang et al. FastLCD: A fast and compact loop closure detection approach using 3D point cloud for indoor mobile mapping
Mizutani et al. Algorithms of nonlinear document clustering based on fuzzy multiset model
Pathiraja et al. Multiclass confidence and localization calibration for object detection
KR102159947B1 (en) Method for preventing the production of weapons based on three-dimensional printers
US10922811B2 (en) Object differentiation and identification
Bauckhage et al. Joint selection of central and extremal prototypes based on kernel minimum enclosing balls
Choi et al. Angular‐partitioned spin image descriptor for robust 3D facial landmark detection
Yu et al. Dynamic granularity matrix space based adaptive edge detection method for structured light stripes
Gharaibeh et al. Target classification in wireless sensor network using particle swarm optimization (PSO)
CN114359381A (en) Robot, obstacle detection method, obstacle detection device, computer device, and storage medium
Himmelspach et al. The effect of noise and outliers on fuzzy clustering of high dimensional data
Mhamdi et al. 3D object recognition through a size function resulting from an invariant topological feature
Das et al. Formation of a compact reduct set based on discernibility relation and attribute dependency of rough set theory
Verma et al. Refined Clustering of Software Components by Using K-Mean and Neural Network
Yao et al. On a type-2 fuzzy clustering algorithm
Yu et al. Place recognition based on surface graph for a mobile robot

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant