KR102159947B1 - 3차원 프린터 기반 무기 생산 방지 방법 - Google Patents

3차원 프린터 기반 무기 생산 방지 방법 Download PDF

Info

Publication number
KR102159947B1
KR102159947B1 KR1020180150053A KR20180150053A KR102159947B1 KR 102159947 B1 KR102159947 B1 KR 102159947B1 KR 1020180150053 A KR1020180150053 A KR 1020180150053A KR 20180150053 A KR20180150053 A KR 20180150053A KR 102159947 B1 KR102159947 B1 KR 102159947B1
Authority
KR
South Korea
Prior art keywords
printing model
production
model
printer
printing
Prior art date
Application number
KR1020180150053A
Other languages
English (en)
Other versions
KR20200068777A (ko
Inventor
권기룡
녹 자오 팜
Original Assignee
부경대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 부경대학교 산학협력단 filed Critical 부경대학교 산학협력단
Priority to KR1020180150053A priority Critical patent/KR102159947B1/ko
Publication of KR20200068777A publication Critical patent/KR20200068777A/ko
Application granted granted Critical
Publication of KR102159947B1 publication Critical patent/KR102159947B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C64/00Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
    • B29C64/30Auxiliary operations or equipment
    • B29C64/386Data acquisition or data processing for additive manufacturing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B33ADDITIVE MANUFACTURING TECHNOLOGY
    • B33YADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
    • B33Y50/00Data acquisition or data processing for additive manufacturing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Abstract

본 발명은 3차원 프린터 기반 무기 생산 방지 방법에 관한 것으로, 더욱 상세하게는 3D 프린팅 모델이 입력되면, 상기 3D 프린팅 모델로부터 기하학적 특성을 추출하는 단계; 상기 추출된 기하학적 특성과 향상된 CNN(Convolutional Neural Network)을 기반으로 기학습된 데이터 정보를 통해 상기 3D 프린팅 모델의 유형을 분류하는 단계; 상기 분류된 유형이 무기류에 포함되는지 여부를 확인하는 단계; 및 확인 결과, 상기 분류된 유형이 무기류에 포함되지 않는 경우에는 생산을 실행하고, 상기 분류된 유형이 무기류에 포함되는 경우에는 생산을 비실행하는 단계를 포함한다.

Description

3차원 프린터 기반 무기 생산 방지 방법{METHOD FOR PREVENTING THE PRODUCTION OF WEAPONS BASED ON THREE-DIMENSIONAL PRINTERS}
본 발명은 3차원 프린터 기반 무기 생산 방지 방법에 관한 것으로, 보다 상세하게는 3D(Three-Dimensional) 프린팅을 위한 3D 무기 모델을 검출하여 3D 프린터를 통한 무기 생산을 방지할 수 있도록 하는 3차원 프린터 기반 무기 생산 방지 방법에 관한 것이다.
3D 프린터의 개발과 함께 생산 관리자의 제한없이 무기를 쉽게 프린트할 수 있다.
3D 프린팅의 혁명은 사용자가 3D 프린터를 사용하여 디지털 모델을 통해 아이디어를 실현하는 데 도움이 될 수 있다. 보석, 신발류, 산업 디자인, 건축, 엔지니어링 및 건설, 자동차, 항공 우주, 의료 및 건강 관리 산업, 교육 및 소비자 제품을 비롯한 다양한 생활 영역에서 3 차원 인쇄가 사용되고 있다. 3D 프린팅 기술의 개발로 사람들은 화기, 총기 및 칼과 같은 3D 무기 모델을 검색하여 가정용 3D 프린터로 실제 3D 물체를 인쇄하거나 무제한으로 공유할 수 있다. 특히 신소재를 사용하면 사용자는 위험한 무기를 인쇄할 수 있으며 피해를 주기 위해 사용할 수 있다. 이것은 누구나 위험한 무기를 인쇄할 수 있기 때문에 3D 프린터 보안에 대한 우려로 이어진다.
지금까지 3D 프린터로 제작된 무기의 위험성이 입증되었지만, 3D 프린터 무기의 위험성에 대한 걱정은 이제 막 고려 사항 및 정책으로 형성되기 시작했다. 연구자들은 3D 무기 모델의 프린트를 제한하는 방법의 측면에 대해서는 아직 관심이 없으며, 3D 프린트 업계에서 3D 무기 모델 인쇄를 중단할 해결책이 없다. 공항이나 빌딩과 같은 특별한 장소에서 감시 시스템이나 보안 시스템에 적용된 이미지 처리 방법을 기반으로 한 권총 탐지 기술은 안전한 3D 프린터에 적용할 수 없다. 3D 프린터의 입력은 3D 프린팅 모델이므로 이미지가 아니다.
또한, 3D 모델 매칭 기술은 3D 무기 모델의 프린트를 방지하기 위해 안전한 3D 프린팅에도 적용할 수 없다. 이는 3D 모델 매칭 기술이 3D 모델의 데이터베이스에 액세스하여 결정을 내리지 않으면 안되기 때문이다. 모델 유형의 샘플 모델이 3D 모델의 데이터베이스에 저장되지 않으면 3D 모델 매칭 기술로 쿼리 할 때 입력 모델이 어떤 모델과도 일치하지 않는다.
따라서, 안전한 3D 프린팅 산업을 위해서는 3D 프린팅을 위한 3D 무기 모델을 검출할 수 있도록 하는 기술이 개발될 필요가 있다.
따라서, 본 발명은 상기한 바와 같은 문제점을 해결하기 위하여 제안된 것으로, 3D 프린팅을 위한 3D 무기 모델을 검출하여 3D 프린터를 통해 무기가 생산되는 것을 방지할 수 있도록 함으로써, 안전한 3D 프린팅 산업을 구현할 수 있도록 하는 3차원 프린터 기반 무기 생산 방지 방법을 제공함에 있다.
또한, 본 발명은 D2 형상 분포와 딥러닝 기반 CNN(Convolutional Neural Network)을 이용함으로써, 3D 프린터에 입력되는 3D 프린팅 모델이 3D 무기 모델인지 여부를 높은 정확도로 검출할 수 있도록 하는 3차원 프린터 기반 무기 생산 방지 방법을 제공함에 있다.
본 발명의 목적은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 3차원 프린터 기반 무기 생산 방지 방법은, 3D 프린팅 모델이 입력되면, 상기 3D 프린팅 모델로부터 기하학적 특성을 추출하는 단계; 상기 추출된 기하학적 특성과 향상된 CNN(Convolutional Neural Network)을 기반으로 기학습된 데이터 정보를 통해 상기 3D 프린팅 모델의 유형을 분류하는 단계; 상기 분류된 유형이 무기류에 포함되는지 여부를 확인하는 단계; 및 확인 결과, 상기 분류된 유형이 무기류에 포함되지 않는 경우에는 생산을 실행하고, 상기 분류된 유형이 무기류에 포함되는 경우에는 생산을 비실행하는 단계를 포함한다.
본 발명에 의하면, 3D 프린팅을 위한 3D 무기 모델을 검출하여 3D 프린터를 통해 무기가 생산되는 것을 방지할 수 있도록 함으로써, 안전한 3D 프린팅 산업을 구현할 수 있도록 한다.
또한, 본 발명에 의하면, D2 형상 분포와 딥러닝 기반 CNN을 이용함으로써, 3D 프린터에 입력되는 3D 프린팅 모델이 3D 무기 모델인지 여부를 높은 정확도로 검출할 수 있도록 한다.
본 발명의 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 특정 무기의 3D 삼각형 메쉬의 구조를 나타내는 도면,
도 2는 본 발명의 실시예에 따른 향상된 CNN 기반 학습을 수행하는 방법을 나타내는 순서도,
도 3은 본 발명의 실시예에 따라 3D 삼각형 메쉬로부터 D2 형상 분포를 계산하는 과정의 일 예를 나타내는 도면,
도 4는 본 발명의 실시예에 따라 D2 형상 분포로부터 구성된 D2 벡터를 나타내는 도면,
도 5는 본 발명의 실시예에 따라 D2 벡터를 향상된 CNN 기반으로 학습하는 과정의 일 예를 나타내는 도면,
도 6a 내지 도 6c는 본 발명의 실시예에 따라 각 유형의 3D 모델에 대한 D2 형상 분포의 히스토그램을 나타내는 도면,
도 7은 본 발명의 실시예에 따른 3차원 프린터 기반 무기 생산 방지 방법을 나타내는 순서도이다.
본 발명의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기증을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다.
그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
한편, 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.
종래에는 3D 모델 매칭 기술을 통해 데이터 베이스에 저장된 3D 모델 중 사용자에 의해 입력되는 3D 모델과 유사한 3D 모델을 검색하였다. 그러나, 이 3D 모델 매칭 기술은 사용자에 의해 입력되는 3D 모델이 데이터 베이스에 저장되어 있지 않은 경우, 잘못된 3D 모델을 검색할 우려가 있을 뿐만 아니라, 그 정확도 또한 낮은 단점이 있다.
따라서, 3D 모델 매칭 기술을 통해서는 3D 프린터로 입력되는 3D 프린팅 모델이 3D 무기 모델인지 여부를 검출할 수 없다.
사용자는 3D 프린터를 통해 3차원의 입체 물품을 생산하기 위해서 3D 프린터에 3D 프린팅 모델을 입력해야 하는데, 이때, 3D 프린팅 모델은 CAD 소프트웨어에 의해 설계된 3D 삼각형 메쉬이다.
도 1은 특정 무기의 3D 삼각형 메쉬의 구조를 나타내는 도면이다.
도 1을 참조하면, 3D 삼각형 메쉬는 패싯 세트를 포함한다. 각 패싯은 3개의 정점과 법선 벡터를 포함한다. 각 정점은 x, y 및 z의 세 좌표로 나타난다.
본 발명은 이러한 3D 삼각형 메쉬의 표면에서 얻어진 D2 형상 분포를 인식하고, D2 형상 분포로 구성된 D2 벡터를 향상된 CNN을 기반으로 학습하여 3D 무기 모델을 높은 정확도로 검출한다. 이로써, 3D 프린터를 통해 무기를 생산하는 것을 방지할 수 있도록 하는 것이다.
이하에서는 본 발명의 실시예에 따른 3차원 프린터 기반 무기 생산 방지 방법에 대하여 첨부된 도면을 참고하여 구체적으로 설명하기로 한다.
도 2는 본 발명의 실시예에 따른 향상된 CNN 기반 학습을 수행하는 방법을 나타내는 순서도이다.
먼저, 무기류 및 비무기류에 대한 3D 프린팅 모델, 즉, 3D 삼각형 메쉬를 수집하고, 그 수집된 3D 삼각형 메쉬들을 기반으로 향상된 CNN 기반 학습을 수행한다.
도 2를 참조하면, 3D 삼각형 메쉬가 입력되면, 그 입력된 3D 삼각형 메쉬에서 패싯과 꼭지점을 추출하여 두 개의 임의의 점을 N 쌍 생성한다(S201). 여기서, 두 개의 임의의 점 쌍은 3D 삼각형 메쉬의 정점을 포함하는 3D 삼각형 메쉬의 표면상의 점에서 임의로 선택된다.
이후, 상기 S201단계에서 생성된 N쌍의 두 개의 임의의 점으로부터 거리를 계산하고(S203), 그 계산된 거리를 통해 3D 삼각형 메쉬의 D2 형상 분포를 계산한다(S205). S205단계에서 D2 형상 분포를 계산한 이후, D2 형상 분포의 히스토그램으로부터 D2 벡터를 구성한다(S207).
한편, 이 D2 벡터를 통해 유형을 분류하고(S209), 그 분류된 동일한 유형에서 D2 벡터의 유사 정도에 따라 가중치를 갱신한다(S211). 이를 통해 D2 벡터에 대한 학습 결과가 개선될 수 있다.
이하에서는 도 3 내지 도 5를 참조하여, 도 2에서 설명한 각 단계에 대해 구체적으로 설명하도록 한다.
도 3은 본 발명의 실시예에 따라 3D 삼각형 메쉬로부터 D2 형상 분포를 계산하는 과정의 일 예를 나타내는 도면이다.
3D 삼각형 메쉬의 D2 형상 분포는 3D 삼각형 메쉬의 표면에 있는 임의의 두 점 집합으로부터 계산된 거리 집합의 분포로써, 3D 삼각형 메쉬로부터 D2 형상 분포를 계산하기 위해서는, 먼저 3D 삼각형 메쉬의 표면에 두 개의 임의의 점을 N 쌍 생성한 후, 그 N 쌍으로부터 거리를 계산한다.
앞서 설명한 바와 같이, 3D 삼각형 메쉬는 삼각형 집합을 포함하는데, 그 각각의 삼각형에는 세 개의 꼭지점이 있다. 즉, 3D 삼각형 메쉬 M = {V, F}를 고려한다. 여기서, V는 정점들의 집합이고, F는 패싯들의 집합으로, 하기 <수학식 1>과 같이 나타낼 수 있다.
<수학식 1>
Figure 112018119134855-pat00001
Figure 112018119134855-pat00002
여기서,
Figure 112018119134855-pat00003
Figure 112018119134855-pat00004
로부터 형성된다.
한편, 정점들의 집합과 패싯들의 집합으로부터 두 개의 임의의 점을 N쌍 생성하며, 하기 <수학식 2>와 같이 나타낼 수 있다.
<수학식 2>
Figure 112018119134855-pat00005
여기서,
Figure 112018119134855-pat00006
는 {V, F}에서 임의로 선택된 두 점이다.
한편, N 쌍의 두 개의 임의의 점으로부터 거리의 집합
Figure 112018119134855-pat00007
을 계산하며, 여기서,
Figure 112018119134855-pat00008
Figure 112018119134855-pat00009
사이의 유클리드 거리이며, 하기 <수학식 3>과 같이 나타낼 수 있다.
<수학식 3>
Figure 112018119134855-pat00010
Figure 112018119134855-pat00011
다음으로 거리의 값 범위를 결정하기 위해 이 거리 집합에서 최소 거리 및 최대 거리를 찾는다. 이 최소 거리 및 최대 거리를 각각
Figure 112018119134855-pat00012
Figure 112018119134855-pat00013
라 가정하면, 하기 <수학식 4>와 같이 나타낼 수 있다.
<수학식 4>
Figure 112018119134855-pat00014
Figure 112018119134855-pat00015
이후, (
Figure 112018119134855-pat00016
,
Figure 112018119134855-pat00017
)를 B빈으로 나눔으로써 3D 삼각형 메쉬의 D2 형상 분포를 계산하고, 각 빈에 속하는 거리의 수를 센다. 각각의 빈의 평균 폭 및 각 빈의 값 범위는 하기 <수학식 5>와 같이 나타낼 수 있다.<수학식 5>
Figure 112018119134855-pat00018
Figure 112018119134855-pat00019
Figure 112018119134855-pat00020
각 빈
Figure 112018119134855-pat00021
는 상응하는
Figure 112018119134855-pat00022
거리를 갖는다고 가정한다. 따라서, 3D 삼각형 메쉬의 D2 형상 분포는 하기 <수학식 6>과 같이 B빈들로 표현되고, 각 빈
Figure 112018119134855-pat00023
Figure 112018119134855-pat00024
거리를 갖는다.
<수학식 6>
Figure 112018119134855-pat00025
Figure 112018119134855-pat00026
를 각 빈
Figure 112018119134855-pat00027
의 대표 값으로 간주하면 상기 <수학식 6>은 하기 <수학식 7>과 같이 된다.
<수학식 7>
Figure 112018119134855-pat00028
도 4는 본 발명의 실시예에 따라 D2 형상 분포로부터 구성된 D2 벡터를 나타내는 도면이다.
앞서 설명한 바와 같이, D2 형상 분포를 계산한 이후, D2 형상 분포의 히스토그램으로부터 D2 벡터를 구성한다.
빈(bin)의 개수는 해당 D2 벡터의 요소 수이다. 따라서, D2 벡터는 B 요소 집합이며, 하기 <수학식 8>에 의해 계산된다.
<수학식 8>
Figure 112018119134855-pat00029
Figure 112018119134855-pat00030
여기서,
Figure 112018119134855-pat00031
는 빈
Figure 112018119134855-pat00032
에 있는 거리의 수이다.도 5는 본 발명의 실시예에 따라 D2 벡터를 향상된 CNN 기반으로 학습하는 과정의 일 예를 나타내는 도면이다.
D2 벡터는 향상된 CNN을 기반으로 학습이 수행되는데, 여기서 향상된 CNN의 구조는 도 5에 도시된 바와 같이 하나의 컨볼루션 레이어(convolution layer)과 신경망(neural network)로 구성된다.
컨볼루션 레이어의 입력은 D2 벡터이고, 각각의 D2 벡터는 B개의 이산 요소들의 집합이며, 컨볼루션 레이어의 출력은 신경망을 위한 입력 뉴런이다.
Figure 112018119134855-pat00033
은 컨볼루셔널 레이어의 컨볼루션 함수이고,
Figure 112018119134855-pat00034
은 컨볼루션 프로세스의 출력이라고 가정하면, 입력 뉴런
Figure 112018119134855-pat00035
은 하기 <수학식 9>와 같이 나타낼 수 있다.
<수학식 9>
Figure 112018119134855-pat00036
Figure 112018119134855-pat00037
여기서, g는 컨볼루션의 커널(kernel)이고, m은 g의 길이이다.
신경망에 의한 훈련 과정에서는 역 전파 알고리즘을 사용하여 입력 뉴런
Figure 112018119134855-pat00038
을 학습한다. 역 전파 알고리즘은 순방향 통과, 손실 함수, 역방향 통과 및 가중치 갱신의 네 가지 섹션으로 구분된다. 순방향 통과 동안
Figure 112018119134855-pat00039
은 전체 네트워크를 통과한다. 하이퍼볼릭 탄젠트 함수는 히든 레이어(Hidden Layer)에 활성 함수로 적용되고, 소프트-맥스(soft-max) 함수는 출력 레이어(Output Layer)에 활성 함수로 적용된다. 손실 함수는 신경망의 출력 오류를 계산하는데 사용된다. 목표 출력과 실제 출력에서 계산된다. 손실 함수는 다양한 방법으로 정의할 수 있지만 MSE(Mean Squared Error)가 일반적이다. 신경망은 MSE 함수에 의해 계산된 오차에 기초하여 역방향 통과 및 가중치 갱신 프로세스를 통해 히든 레이어의 가중치 및 바이어스를 조정하고 갱신한다.
도 6a 내지 도 6c는 본 발명의 실시예에 따라 각 유형의 3D 모델에 대한 D2 형상 분포의 히스토그램을 나타내는 도면으로, 도 6a 및 도 6b는 모두 무기류에 대한 것으로 각각 총기류 및 나이프류의 3D 모델에 대한 D2 형상 분포의 히스토그램이고, 도 6c는 비무기류에 대한 것으로 비행기, 교회, 배트맨 형상을 갖는 입체 물품의 3D 모델에 대한 D2 형상 분포의 히스토그램이다.
도 6a 내지 도 6c를 참조하면, 동일한 유형의 3D 모델들이라 하더라도 3D 삼각형 메쉬에 있는 패싯의 수, 면의 수 등이 서로 상이한 것을 확인할 수 있다. 그러나, 동일한 유형의 3D 모델의 D2 형상 분포는 모두 유사한 것을 확인할 수 있는 바, 이는 즉, 동일한 유형의 각 3D 삼각형 메쉬의 D2 벡터가 유사하다는 것을 의미한다. 또한, 상이한 유형 별, 즉, 무기류 모델 및 비무기류 모델의 D2 형상 분포가 서로 상이한 것을 확인할 수 있는 바, 이는 즉, 무기류 모델 및 비무기류 모델의 D2 벡터가 상이하다는 것을 의미한다. 한편, 동일한 유형에서 D2 벡터가 유사한 경우, 학습의 결과는 개선된다.
즉, D2 형상 분포로 구성된 D2 벡터를 향상된 CNN을 기반으로 학습하여 이용함으로써, 3D 프린터에 입력되는 3D 프린팅 모델이 무기류인지 비무기류인지 여부를 검출할 수 있다.
도 7은 본 발명의 실시예에 따른 3차원 프린터 기반 무기 생산 방지 방법을 나타내는 순서도이다.
3D 프린터에 3D 프린팅 모델, 즉, 3D 삼각형 메쉬가 입력되면(S701), 그 입력된 3D 삼각형 메쉬에서 패싯과 꼭지점을 추출하여 두 개의 임의의 점을 N 쌍 생성한다(S703). 여기서, 두 개의 임의의 점 쌍은 3D 삼각형 메쉬의 정점을 포함하는 3D 삼각형 메쉬의 표면상의 점에서 임의로 선택된다.
이후, 상기 S702단계에서 생성된 N쌍의 두 개의 임의의 점으로부터 거리를 계산하고(S705), 그 계산된 거리를 통해 3D 삼각형 메쉬의 D2 형상 분포를 계산한다(S707). S705단계에서 D2 형상 분포를 계산한 이후, D2 형상 분포의 히스토그램으로부터 D2 벡터를 구성한다(S709).
이 D2 벡터와 향상된 CNN을 기반으로 기학습된 데이터를 통해 유형을 분류한다(S711). 즉, S701단계에서 입력된 3D 프린팅 모델이 어떤 유형의 모델인지를 분류하는 것이다.
이후, 그 분류 결과를 통해 3D 프린팅 모델이 무기류인지 여부를 판단한다(S713).
한편, S713단계에서의 판단 결과, 3D 프린팅 모델이 비무기류인 것으로 판단된 경우에는 생산을 실행하고(S715), 3D 프린팅 모델이 무기류인 것으로 판단된 경우에는 생산을 비실행한다(S717).
따라서, 본 발명은 3D 프린팅 모델의 기하학적 특징을 기반으로 그 3D 프린팅 모델이 무기류인지 여부를 판단함으로써, 3D 프린터를 통해 무기류가 생산되는 것을 방지할 수 있도록 한다.
본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.

Claims (4)

  1. 3차원 프린터 기반 무기 생산 방지 방법에 있어서,
    3D 프린팅 모델이 입력되면, 상기 3D 프린팅 모델로부터 기하학적 특성을 추출하는 단계;
    상기 추출된 기하학적 특성과 향상된 CNN(Convolutional Neural Network)을 기반으로 기학습된 데이터 정보를 통해 상기 3D 프린팅 모델의 유형을 분류하는 단계;
    상기 분류된 유형이 무기류에 포함되는지 여부를 확인하는 단계; 및
    확인 결과, 상기 분류된 유형이 무기류에 포함되지 않는 경우에는 생산을 실행하고, 상기 분류된 유형이 무기류에 포함되는 경우에는 생산을 비실행하는 단계를 포함하며,
    상기 3D 프린팅 모델로부터 기하학적 특성을 추출하는 단계는,
    상기 3D 프린팅 모델에서 3D 삼각형 메쉬로부터 패싯과 꼭지점을 추출하여 N쌍의 두 개의 임의의 점을 생성하는 단계;
    상기 N쌍의 두 개의 임의의 점으로부터 거리를 계산하는 단계;
    상기 계산된 거리를 통해 상기 3D 프린팅 모델의 표면에 있는 임의의 두 점 집합으로부터 계산된 거리 집합의 분포인 D2 형상 분포를 계산하는 단계; 및
    상기 D2 형상 분포의 히스토그램으로부터 D2 벡터를 구성하는 단계를 포함하며,
    상기 기학습된 데이터 정보는, 향상된 CNN(Convolutional Neural Network)을 기반으로 D2 벡터를 학습하여 생성된 것이며, 학습 시에 D2 벡터를 통해 유형이 분류된 후, 분류된 동일한 유형에서 D2 벡터의 유사도에 따라 가중치가 갱신하는 것을 특징으로 하는 3차원 프린터 기반 무기 생산 방지 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 N쌍의 두 개의 임의의 점은,
    상기 3D 프린팅 모델의 정점을 포함하는 3D 프린팅 모델의 표면 상의 점에서 임의로 선택되는 것을 특징으로 하는 3차원 프린터 기반 무기 생산 방지 방법.
  4. 삭제
KR1020180150053A 2018-11-28 2018-11-28 3차원 프린터 기반 무기 생산 방지 방법 KR102159947B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180150053A KR102159947B1 (ko) 2018-11-28 2018-11-28 3차원 프린터 기반 무기 생산 방지 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180150053A KR102159947B1 (ko) 2018-11-28 2018-11-28 3차원 프린터 기반 무기 생산 방지 방법

Publications (2)

Publication Number Publication Date
KR20200068777A KR20200068777A (ko) 2020-06-16
KR102159947B1 true KR102159947B1 (ko) 2020-09-28

Family

ID=71141523

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180150053A KR102159947B1 (ko) 2018-11-28 2018-11-28 3차원 프린터 기반 무기 생산 방지 방법

Country Status (1)

Country Link
KR (1) KR102159947B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4739507B2 (ja) 2000-11-29 2011-08-03 株式会社アスペクト 3次元造形装置
JP5071114B2 (ja) 2008-01-09 2012-11-14 ソニー株式会社 光造形装置および光造形方法
JP6075809B2 (ja) * 2013-07-29 2017-02-08 Necソリューションイノベータ株式会社 3dプリンタ装置、3dプリント方法及び立体造形物の製造方法
KR101898580B1 (ko) * 2018-01-22 2018-09-13 주식회사 뷰노 영상의 열람을 지원하는 방법 및 이를 이용한 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4739507B2 (ja) 2000-11-29 2011-08-03 株式会社アスペクト 3次元造形装置
JP5071114B2 (ja) 2008-01-09 2012-11-14 ソニー株式会社 光造形装置および光造形方法
JP6075809B2 (ja) * 2013-07-29 2017-02-08 Necソリューションイノベータ株式会社 3dプリンタ装置、3dプリント方法及び立体造形物の製造方法
KR101898580B1 (ko) * 2018-01-22 2018-09-13 주식회사 뷰노 영상의 열람을 지원하는 방법 및 이를 이용한 장치

Also Published As

Publication number Publication date
KR20200068777A (ko) 2020-06-16

Similar Documents

Publication Publication Date Title
Wang A hybrid sampling SVM approach to imbalanced data classification
Kim et al. Feature selection for intelligent firefighting robot classification of fire, smoke, and thermal reflections using thermal infrared images
Zhang et al. Learning classifiers from synthetic data using a multichannel autoencoder
Drews et al. Novelty detection and 3d shape retrieval using superquadrics and multi-scale sampling for autonomous mobile robots
CN113496247A (zh) 估计生成对抗网络的隐含似然
Parvin et al. A heuristic scalable classifier ensemble of binary classifier ensembles
O'Callaghan et al. Continuous occupancy mapping with integral kernels
Toda et al. Multilayer batch learning growing neural gas for learning multiscale topologies
Zhao et al. DAR-Net: Dynamic aggregation network for semantic scene segmentation
CN109492816B (zh) 一种基于混合智能的煤与瓦斯突出动态预测方法
KR102159947B1 (ko) 3차원 프린터 기반 무기 생산 방지 방법
Igelnik Efficiency and scalability methods for computational intellect
Pathiraja et al. Multiclass confidence and localization calibration for object detection
Xu et al. Segmentation of 3D outdoor scenes using hierarchical clustering structure and perceptual grouping laws
Behera et al. Crowd characterization in surveillance videos using deep-graph convolutional neural network
Okuno et al. Robust graph embedding with noisy link weights
Bauckhage et al. Joint selection of central and extremal prototypes based on kernel minimum enclosing balls
Sousa et al. Topological semantic mapping by consolidation of deep visual features
US10922811B2 (en) Object differentiation and identification
Gharaibeh et al. Target classification in wireless sensor network using particle swarm optimization (PSO)
Yu et al. Place recognition based on surface graph for a mobile robot
CN110321938B (zh) 一种智能无人集群的状态空间构建方法及装置
Naji et al. 3d objects retrieval using geodesic distance based on eikonal equation
Lee et al. Inductive learning of fuzzy rule-based classifier with self-constructing clustering
Mokhtari et al. Optimizing query perturbations to enhance shape retrieval

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant