KR102479531B1 - 사출성형 공정 불량 검출 모델 학습 방법 및 사출성형 공정의 레시피 최적화 방법 - Google Patents

사출성형 공정 불량 검출 모델 학습 방법 및 사출성형 공정의 레시피 최적화 방법 Download PDF

Info

Publication number
KR102479531B1
KR102479531B1 KR1020220076908A KR20220076908A KR102479531B1 KR 102479531 B1 KR102479531 B1 KR 102479531B1 KR 1020220076908 A KR1020220076908 A KR 1020220076908A KR 20220076908 A KR20220076908 A KR 20220076908A KR 102479531 B1 KR102479531 B1 KR 102479531B1
Authority
KR
South Korea
Prior art keywords
loss
injection molding
molding process
detection model
class
Prior art date
Application number
KR1020220076908A
Other languages
English (en)
Inventor
고진욱
윤병동
이진욱
김태훈
김용채
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Priority to KR1020220076908A priority Critical patent/KR102479531B1/ko
Application granted granted Critical
Publication of KR102479531B1 publication Critical patent/KR102479531B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C45/00Injection moulding, i.e. forcing the required volume of moulding material through a nozzle into a closed mould; Apparatus therefor
    • B29C45/17Component parts, details or accessories; Auxiliary operations
    • B29C45/76Measuring, controlling or regulating
    • B29C45/768Detecting defective moulding conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C2945/00Indexing scheme relating to injection moulding, i.e. forcing the required volume of moulding material through a nozzle into a closed mould
    • B29C2945/76Measuring, controlling or regulating
    • B29C2945/76929Controlling method
    • B29C2945/76979Using a neural network

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Manufacturing & Machinery (AREA)
  • Mechanical Engineering (AREA)
  • Injection Moulding Of Plastics Or The Like (AREA)

Abstract

본 발명에 따른 사출성형 공정 불량 검출 모델 학습 방법은, 정상 및 불량에 대하여 레이블된 사출성형 공정 데이터를 전처리하여 학습 데이터를 생성하는 단계; 및 상기 학습 데이터를 이용하여 DNN(Deep Neural Network) 기반의 불량 검출 모델을 학습시키는 단계를 포함하되, 상기 학습시키는 단계는 소정의 클래스 균형 손실함수의 손실을 최소화하도록 상기 불량 검출 모델을 학습시키고, 상기 클래스 균형 손실함수는, 포컬 로스(focal loss)를 이용한 제1 로스 및 f1 스코어(f1 score)를 이용한 제2 로스를 포함하는 것을 특징으로 한다.

Description

사출성형 공정 불량 검출 모델 학습 방법 및 사출성형 공정의 레시피 최적화 방법{Method for training fault detection model of injection molding process and method for optimizing recipe of injection molding process}
본 발명은 딥러닝 기반의 사출성형 공정 불량 검출 모델 학습 방법 및 사출성형 공정의 레시피 최적화 방법에 관한 것이다.
사출성형 공정이란 열가소성 수지를 가열해 유동 상태로 만든 후에, 금형의 공동부에 주입하여 금형 내에서 냉각시켜 금형의 공동부에 해당하는 성형품을 만드는 공정이다. 사출성형 공정은 성형 능률이 좋고 제조 시간이 짧아 대량 생산이 가능하고, 자동제어화도 가능하며, 크기가 크거나 모양이 복잡한 성형품도 제조할 수 있다는 장점이 있다.
최근에는 제조설비에서 다량으로 취득되는 데이터를 바탕으로 딥러닝 학습을 통해 제조설비의 양품/불량품을 진단하는 연구가 주목받고 있다. 그런데 사출성형 공정의 경우, 취득되는 데이터 대부분이 정상이고 불량 데이터는 극히 일부이다. 이처럼 데이터의 분포가 불균형할 경우, 불량 검출 모델을 제대로 학습시키는 것이 어렵다. 이러한 클래스 불균형 상황에서 불량 검출 모델을 제대로 학습시키기 위해서는 소수(minority) 클래스의 오진단(misclassification)을 줄일 수 있도록 손실함수를 설계하는 것이 중요하다. 그러나 Binary Cross-Etropy(BCE)를 기반으로 하는 기존의 손실함수는 클래스 간의 불균형 정도를 고려하지 못하므로 소수 클래스의 오진단을 고려하는 것이 불가능하다.
BCE를 기반으로 하는 기존의 손실함수
Figure 112022065825059-pat00001
는 다음 수학식으로 정의된다.
Figure 112022065825059-pat00002
여기서,
Figure 112022065825059-pat00003
는 배치 사이즈(batch size)를,
Figure 112022065825059-pat00004
는 i 번째 샘플의 j(j=0, 1) 번째 클래스에 대한 실제 레이블을,
Figure 112022065825059-pat00005
는 i 번째 샘플의 j번째 클래스에 대한 모델의 예측 출력값을 의미한다.
수학식 1을 참조하면, BCE는 클래스 별로 동일한 가중치를 부여한다. 이런 상황에서 클래스 불균형 데이터로 학습을 할 경우, 검출 모델 입장에서는 다수(majority) 클래스를 많이 접하게 되고, 소수 클래스를 잘못 예측해도 페널티(penalty)를 크게 안 받게 된다. 결과적으로, 검출 모델은 다수 클래스로만 분류하도록 편향되게 학습이 된다. 따라서 소수 클래스의 오진단에 대한 페널티를 더 크게 부여함으로써 소수 클래스도 제대로 분류할 수 있도록 손실함수를 설계하는 것이 요구된다.
한편, 일반적으로 사출성형 공정에서는 양품을 만들기 위한 레시피(recipe)를 현장 전문가가 수동으로 설정하여 입력한다. 여기서 레시피는 사출성형 공정에서의 온도, 압력, 위치, 시간 등의 각종 설정값을 의미한다. 레시피를 수동으로 설정하여 입력하는 과정에서 휴먼 에러(human error)가 발생해서 잘못된 레시피가 설정될 수 있으며, 이에 따라 불량품이 만들어질 수 있다. 따라서 사람에 의한 수동 설정을 대체할 수 있는 레시피 최적화 방법이 요구된다.
본 발명이 이루고자 하는 기술적 과제는, 소수 클래스의 오진단에 대한 페널티를 더 크게 부여함으로써 소수 클래스도 제대로 분류하도록 할 수 있는 사출성형 공정 불량 검출 모델 학습 방법 및 사람에 의한 수동 설정을 대체할 수 있는 사출성형 공정의 레시피 최적화 방법을 제공하는 데 있다.
상기 기술적 과제를 해결하기 위한 본 발명에 따른 사출성형 공정 불량 검출 모델 학습 방법은, 정상 및 불량에 대하여 레이블된 사출성형 공정 데이터를 전처리하여 학습 데이터를 생성하는 단계; 및 상기 학습 데이터를 이용하여 DNN(Deep Neural Network) 기반의 불량 검출 모델을 학습시키는 단계를 포함하되, 상기 학습시키는 단계는 소정의 클래스 균형 손실함수의 손실을 최소화하도록 상기 불량 검출 모델을 학습시키고, 상기 클래스 균형 손실함수는, 포컬 로스(focal loss)를 이용한 제1 로스 및 f1 스코어(f1 score)를 이용한 제2 로스를 포함하는 것을 특징으로 한다.
상기 클래스 균형 손실함수는, 상기 제1 로스 및 상기 제2 로스의 가중치 합일 수 있다.
상기 제1 로스는, 상기 포컬 로스에 클래스 별 샘플 수의 역수로 정의되는 클래스 가중치가 곱해진 것일 수 있다.
상기 제2 로스는, 1에서 상기 f1 스코어를 뺀 것일 수 있다.
상기 f1 스코어의 정밀도(precision) 및 재현율(recall)은, 정상 및 불량을 각각 negative 및 positive로 간주한 경우와, 정상 및 불량을 각각 positive 및 negative로 간주한 경우에 대하여 각각 산출되는 true positive, true negative, false positive 및 false negative를 이용하여 산출될 수 있다.
상기 f1 스코어의 정밀도 및 재현율은 마이크로 평균된(micro-averaged) 정밀도 및 재현율일 수 있다.
상기 기술적 과제를 해결하기 위한 본 발명에 따른 사출성형 공정의 레시피 최적화 방법은, (a) 상기된 사출성형 공정 불량 검출 모델 학습 방법에 의해 학습된 불량 검출 모델로부터, 정상으로 레이블된 샘플들에 대한 2차원 피처들을 추출하는 단계; (b) 상기 2차원 피처들의 중심인 대표 피처를 산출하는 단계; (c) 초기 입력 데이터를 선정하는 단계; (d) 상기 불량 검출 모델로부터, 상기 입력 데이터에 대한 2차원 피처를 추출하는 단계; (e) 상기 2차원 피처와 상기 대표 피처 간의 유클리드 거리를 계산하는 단계; 및 (f) 상기 유클리드 거리가 최소화되도록, 상기 입력 데이터를 업데이트하고 상기 업데이트된 입력 데이터를 가지고 상기 (d) 단계 및 (e) 단계를 반복하는 단계; 및 (g) 상기 (f) 단계를 통해 업데이트된 입력 데이터를 최적 레시피로 결정하는 단계를 포함하는 것을 특징으로 한다.
상기 사출성형 공정의 레시피 최적화 방법은, 상기 초기 입력 데이터를 표준화 스케일링하는 단계를 더 포함하고, 상기 (g) 단계는 상기 업데이트된 입력 데이터를 인버스 스케일링하여 상기 최적 레시피로 결정할 수 있다.
상기 (f) 단계에서 상기 입력 데이터를 업데이트 하는 것은, 최소자승법(Least Square Method)을 이용할 수 있다.
상기된 본 발명에 의하면, 소수 클래스의 오진단에 대한 페널티를 더 크게 부여함으로써 불량 검출 모델이 소수 클래스도 제대로 분류하도록 할 수 있다.
또한, 학습된 불량 검출 모델을 이용하여 양품을 만들기 위한 최적의 레시피를 자동으로 찾을 수 있고, 따라서 사람이 레시피를 수동으로 설정하는 방식을 대체하여 휴먼 에러를 방지할 수 있다.
도 1은 본 발명의 일 실시예에 따른 사출성형 공정 불량 검출 모델 학습 방법의 흐름도를 나타낸다.
도 2는 본 발명의 실시예에 따른 불량 검출 모델의 일 예를 나타낸다.
도 3은 본 발명의 일 실시예에 따른 사출성형 공정의 레시피 최적화 방법의 개념을 설명하는 도면이다.
도 4는 본 발명의 일 실시예에 따른 사출성형 공정의 레시피 최적화 방법의 흐름도를 나타낸다.
도 5는 본 발명을 검증하기 위해 사용된 사출성형 공정 데이터의 예를 나타낸다.
도 6은 기존 방법(BCE)과 본 발명의 불량 검출 성능을 비교한 결과를 나타낸다.
도 7은 기존 방법(BCE)과 본 발명에 따른 2차원 피처를 가시화한 결과를 나타낸다.
도 8은 본 발명에 따라 레시피를 최적화한 결과를 피처 도메인에 표현한 것을 나타낸다.
도 9는 일부 변수에 대해서 정상 데이터 히스토그램과 초기 레시피, 최적 레시피를 비교한 결과를 나타낸다.
이하에서는 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이하 설명 및 첨부된 도면들에서 실질적으로 동일한 구성요소들은 각각 동일한 부호들로 나타냄으로써 중복 설명을 생략하기로 한다. 또한 본 발명을 설명함에 있어 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략하기로 한다.
본 발명의 실시예에서는, 소수 클래스의 오진단에 대한 페널티를 더 크게 부여함으로써 소수 클래스도 제대로 분류할 수 있도록 하는 손실함수를 제안한다. 본 발명의 실시예에서 제안하는 손실함수를, 편의상 클래스 균형 손실함수(class balancing loss function, CBL)라 명명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 사출성형 공정 불량 검출 모델 학습 방법의 흐름도를 나타낸다.
110단계에서, 정상 및 불량에 대하여 레이블된 사출성형 공정 데이터를 전처리하여 학습 데이터를 생성한다. 사출성형 공정 데이터는 예컨대 사출 시간(injection time), 충전 시간(filling time), 사출 속도(injection speed), 사출 압력(injection pressure), 배럴 온도(barrel temperature) 등을 포함할 수 있다. 사출성형 공정 데이터는 예컨대 정상은 0으로, 불량은 1로 레이블될 수 있다. 전처리 과정은, 이상치(outlier) 제거, 중복 샘플 제거, 표준화 스케일링 등을 포함할 수 있다.
120단계에서, DNN(Deep Neural Network) 기반의 불량 검출 모델을 구축한다. 도 2는 본 발명의 실시예에 따른 불량 검출 모델의 일 예를 나타낸다. 불량 검출 모델은 예컨대, 제1 완전연결계층(210_1), 제1 배치 정규화 계층(220_1), 제1 SELU(scaled exponential linear unit) 계층(230_1), 제2 완전연결계층(210_2), 제2 배치 정규화 계층(220_2), 제2 SELU 계층(230_2), 제3 완전연결계층(210_3), 제3 배치 정규화 계층(220_3), 제3 SELU 계층(230_3), 제4 완전연결계층(240), 시그모이드 계층(250)이 차례로 연결된 구조로 형성될 수 있다. 제1 완전연결계층(210_1), 제2 완전연결계층(210_2), 제3 완전연결계층(210_3), 제4 완전연결계층(240)의 출력 노드의 수는 예컨대 각각 200, 20, 2, 1일 수 있다. 시그모이드 계층(250)을 통해 입력(X)이 정상인지 불량인지 예측하는 확률 값이 출력된다. 도 2는 불량 검출 모델의 구조의 일 예에 불과하며, 불량 검출 모델은 다양한 구조로 형성될 수 있음은 물론이다.
130단계에서, 미니 배치(mini-batch) 학습을 위해 학습 데이터로부터 배치 데이터를 생성한다.
140단계에서, 클래스 균형 손실함수의 손실값을 줄이도록 불량 검출 모델의 파라미터를 업데이트한다.
150단계에서 클래스 균형 손실함수의 손실값이 수렴할 때까지 130단계와 140단계가 반복된다. 이를 통해 클래스 균형 손실함수의 손실이 최소화되도록 불량 검출 모델이 학습된다.
150단계에서 클래스 균형 손실함수의 손실값이 수렴하면, 160단계에서 학습이 종료된다.
본 발명의 실시예에 따른 클래스 균형 손실함수는(
Figure 112022065825059-pat00006
), 포컬 로스(focal loss)를 이용한 제1 로스(
Figure 112022065825059-pat00007
) 및 f1 스코어(f1 score)를 이용한 제2 로스(
Figure 112022065825059-pat00008
)를 포함한다. 여기서, 제1 로스(
Figure 112022065825059-pat00009
)는 포컬 로스에 클래스 별 샘플 수의 역수로 정의되는 클래스 가중치가 곱해진 것일 수 있다. 클래스 별 샘플 수의 역수로 정의되는 클래스 가중치에 의해, 소수 클래스의 오분류에 더 심한 페널티를 부여할 수 있다. 제2 로스(
Figure 112022065825059-pat00010
)는 1에서 f1 스코어를 뺀 것일 수 있다. f1 스코어는 클래스 간 데이터가 불균형한 경우 분류 성능을 효과적으로 나타낼 수 있는 지표로서, 제2 로스(
Figure 112022065825059-pat00011
)는 f1 스코어가 낮을수록 큰 값을 가지게 되어 보다 큰 페널티를 부여하게 된다. 클래스 균형 손실함수는(
Figure 112022065825059-pat00012
)는 이러한 제1 로스(
Figure 112022065825059-pat00013
)와 제2 로스(
Figure 112022065825059-pat00014
)의 가중치 합으로 구성될 수 있다.
본 발명의 실시예에 따른 클래스 균형 손실함수는(
Figure 112022065825059-pat00015
)는 다음 수학식으로 표현될 수 있다.
Figure 112022065825059-pat00016
여기서,
Figure 112022065825059-pat00017
는 제1 로스(
Figure 112022065825059-pat00018
)와 제2 로스(
Figure 112022065825059-pat00019
)의 균형을 맞추기 위한 가중치 파라미터이다.
제1 로스(
Figure 112022065825059-pat00020
)는 다음 수학식으로 표현될 수 있다.
Figure 112022065825059-pat00021
여기서,
Figure 112022065825059-pat00022
는 배치 사이즈를,
Figure 112022065825059-pat00023
는 i 번째 샘플의 j(j=0, 1) 번째 클래스에 대한 실제 레이블을,
Figure 112022065825059-pat00024
는 i 번째 샘플의 j번째 클래스에 대한 예측 출력값을,
Figure 112022065825059-pat00025
는 포컬 로스의 지수 하이퍼파라미터를,
Figure 112022065825059-pat00026
는 j번째 클래스에 대한 클래스 가중치를,
Figure 112022065825059-pat00027
는 실제 레이블이 정상(j=0) 또는 불량((j=1)인 집합에 속하는 샘플의 수를 나타낸다.
수학식 3에서
Figure 112022065825059-pat00028
는 포컬 로스로서, 소스 클래스를 잘못 분류할 때 상대적으로 큰 페널티를 준다. 소수 클래스의 오분류에 더 심한 페널티를 부여하기 위해 클래스 가중치
Figure 112022065825059-pat00029
가 포컬 로스에 곱해진다. 클래스 가중치
Figure 112022065825059-pat00030
는 클래스 별 샘플 수
Figure 112022065825059-pat00031
의 역수로 정의된다. k는 손실의 스케일을 유지하기 위한 값이다.
제2 로스(
Figure 112022065825059-pat00032
)는 다음 수학식으로 표현될 수 있다.
Figure 112022065825059-pat00033
여기서,
Figure 112022065825059-pat00034
Figure 112022065825059-pat00035
는 각각 마이크로 평균된(micro-averaged) 정밀도 및 재현율을,
Figure 112022065825059-pat00036
은 임의의 상수를,
Figure 112022065825059-pat00037
는 배치 사이즈를,
Figure 112022065825059-pat00038
는 i 번째 샘플의 j(j=0, 1) 번째 클래스에 대한 실제 레이블을,
Figure 112022065825059-pat00039
는 i 번째 샘플의 j번째 클래스에 대한 예측 출력값을,
Figure 112022065825059-pat00040
,
Figure 112022065825059-pat00041
,
Figure 112022065825059-pat00042
,
Figure 112022065825059-pat00043
는 정상 및 불량을 각각 negative 및 positive로 간주한 경우(j=0) 또는 정상 및 불량을 각각 positive 및 negative로 간주한 경우(j=1)의 true positive, true negative, false positive 및 false negative를 나타낸다.
수학식 3에서,
Figure 112022065825059-pat00044
는 본 발명의 실시예에 따라 정의되는 f1 스코어로서, 데이터가 불균형한 경우 분류 성능을 효과적으로 반영하기 위해 새롭게 제안된 f1 스코어이다. 정밀도(precision)(
Figure 112022065825059-pat00045
) 및 재현율(recall)(
Figure 112022065825059-pat00046
)은, 정상 및 불량을 각각 negative 및 positive로 간주한 경우(j=0)와, 정상 및 불량을 각각 positive 및 negative로 간주한 경우(j=1)에 대하여 각각 산출되는 true positive(
Figure 112022065825059-pat00047
), true negative(
Figure 112022065825059-pat00048
), false positive(
Figure 112022065825059-pat00049
) 및 false negative(
Figure 112022065825059-pat00050
)를 이용하여 산출된다. 또한, 정밀도(precision)(
Figure 112022065825059-pat00051
)와 재현율(recall)(
Figure 112022065825059-pat00052
)은 두 클래스의 분류 성능을 적절하게 반영하기 위해 마이크로 평균된(micro-averaged) 정밀도 및 재현율이다.
Figure 112022065825059-pat00053
은 수치적 안정성을 위한 값으로 매우 작은 상수값이다.
본 발명의 실시예에 따라 정밀도(
Figure 112022065825059-pat00054
) 및 재현율(
Figure 112022065825059-pat00055
)이 구해지는 예는 다음과 같다. 4개의 샘플에 대해
Figure 112022065825059-pat00056
,
Figure 112022065825059-pat00057
이라 가정하면,
Figure 112022065825059-pat00058
,
Figure 112022065825059-pat00059
,
Figure 112022065825059-pat00060
,
Figure 112022065825059-pat00061
은 다음과 같이 구해진다.
Figure 112022065825059-pat00062
따라서, 정밀도(
Figure 112022065825059-pat00063
) 및 재현율(
Figure 112022065825059-pat00064
)은 다음과 같이 산출된다.
Figure 112022065825059-pat00065
본 발명의 실시예에 따르면, 클래스 균형 손실함수(
Figure 112022065825059-pat00066
)를 포컬 로스에 클래스 별 샘플 수의 역수로 정의되는 클래스 가중치가 곱해진 제1 로스(
Figure 112022065825059-pat00067
)와 f1 스코어를 이용한 제2 로스(
Figure 112022065825059-pat00068
)의 가중치 합으로 구성함으로써, 제1 로스(
Figure 112022065825059-pat00069
)와 제2 로스(
Figure 112022065825059-pat00070
)가 모두 클래스 불균형을 고려하므로 소수 클래스도 제대로 분류하도록 불량 검출 모델을 학습시킬 수 있다.
도 3은 본 발명의 일 실시예에 따른 사출성형 공정의 레시피 최적화 방법의 개념을 설명하는 도면이다.
앞에서 설명한 사출성형 공정 불량 검출 모델 학습 방법을 통해 클래스 불균형 상황에서도 불량을 잘 검출하는 불량 검출 모델이 얻어진다. 이러한 불량 검출 모델을 통해 입력 데이터로부터 도 3과 같이 정상 또는 불량이 잘 구별되는 2차원 피처(feature)를 추출할 수 있다. 도 3에서 F(·)는 2차원 피처를 출력하는 함수로서, 도 2의 불량 검출 모델을 예로 들면, 제1 완전연결계층(210_1), 제1 배치 정규화 계층(220_1), 제1 SELU(scaled exponential linear unit) 계층(230_1), 제2 완전연결계층(210_2), 제2 배치 정규화 계층(220_2), 제2 SELU 계층(230_2), 제3 완전연결계층(210_3), 제3 배치 정규화 계층(220_3), 제3 SELU 계층(230_3)에 해당할 수 있다. 즉, 제3 SELU 계층(230_3)으로부터 2차원 피처
Figure 112022065825059-pat00071
가 추출될 수 있다. 도 3을 참조하면, 정상 샘플로부터 계산된 2차원 피처의 중심(centroid)
Figure 112022065825059-pat00072
은 정상 상태에 대한 대표 피처(representative feature)로 간주할 수 있다. 어떤 입력으로부터 추출된 피처가 정상 대표 피처와 가까우면, 해당 입력은 정상 상태로 분류될 가능성이 높다. 따라서 본 발명의 실시예에서는 해당 피처와 정상 대표 피처 사이의 유클리드 거리를 최소로 하는 입력 X를 찾아 레시피 최적화 문제를 해결한다. 이것은 다음과 같은 수학식으로 표현될 수 있다.
Figure 112022065825059-pat00073
여기서,
Figure 112022065825059-pat00074
는 입력 X에 대한 2차원 피처를 나타낸다.
도 4는 본 발명의 일 실시예에 따른 사출성형 공정의 레시피 최적화 방법의 흐름도를 나타낸다.
410단계에서, 상기 사출성형 공정 불량 검출 모델 학습 방법을 통해 학습된 불량 검출 모델로부터, 정상으로 레이블된 샘플들에 대하여 함수 F(·)를 통해 2차원 피처(
Figure 112022065825059-pat00075
)들을 추출한다.
415단계에서, 상기 추출된 2차원 피처들의 중심인 대표 피처(
Figure 112022065825059-pat00076
)를 산출한다.
420단계에서, 레시피 최적화를 위한 임의의 초기 입력 데이터(
Figure 112022065825059-pat00077
)를 선정한다.
425단계에서, 초기 입력 데이터(
Figure 112022065825059-pat00078
)를 표준화 스케일링(standard scaling)한다. 표준화 스케일링된 입력 데이터는
Figure 112022065825059-pat00079
로 표현된다.
430단계에서, 학습된 불량 검출 모델로부터, 입력 데이터
Figure 112022065825059-pat00080
에 대하여 함수 F(·)를 통해 2차원 피처를 추출한다(
Figure 112022065825059-pat00081
).
435단계에서, 입력 데이터
Figure 112022065825059-pat00082
에 대한 2차원 피처(
Figure 112022065825059-pat00083
)와 대표 피처(
Figure 112022065825059-pat00084
) 간의 유클리드 거리를 계산한다.
유클리드 거리는 다음 수학식에 의해 계산될 수 있다.
Figure 112022065825059-pat00085
여기서,
Figure 112022065825059-pat00086
는 유클리드 거리를,
Figure 112022065825059-pat00087
는 대표 피처를,
Figure 112022065825059-pat00088
는 입력 데이터를,
Figure 112022065825059-pat00089
는 상기 입력 데이터에 대하여 추출된 2차원 피처를 나타낸다.
440단계에서 유클리드 거리가 수렴하지 않으면, 445단계에서 입력 데이터를 업데이트하고, 업데이트된 입력 데이터를 가지고 상기 430단계와 435단계를 반복한다. 여기서 입력 데이터의 업데이트는 예컨대 최소자승법(Least Square Method)을 이용할 수 있다.
430단계, 435단계, 445단계의 반복을 통해 440단계에서 유클리드 거리가 수렴하면, 유클리드 거리가 최소화되는 입력 데이터(
Figure 112022065825059-pat00090
)가 얻어진다.
그러면 450단계에서 입력 데이터(
Figure 112022065825059-pat00091
)를 인버스 스케일링(inverse scaling)한다. 인버스 스케일링된 입력 데이터는
Figure 112022065825059-pat00092
로 표현된다.
455단계에서, 인버스 스케일링된 입력 데이터
Figure 112022065825059-pat00093
를 최적 레시피로 결정한다.
본 발명의 실시예에 의하면, 학습된 불량 검출 모델을 이용하여 양품을 만들기 위한 최적의 레시피를 자동으로 찾을 수 있다. 따라서 사람이 레시피를 수동으로 설정하는 방식을 대체하여 휴먼 에러를 방지할 수 있다.
도 5는 본 발명을 검증하기 위해 사용된 사출성형 공정 데이터의 예로서, 차량의 윈드실드(windshield)를 만들기 위한 사출성형 공정 데이터의 예를 나타낸다. 도 5의 (a)와 (b)는 각각 사출 시간 및 배럴 온도의 신호 트렌드를 보여준다. 파란색은 신호 트렌드를 나타내고, 빨간색은 레이블(y=0은 정상, y=1은 불량)을 나타낸다. 도 5를 참조하면, 대부분이 정상 샘플이고, 불량 샘플은 극히 일부임을 알 수 있다.
도 6은 기존 방법(BCE)(a)과 본 발명(b)의 불량 검출 성능을 비교한 결과를 나타낸다. 도 6을 참조하면, BCE는 정상 샘플 323건을 불량으로 분류하고, 불량 샘플 8건 중 4건을 정상으로 분류했다. 반면에 본 발명은, 불량 8건을 모두 불량으로 정확하게 분류했으며, 정상 샘플 133건을 불량으로 분류했다. BCE에 비해 본 발명은 오진단이 크게 줄어들었으며, 불량 데이터가 극히 부족함에도 불량을 정확히 분류하는 것을 확인할 수 있다.
도 7은 기존 방법(BCE)(a) 및 본 발명(b)에 따른 2차원 피처를 가시화한 결과를 나타낸다. 노란색은 정상 샘플의 피처, 빨간색은 불량 샘플의 피처를 나타낸다. 분류 모델에서 피처는, 이상적인 경우 다른 클래스의 피처와는 멀리 떨어져 있고 동일 클래스의 피처는 뭉쳐 있는 것이 바람직하다. 그러나 BCE는 정상 샘플의 피처들이 흩어져 있으며, 불량 샘플의 피처들도 흩어져 있는 것을 알 수 있다. 또한 4건의 불량 샘플의 피처가 정상 샘플의 피처와 섞여 있는 것도 알 수 있다. 반면에 본 발명의 경우, 정상 샘플의 피처와 불량 샘플의 피처가 멀리 떨어져 있으며, 정상 샘플의 피처끼리 잘 뭉쳐 있는 것을 알 수 있다. 또한, 불량 샘플의 피처끼리도 아주 잘 뭉쳐 있는 것을 확인할 수 있다. 따라서 본 발명은 기존 불량 검출 모델보다 오진단을 확연히 줄일 뿐더러, 정상과 불량을 잘 구별하고 유의미한 피처도 추출할 수 있는 것을 확인할 수 있다.
도 8은 본 발명에 따라 레시피를 최적화한 결과를 피처 도메인에 표현한 것을 나타낸다. 노란색은 정상 샘플, 빨간색은 불량 샘플의 피처이고, 보라색은 초기값에 대한 피처, 노란 별표는 최적화된 값에 대한 피처, 녹색 네모는 정상 대표 피처를 나타낸다. 도 8을 참조하면, 우선 최적화된 값에 대한 피처가 정상 대표 피처와 아주 가깝게 위치하고 있음을 확인할 수 있다. 그리고 초기값에 대한 불량 검출 모델의 확률값은 0.947인 반면에, 최적값에 대한 불량 검출 모델의 확률값은 0.025이다. 이는 초기값이 확실히 불량으로 분류되는 것임에도 불구하고, 최적값은 분명하게 정상으로 분류되는 것을 의미한다.
도 9는 일부 변수에 대해서 정상 데이터 히스토그램과 초기 레시피, 최적 레시피를 비교한 결과를 나타낸다. 파란색은 초기 레시피, 빨간색은 최적 레시피, 노란 점선과 녹색 점선은 평균에서 3시그마만큼 떨어진 값을 의미한다. 도 9를 참조하면, 최적 레시피 값이 정상 데이터의 히스토그램 범위에 존재하고, 3시그마 영역 안에 존재하는 것을 확인할 수 있다. 이는 최적 레시피 결과가 정상 데이터와 통계적으로 유사한 특징을 갖는다는 의미이다. 만약 3시그마를 벗어난다면, 그 결과는 정상 데이터와는 특징이 다른 이상치(outlier)로 고려될 수 있지만, 본 발명에 따라 최적화된 레시피는 그렇지 않았다. 즉, 본 발명에 따른 레시피 최적화 방법은 양품을 만들기 위한 레시피를 잘 찾아냈음을 알 수 있다.
본 발명의 실시예들에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다.
본 발명의 실시예들은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 집적 회로 구성들을 채용할 수 있다. 본 발명에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 실시예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 실시예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. "매커니즘", "요소", "수단", "구성"과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
실시예에서 설명하는 특정 실행들은 일 실시예들로서, 어떠한 방법으로도 실시 예의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, "필수적인", "중요하게" 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (13)

  1. 컴퓨터에 의해 수행되는 사출성형 공정 불량 검출 모델 학습 방법으로서,
    상기 컴퓨터가, 정상 및 불량에 대하여 레이블된 사출성형 공정 데이터를 전처리하여 학습 데이터를 생성하는 단계; 및
    상기 컴퓨터가, 상기 학습 데이터를 이용하여 DNN(Deep Neural Network) 기반의 불량 검출 모델을 학습시키는 단계를 포함하되,
    상기 학습시키는 단계는 소정의 클래스 균형 손실함수의 손실을 최소화하도록 상기 불량 검출 모델을 학습시키고,
    상기 클래스 균형 손실함수는, 포컬 로스(focal loss)를 이용한 제1 로스 및 f1 스코어(f1 score)를 이용한 제2 로스를 포함하고,
    상기 제2 로스는, 1에서 상기 f1 스코어를 뺀 것이고,
    상기 f1 스코어의 정밀도(precision) 및 재현율(recall)은, 정상 및 불량을 각각 negative 및 positive로 간주한 경우와, 정상 및 불량을 각각 positive 및 negative로 간주한 경우에 대하여 각각 산출되는 true positive, true negative, false positive 및 false negative를 이용하여 산출되고,
    상기 f1 스코어의 정밀도 및 재현율은 마이크로 평균된(micro-averaged) 정밀도 및 재현율이고,
    상기 제2 로스는 다음 수학식으로 표현되는 것을 특징으로 하는 사출성형 공정 불량 검출 모델 학습 방법.
    Figure 112022119206344-pat00132

    여기서,
    Figure 112022119206344-pat00133
    은 상기 제2 로스를,
    Figure 112022119206344-pat00134
    Figure 112022119206344-pat00135
    는 각각 상기 마이크로 평균된 정밀도 및 재현율을,
    Figure 112022119206344-pat00136
    은 임의의 상수를,
    Figure 112022119206344-pat00137
    는 배치 사이즈를,
    Figure 112022119206344-pat00138
    는 i 번째 샘플의 j(j=0, 1) 번째 클래스에 대한 실제 레이블을,
    Figure 112022119206344-pat00139
    는 i 번째 샘플의 j번째 클래스에 대한 예측 출력값을,
    Figure 112022119206344-pat00140
    ,
    Figure 112022119206344-pat00141
    ,
    Figure 112022119206344-pat00142
    ,
    Figure 112022119206344-pat00143
    는 정상 및 불량을 각각 negative 및 positive로 간주한 경우(j=0) 또는 정상 및 불량을 각각 positive 및 negative로 간주한 경우(j=1)의 true positive, true negative, false positive 및 false negative를 나타낸다.
  2. 제1항에 있어서,
    상기 클래스 균형 손실함수는, 상기 제1 로스 및 상기 제2 로스의 가중치 합인 것을 특징으로 하는 사출성형 공정 불량 검출 모델 학습 방법.
  3. 제1항에 있어서,
    상기 제1 로스는, 상기 포컬 로스에 클래스 별 샘플 수의 역수로 정의되는 클래스 가중치가 곱해진 것을 특징으로 하는 사출성형 공정 불량 검출 모델 학습 방법.
  4. 삭제
  5. 삭제
  6. 삭제
  7. 제2항에 있어서,
    상기 클래스 균형 손실함수는 다음 수학식으로 표현되는 것을 특징으로 하는 사출성형 공정 불량 검출 모델 학습 방법.
    Figure 112022065825059-pat00094

    여기서,
    Figure 112022065825059-pat00095
    는 가중치 파라미터를,
    Figure 112022065825059-pat00096
    은 상기 제1 로스를,
    Figure 112022065825059-pat00097
    은 상기 제2 로스를 나타낸다.
  8. 제3항에 있어서,
    상기 제1 로스는 다음 수학식으로 표현되는 것을 특징으로 하는 사출성형 공정 불량 검출 모델 학습 방법.
    Figure 112022065825059-pat00098

    여기서,
    Figure 112022065825059-pat00099
    은 상기 제1 로스를,
    Figure 112022065825059-pat00100
    는 배치 사이즈를,
    Figure 112022065825059-pat00101
    는 i 번째 샘플의 j(j=0, 1) 번째 클래스에 대한 실제 레이블을,
    Figure 112022065825059-pat00102
    는 i 번째 샘플의 j번째 클래스에 대한 예측 출력값을,
    Figure 112022065825059-pat00103
    는 포컬 로스의 지수 하이퍼파라미터를,
    Figure 112022065825059-pat00104
    는 j번째 클래스에 대한 클래스 가중치를,
    Figure 112022065825059-pat00105
    는 실제 레이블이 정상(j=0) 또는 불량((j=1)인 집합에 속하는 샘플의 수를 나타낸다.
  9. 삭제
  10. 컴퓨터에 의해 수행되는 사출성형 공정의 레시피 최적화 방법으로서,
    (a) 상기 컴퓨터가, 제1항에 따른 사출성형 공정 불량 검출 모델 학습 방법에 의해 학습된 불량 검출 모델로부터, 정상으로 레이블된 샘플들에 대한 2차원 피처들을 추출하는 단계;
    (b) 상기 컴퓨터가, 상기 2차원 피처들의 중심인 대표 피처를 산출하는 단계;
    (c) 상기 컴퓨터가, 초기 입력 데이터를 선정하는 단계;
    (d) 상기 컴퓨터가, 상기 불량 검출 모델로부터, 상기 입력 데이터에 대한 2차원 피처를 추출하는 단계;
    (e) 상기 컴퓨터가, 상기 2차원 피처와 상기 대표 피처 간의 유클리드 거리를 계산하는 단계; 및
    (f) 상기 컴퓨터가, 상기 유클리드 거리가 최소화되도록, 상기 입력 데이터를 업데이트하고 상기 업데이트된 입력 데이터를 가지고 상기 (d) 단계 및 (e) 단계를 반복하는 단계; 및
    (g) 상기 컴퓨터가, 상기 (f) 단계를 통해 업데이트된 입력 데이터를 최적 레시피로 결정하는 단계를 포함하는 것을 특징으로 하는 사출성형 공정의 레시피 최적화 방법.
  11. 제10항에 있어서,
    상기 유클리드 거리는 다음 수학식으로 표현되는 것을 특징으로 하는 사출성형 공정의 레시피 최적화 방법.
    Figure 112022065825059-pat00118

    여기서,
    Figure 112022065825059-pat00119
    는 상기 유클리드 거리를,
    Figure 112022065825059-pat00120
    는 상기 대표 피처를,
    Figure 112022065825059-pat00121
    는 상기 입력 데이터를,
    Figure 112022065825059-pat00122
    는 상기 입력 데이터에 대하여 추출된 2차원 피처를 나타낸다.
  12. 제10항에 있어서,
    상기 컴퓨터가, 상기 초기 입력 데이터를 표준화 스케일링하는 단계를 더 포함하고,
    상기 (g) 단계는 상기 업데이트된 입력 데이터를 인버스 스케일링하여 상기 최적 레시피로 결정하는 것을 특징으로 하는 사출성형 공정의 레시피 최적화 방법.
  13. 제10항에 있어서,
    상기 (f) 단계에서 상기 입력 데이터를 업데이트 하는 것은, 최소자승법(Least Square Method)을 이용하는 것을 특징으로 하는 사출성형 공정의 레시피 최적화 방법.



KR1020220076908A 2022-06-23 2022-06-23 사출성형 공정 불량 검출 모델 학습 방법 및 사출성형 공정의 레시피 최적화 방법 KR102479531B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220076908A KR102479531B1 (ko) 2022-06-23 2022-06-23 사출성형 공정 불량 검출 모델 학습 방법 및 사출성형 공정의 레시피 최적화 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220076908A KR102479531B1 (ko) 2022-06-23 2022-06-23 사출성형 공정 불량 검출 모델 학습 방법 및 사출성형 공정의 레시피 최적화 방법

Publications (1)

Publication Number Publication Date
KR102479531B1 true KR102479531B1 (ko) 2022-12-19

Family

ID=84535648

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220076908A KR102479531B1 (ko) 2022-06-23 2022-06-23 사출성형 공정 불량 검출 모델 학습 방법 및 사출성형 공정의 레시피 최적화 방법

Country Status (1)

Country Link
KR (1) KR102479531B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210067606A (ko) * 2019-11-29 2021-06-08 한국생산기술연구원 특징 생성 기술을 이용한 머신러닝 기반 결함 분류 장치 및 방법
KR102317992B1 (ko) * 2021-03-26 2021-10-28 주식회사 트윔 뉴럴 네트워크를 이용한 제품 검사 방법, 장치 및 제품 검사 장치 학습 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210067606A (ko) * 2019-11-29 2021-06-08 한국생산기술연구원 특징 생성 기술을 이용한 머신러닝 기반 결함 분류 장치 및 방법
KR102317992B1 (ko) * 2021-03-26 2021-10-28 주식회사 트윔 뉴럴 네트워크를 이용한 제품 검사 방법, 장치 및 제품 검사 장치 학습 방법

Similar Documents

Publication Publication Date Title
WO2020220544A1 (zh) 不平衡数据分类模型训练方法、装置、设备及存储介质
Ishida et al. Deep learning-based wafer-map failure pattern recognition framework
KR20180036709A (ko) 미디어 분류
WO2020208444A1 (en) Fairness improvement through reinforcement learning
CN108549817A (zh) 一种基于文本深度学习的软件安全漏洞预测方法
CN112348080A (zh) 基于工控异常检测的rbf改进方法、装置和设备
Pradipta et al. SMOTE for handling imbalanced data problem: A review
CN111834010A (zh) 一种基于属性约简和XGBoost的COVID-19检测假阴性识别方法
KR20230107558A (ko) 모델 트레이닝, 데이터 증강 방법, 장치, 전자 기기 및 저장 매체
CN114048468A (zh) 入侵检测的方法、入侵检测模型训练的方法、装置及介质
CN112767106A (zh) 自动化审计方法、系统、计算机可读存储介质及审计设备
CN115687925A (zh) 针对不平衡样本的故障类型识别方法及装置
CN114548199A (zh) 一种基于深度迁移网络的多传感器数据融合方法
CN104992050A (zh) 基于统计信号处理的时间序列特性评价的预测模型选择方法
KR102479531B1 (ko) 사출성형 공정 불량 검출 모델 학습 방법 및 사출성형 공정의 레시피 최적화 방법
Chelly et al. Further exploration of the fuzzy dendritic cell method
CN116662555B (zh) 一种请求文本处理方法、装置、电子设备及存储介质
CA3135954A1 (en) CODE GENERATION FOR THE DEPLOYMENT OF A MACHINE LEARNING MODEL
CN112597687A (zh) 一种基于少样本学习的涡轮盘结构混合可靠性分析方法
CN111950652A (zh) 一种基于相似度的半监督学习数据分类算法
CN117010752A (zh) 产品质量预测模型的构建方法、装置、设备及存储介质
CN116380438A (zh) 一种故障诊断方法、装置、电子设备及存储介质
CN114495114B (zh) 基于ctc解码器的文本序列识别模型校准方法
WO2022215559A1 (ja) ハイブリッドモデル作成方法、ハイブリッドモデル作成装置、及び、プログラム
CN115271045A (zh) 一种基于机器学习的神经网络模型优化方法及系统

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant