KR20220117194A - 추론 연산 장치, 모델 훈련 장치, 및 추론 연산 시스템 - Google Patents

추론 연산 장치, 모델 훈련 장치, 및 추론 연산 시스템 Download PDF

Info

Publication number
KR20220117194A
KR20220117194A KR1020227001528A KR20227001528A KR20220117194A KR 20220117194 A KR20220117194 A KR 20220117194A KR 1020227001528 A KR1020227001528 A KR 1020227001528A KR 20227001528 A KR20227001528 A KR 20227001528A KR 20220117194 A KR20220117194 A KR 20220117194A
Authority
KR
South Korea
Prior art keywords
model
training
inference
speculation
inference model
Prior art date
Application number
KR1020227001528A
Other languages
English (en)
Inventor
자오웨 리
둥 차이
위안위안 루
훙 왕
Original Assignee
보에 테크놀로지 그룹 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 보에 테크놀로지 그룹 컴퍼니 리미티드 filed Critical 보에 테크놀로지 그룹 컴퍼니 리미티드
Publication of KR20220117194A publication Critical patent/KR20220117194A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Neurology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • General Factory Administration (AREA)

Abstract

추론 연산 장치는 적어도 하나의 프로세서 및 메모리를 포함한다. 메모리에는 프로그램 명령어들이 저장되어 있다. 프로그램 명령어들은 상기 적어도 하나의 프로세서에 의해 실행되어 추론 연산 장치로 하여금 모델 훈련 장치로부터 제1 추론 모델을 수신하는 동작- 제1 추론 모델은 제1 훈련 샘플 데이터베이스에 기초한 모델 훈련을 통해 모델 훈련 장치에 의해 획득되고, 제1 훈련 샘플 데이터베이스는 생산 및 제조 스테이지에서 발생된 이력 데이터로부터의 훈련 샘플들을 포함하고, 모델 훈련 장치는 클라우드 디바이스를 포함함 -; 제1 추론 모델에 기초하여 생산 및 제조 스테이지에서 발생된 처리될 데이터에 대해 추론 연산을 수행하여 추론 결과를 획득하고 추론 결과를 사용자 디바이스에 전송하는 동작; 및 제1 추론 모델이 업데이트될 필요가 있는지를 결정하기 위해 제1 추론 모델의 성능을 평가하고, 업데이트될 필요가 있는 경우, 제1 추론 모델을 업데이트하는 동작을 수행하게 한다.

Description

추론 연산 장치, 모델 훈련 장치, 및 추론 연산 시스템
본 개시내용은 클라우드 연산 기술 분야에 관한 것으로, 보다 상세하게는, 추론 연산 장치, 모델 훈련 장치, 및 추론 연산 시스템에 관한 것이다.
클라우드 연산 기술은 강한 연산력, 높은 가용성, 및 높은 확장성을 갖는다. 한편, 클라우드 연산에서, 애플리케이션들은 클라우드 장치들 상에 배치되고, 사용자들은 요구 시에 클라우드 장치들로부터 애플리케이션 서비스들을 획득할 수 있으며, 이는 사용자들이 애플리케이션 서비스들을 획득하는 편의를 개선하고 연산 리소스들의 전체 이용률을 증가시킨다.
일 양태에서, 추론 연산 장치가 제공된다. 추론 연산 장치는 적어도 하나의 프로세서 및 메모리를 포함한다. 메모리에는 프로그램 명령어들이 저장되어 있고, 프로그램 명령어들은 적어도 하나의 프로세서에 의해 실행될 때, 추론 연산 장치로 하여금 다음의 동작들을 수행하게 한다: 모델 훈련 장치로부터 제1 추론 모델을 수신하는 동작- 제1 추론 모델은 제1 훈련 샘플 라이브러리에 기초한 모델 훈련을 통해 모델 훈련 장치에 의해 획득되고, 제1 훈련 샘플 라이브러리는 제조 스테이지에서 생성된 이력 데이터로부터의 훈련 샘플들을 포함하고, 모델 훈련 장치는 클라우드 디바이스를 포함함 -; 제1 추론 모델에 기초하여 제조 스테이지에서 생성되는 처리될 데이터에 대해 추론 연산을 수행하여 추론 결과를 획득하고, 추론 결과를 사용자측 디바이스에 전송하는 동작- 추론 연산 장치는 모델 훈련 장치보다 사용자측 디바이스에 더 가까움 -; 및 제1 추론 모델의 성능을 평가하여 제1 추론 모델이 업데이트될 필요가 있는지를 결정하고, 제1 추론 모델이 업데이트될 필요가 있는 경우, 제1 추론 모델을 업데이트하는 동작.
본 개시내용의 일부 실시예들에서, 이력 데이터는 결함 정보 콘텐츠로 마킹된 제품 이미지를 포함한다. 처리될 데이터는 제조 스테이지에서 생성된 원본 제품 이미지를 포함한다. 추론 결과는 원본 제품 이미지에서의 식별된 결함 타입 정보를 포함한다.
본 개시내용의 일부 실시예들에서, 제1 추론 모델을 업데이트하는 동작은 제2 훈련 샘플 라이브러리에 기초하여 모델 훈련을 수행하여 제2 추론 모델을 획득하거나, 또는 모델 업데이트 요청을 모델 훈련 장치에 전송하여 제2 추론 모델을 획득하는 동작- 제2 훈련 샘플 라이브러리는 이력 데이터로부터의 훈련 샘플들 및/또는 추론 결과로부터 유래되고 재판단이 적용된 훈련 샘플들을 포함함 -; 및 제2 추론 모델이 업데이트 조건을 충족시키는 경우에 제1 추론 모델을 제2 추론 모델로 업데이트하는 동작을 포함한다.
본 개시내용의 일부 실시예에서, 업데이트 조건은 다음을 포함한다: 테스트가 제2 추론 모델에 대해 수행되고, 제2 추론 모델이 테스트를 통과한다. 테스트는 다음을 포함한다: 테스트 샘플들에 기초하여 제2 추론 모델의 성능을 평가하는 것; 및 성능이 평가 요건을 만족시키는 경우, 제2 추론 모델이 테스트를 통과한 것으로 결정하는 것.
본 개시내용의 일부 실시예에서, 업데이트 조건은 다음을 더 포함한다: 그레이 스케일 배치가 제2 추론 모델에 대해 수행되고, 제2 추론 모델의 성능이 그레이 스케일 배치 동안 평가되고, 제2 추론 모델의 성능이 평가 요건들을 충족시킨다.
본 개시내용의 일부 실시예에서, 업데이트 조건은 다음을 더 포함한다: 제2 추론 모델의 구성 정보가 검증되고, 구성 정보가 수행될 추론 연산과 매칭된다.
본 개시내용의 일부 실시예들에서, 모델 훈련을 수행하여 제2 추론 모델을 획득하기 전에, 또는 모델 업데이트 요청을 모델 훈련 장치에 전송하여 제2 추론 모델을 획득하기 전에, 추론 연산 장치는 다음의 동작들을 추가로 수행한다: 모델 훈련이 수행되도록 요구되는 훈련 파라미터들이 훈련 파라미터들의 미리 설정된 범위 내에 있는지를 결정하는 동작; 및 훈련 파라미터들이 미리 설정된 범위 내에 있으면, 모델 훈련을 수행하는 동작; 훈련 파라미터들이 미리 설정된 범위 내에 있지 않으면, 모델 업데이트 요청을 모델 훈련 장치에 전송하는 동작.
본 개시내용의 일부 실시예들에서, 훈련 파라미터들은 모델 훈련을 위해 요구되는 데이터 크기, 훈련 지속기간, 및 연산력 중 적어도 하나를 포함한다.
본 개시내용의 일부 실시예들에서, 추론 모델의 성능을 평가하기 위해 사용되는 평가 파라미터들은 추론 연산 프로세스 동안 추론 모델의 정확도율, 정밀도율, 리콜율 및 F 스코어 중 적어도 하나를 포함한다. 제1 추론 모델이 성능 평가에 따라 업데이트될 필요가 있는 경우는 다음을 포함한다: 제1 추론 모델의 성능이 변동하거나 감소하는 경우, 여기서, 제1 추론 모델의 성능이 변동하는지 감소하는지는 연속적인 기간 내의 평가 파라미터들의 변동에 따라 결정된다.
본 개시내용의 일부 실시예들에서, 성능 평가에 따라 제1 추론 모델을 업데이트하는 동작은 다음을 포함한다: 제3 추론 모델을 수신하는 동작- 제3 추론 모델은 모델 훈련 장치가 모델 업데이트 요청을 수신하지 않은 경우에 업데이트된 제1 훈련 샘플 라이브러리에 기초하여 모델 훈련을 통해 모델 훈련 장치에 의해 획득되고, 업데이트된 제1 훈련 샘플 라이브러리는 추론 결과로부터 유래되고 재판단이 적용된 훈련 샘플들을 포함함 -; 제1 추론 모델의 성능을 제3 추론 모델의 성능과 비교하고, 제3 추론 모델의 성능이 제1 추론 모델의 성능보다 더 양호한 경우, 또는 제1 추론 모델에서 이상이 발생하는 경우, 제3 추론 모델로 제1 추론 모델을 업데이트하는 동작.
본 개시내용의 일부 실시예들에서, 제1 추론 모델이 제2 추론 모델로 업데이트되는 경우에, 추론 연산 장치는 다음의 동작들을 추가로 수행한다: 제2 추론 모델에 대해 성능 평가를 수행하고, 제1 추론 모델의 성능을 제2 추론 모델의 성능과 비교하는 동작; 제2 추론 모델의 성능이 제1 추론 모델의 성능보다 나쁜 경우, 제2 추론 모델을 제1 추론 모델로 롤백시키는 동작; 및 모델 훈련을 다시 수행하거나, 모델 훈련 장치에게 모델 훈련을 다시 수행하도록 요청하는 동작.
본 개시내용의 일부 실시예들에서, 추론 결과를 획득한 후에, 추론 연산 장치는 추론 결과에 따라 판정 명령을 생성하는 동작을 추가로 수행한다. 결함 정보는 식별된 원본 제품 이미지가 결함, 결함 위치 및 결함 타입을 갖는 것을 포함한다. 판정 명령은 원본 제품 이미지의 결함 정보에 따라 결함을 갖는 원본 이미지에 대응하는 제품에 대해 대응하는 결함 처리를 수행하는 것을 포함한다.
다른 양태에서, 모델 훈련 장치가 제공된다. 모델 훈련 장치는 적어도 하나의 프로세서 및 메모리를 포함한다. 메모리에는 프로그램 명령어들이 저장되어 있고, 프로그램 명령어들은 적어도 하나의 프로세서에 의해 실행될 때, 모델 훈련 장치로 하여금 다음의 동작들을 수행하게 한다: 제1 훈련 샘플 라이브러리에 기초하여 모델 훈련을 수행하여 제1 추론 모델을 획득하는 동작- 제1 훈련 샘플 라이브러리는 제조 스테이지에서 생성된 이력 데이터로부터 훈련 샘플들을 포함함 -; 제1 추론 모델을 추론 연산 장치에 전송하는 동작; 추론 연산 장치로부터 모델 업데이트 요청이 수신되는 경우에 업데이트된 제1 훈련 샘플 라이브러리에 기초하여 모델 훈련을 수행하여 제2 추론 모델을 획득하는 동작- 업데이트된 제1 훈련 샘플 라이브러리는 제1 추론 모델의 추론 결과로부터 유래되고 재판단이 적용된 훈련 샘플들을 포함함 -; 및 제2 추론 모델을 추론 연산 장치에 전송하는 동작.
본 개시내용의 일부 실시예들에서, 제1 훈련 샘플 라이브러리 또는 업데이트된 제1 훈련 샘플 라이브러리에 기초하여 모델 훈련을 수행하는 프로세스에서, 모델 훈련 장치는 다음의 동작들을 수행한다: 훈련 작업 정보를 생성하는 동작; 훈련 작업 정보에 따라 훈련 구성 데이터를 생성하는 동작; 및 대응하는 훈련 샘플 라이브러리로부터 훈련 샘플들을 획득하고, 훈련 샘플들 및 훈련 구성 데이터에 기초하여 모델 훈련을 수행하여 대응하는 추론 모델을 획득하는 동작.
본 개시내용의 일부 실시예들에서, 대응하는 훈련 샘플 라이브러리로부터 훈련 샘플들을 획득하고 훈련 샘플들 및 훈련 구성 데이터에 기초하여 모델 훈련을 수행하여 대응하는 추론 모델을 획득하는 프로세스에서, 모델 훈련 장치는 이하의 동작들을 추가로 수행한다: 모델 훈련 프로세스를 모니터링하는 동작; 모델 훈련 프로세스에서 이상이 발생할 때 훈련 구성 데이터를 업데이트하는 동작; 및 훈련 샘플들 및 업데이트된 훈련 구성 데이터에 기초하여 모델 훈련을 수행하는 동작.
본 개시내용의 일부 실시예들에서, 제1 추론 모델 또는 제2 추론 모델을 추론 연산 장치에 전송하기 전에, 모델 훈련 장치는 다음의 동작들을 추가로 수행한다: 대응하는 추론 모델의 모델 버전 정보를 검증하여 모델 버전 정보가 정확한지를 결정하는 동작; 모델 버전 정보가 정확한 경우, 대응하는 추론 모델을 추론 연산 장치에 전송하는 동작; 및 모델 버전 정보가 정확하지 않으면, 요건을 충족하는 모델 버전을 갖는 대응 추론 모델을 검색하는 동작; 대응하는 추론 모델이 발견되는 경우, 대응하는 추론 모델을 추론 연산 장치에 전송하는 동작; 및 대응하는 추론 모델이 발견되지 않는 경우, 통지 메시지를 추론 연산 장치로 전송하는 동작.
본 개시내용의 일부 실시예들에서, 모델 훈련 장치는 제1 훈련 샘플 라이브러리를 더 포함한다. 모델 훈련 장치는 다음의 동작들을 추가로 수행한다: 제1 훈련 샘플 라이브러리를 업데이트하는 동작; 모델 업데이트 요청이 수신되지 않은 경우, 업데이트된 제1 훈련 샘플 라이브러리에 기초하여 모델 훈련을 수행하여 제3 추론 모델을 획득하는 동작; 제3 추론 모델을 추론 훈련 장치에 전송하는 동작.
또 다른 양태에서, 컴퓨터 판독가능 저장 매체가 제공된다. 컴퓨터 판독가능 저장 매체에는 프로그램 명령어들이 저장되어 있고, 프로그램 명령어들은 프로세서에 의해 실행될 때, 추론 연산 장치로 하여금 다음의 동작들을 수행하게 한다: 제1 추론 모델을 수신하는 동작- 제1 추론 모델은 제1 훈련 샘플 라이브러리에 기초한 모델 훈련을 통해 획득되고, 제1 훈련 샘플 라이브러리는 이력 데이터로부터의 훈련 샘플들을 포함함 -; 제1 추론 모델에 기초하여 제조 스테이지에서 생성되는 처리될 데이터에 대해 추론 연산을 수행하여 추론 결과를 획득하는 동작; 및 제1 추론 모델의 성능을 평가하여 제1 추론 모델이 업데이트될 필요가 있는지를 결정하고, 제1 추론 모델이 업데이트될 필요가 있는 경우, 제1 추론 모델을 업데이트하는 동작.
또 다른 양태에서, 컴퓨터 판독가능 저장 매체가 제공된다. 컴퓨터 판독가능 저장 매체에는 프로그램 명령어들이 저장되어 있고, 프로그램 명령어들은 프로세서에 의해 실행될 때, 모델 훈련 장치로 하여금 다음의 동작들을 수행하게 한다: 제1 훈련 샘플 라이브러리에 기초하여 모델 훈련을 수행하여 제1 추론 모델을 획득하는 동작- 제1 훈련 샘플 라이브러리는 제조 스테이지에서 생성된 이력 데이터로부터 훈련 샘플들을 포함함 -; 제1 추론 모델을 추론 연산 장치에 전송하는 동작; 추론 연산 장치로부터 모델 업데이트 요청이 수신되는 경우에 업데이트된 제1 훈련 샘플 라이브러리에 기초하여 모델 훈련을 수행하여 제2 추론 모델을 획득하는 동작- 업데이트된 제1 훈련 샘플 라이브러리는 제1 추론 모듈의 추론 결과로부터 유래되고 재판단이 적용된 훈련 샘플들을 사용하여 제1 훈련 샘플 라이브러리를 업데이트함으로써 획득됨 -; 및 제2 추론 모델을 추론 연산 장치에 전송하는 동작.
또 다른 양태에서, 추론 연산 시스템이 제공된다. 추론 연산 시스템은 상기 실시예들 중 어느 하나에서 설명된 추론 연산 장치, 및 상기 실시예들 중 어느 하나에서 설명된 모델 훈련 장치를 포함한다.
도 1은 관련 기술에 따른 사용자측-클라우드 연산 아키텍처의 구조도이다.
도 2는 관련 기술에 따른 클라우드 사용자측-에지측-클라우드 연산 아키텍처의 구조도이다.
도 3은 본 개시내용의 일부 실시예들에 따른 추론 연산 장치의 구조도이다.
도 4는 본 개시내용의 일부 실시예들에 따른 추론 연산 장치와 모델 훈련 장치 사이의 상호작용을 도시하는 도면이다.
도 5는 본 개시내용의 일부 실시예들에 따른 모델 훈련 장치의 구조도이다.
도 6은 본 개시내용의 일부 실시예들에 따른 다른 추론 연산 장치와 모델 훈련 장치 사이의 상호작용을 도시하는 도면이다.
도 7은 본 개시내용의 일부 실시예들에 따른 또 다른 추론 연산 장치와 모델 훈련 장치 사이의 상호작용을 도시하는 도면이다.
도 8은 본 개시내용의 일부 실시예들에 따른 모델 훈련 장치의 동작 단계들의 흐름도이다.
도 9는 본 개시내용의 일부 실시예들에 따른 다른 모델 훈련 장치의 동작 단계들의 흐름도이다.
도 10은 본 개시내용의 일부 실시예들에 따른 추론 연산 시스템의 구조도이다.
도 11은 본 개시내용의 일부 실시예에 따른 추론 연산 장치 및 모델 훈련 장치의 구조도이다.
이하, 본 개시내용의 일부 실시예들이 첨부 도면들과 함께 설명될 것이다. 명백하게, 설명된 실시예들은 본 개시내용의 실시예들의 전부가 아니라 단지 일부일 뿐이다. 본 개시내용의 실시예들에 기초하여 본 기술 분야의 통상의 기술자에 의해 획득된 모든 다른 실시예는 본 개시내용의 보호 범위에 포함될 것이다.
산업 생산에서, 장비, 파라미터들, 동작들, 및 환경에서의 문제들로 인해, 생산되는 제품들은 생산 요건들을 충족시키지 못하거나 심지어 결함이 있을 수 있다. 따라서, 결함 제품들의 축적을 피하기 위해 모든 프로세스 후에 적시에 표준미달 및 결함 제품들이 제거될 필요가 있다. 또한, 온도, 압력, 습도 등의 변화와 같은 생산 장비의 실시간 모니터링 데이터에 따라 생산 시스템의 동작 상태를 예측하여, 제품 결함 또는 장비 손상과 같은 문제들을 미리 방지하는 것이 가능하다.
인공 지능의 지속적인 개발로, 공장들은 머신 러닝 방법을 사용하여 다량의 생산 데이터에 따라 모델 훈련을 수행하여 추론 모델을 획득하고, 모델을 적용하여 후속 생산에서 추론들 및 예측들을 수행하고, 이에 의해, 공장들의 운영자들 및 데이터 분석가들을 대체하고, 생산 효율을 개선하고 노동 비용들을 감소시킬 수 있다. 머신 러닝 알고리즘들은 서포트 벡터 머신들(support vector machines)(SVM), AdaBoost, 결정 트리들, 랜덤 포레스트들, 및 신경망들 등에 기초한 딥 러닝 알고리즘들을 포함한다.
클라우드 연산은 분산형 연산의 일종이다. 클라우드 연산에서는, 데이터 계산 처리 프로그램이 인터넷 "클라우드"를 통해 다수의 작은 계산 처리 프로그램으로 분해된다. 따라서, 클라우드 연산은 강한 연산력, 높은 가용성, 및 높은 확장성을 갖는다. 대량의 생산 데이터가 공장에서의 생산 프로세스에서 생성되고, 이 생산 데이터로, 클라우드 연산은 대량의 생산 데이터를 처리하기 위한 추론 모델을 훈련하고, 추론 모델로 생산 데이터에 대해 추론 연산을 수행할 수 있다. 이러한 방식으로, 다수의 서버들(즉, 클라우드 디바이스)로 구성되는 시스템은 사용자측 장치(즉, 공장에서의 생산 장비)로부터 업로드되어 처리되는 데이터에 대한 추론 연산을 수행하여 추론 결과들을 획득하고, 추론 결과들을 분석하여 클라우드 판정을 획득하고, 그 다음에 클라우드 판정을 사용자측 디바이스에 전송하며, 이에 의해, 생산 프로세스에서 사물 인터넷을 구현한다. 여기서, 전술한 연산 아키텍처는 사용자-클라우드 연산 아키텍처로 지칭된다.
사용자-클라우드 연산 아키텍처가 도 1을 참조하여 후술된다. 사용자측 디바이스(3')는 처리될 데이터(즉, 생산 장비에 의해 생성된 생산 데이터)를 클라우드 디바이스(2')에 업로드한다. 클라우드 디바이스는 데이터에 대해 추론 연산을 수행하고 판정 결과를 획득한 다음, 판정 결과를 다시 사용자측 디바이스(3')에 전송한다. 사용자측 디바이스(3')는 수신된 판정 결과에 따라 대응적으로 작용한다. 이러한 방식으로, 사용자측 디바이스(3')의 통합된 관리가 달성된다.
그러나, 사용자측 디바이스(3')로부터 업로드된 대량의 데이터로 인해, 데이터의 업로드 프로세스에서, 데이터를 업로드하기 위해 사용되는 네트워크 대역폭 및 네트워크 관리 기관은 업로드 속도를 크게 제한하여, 데이터 처리의 열악한 적시성을 초래할 것이다. 또한, 대량의 데이터는 클라우드 디바이스(3')에 업로드된 후에 저장될 필요가 있고, 이는 클라우드 디바이스(3')의 많은 리소스를 점유할 것이고 따라서 클라우드 디바이스에 큰 부담을 줄 것이다.
전술한 사용자-클라우드 연산 아키텍처의 문제들을 해결하기 위해, 사용자측-에지측-클라우드 연산 아키텍처가 생산 프로세스에서 생성되는 생산 데이터를 처리하는데 사용될 수 있다.
도 3 내지 도 5를 참조하면, 본 개시내용의 일부 실시예들은 적어도 하나의 프로세서(110) 및 메모리(120)를 포함하는 추론 연산 장치(100)를 제공한다. 메모리(120)는 프로그램 명령어들을 저장한다. 적어도 하나의 프로세서(110)에 의해 실행될 때, 프로그램 명령어들은 추론 연산 장치(100)로 하여금 다음의 단계들 S10 내지 S40을 수행하게 한다.
S10에서, 제1 추론 모델이 모델 훈련 장치(200)로부터 수신된다. 제1 추론 모델은 제1 훈련 샘플 라이브러리에 기초한 모델 훈련을 통해 모델 훈련 장치(200)에 의해 획득된다. 제1 훈련 샘플 라이브러리는 제조 스테이지에서 생성된 이력 데이터로부터 훈련 샘플들을 포함하고, 모델 훈련 장치(200)는 클라우드 디바이스를 포함한다. 즉, 모델 훈련 장치(200)는 클라우드 디바이스일 수 있다.
예에서, 신경망 모델이 모델 훈련 장치(200)에 의해 훈련되고, 이는 다음의 단계들을 포함한다: 네트워크 토폴로지를 선택하는 단계; 네트워크 모델링된 문제들을 나타내는 훈련 데이터의 그룹을 사용하는 단계; 및 네트워크 모델이 훈련 샘플 라이브러리의 모든 예들에 대해 최소 오차를 갖는 것으로 나타날 때까지 가중치를 조정하는 단계. 예를 들어, 신경망에 대한 지도 학습 훈련 프로세스 동안, 훈련 데이터세트 내의 예를 나타내는 입력에 응답하여 네트워크에 의해 생성된 출력이 "정확한" 것으로 마킹된 예의 출력과 비교되고; 출력과 마킹된 출력 사이의 차이를 나타내는 오차 신호가 계산되고; 오차 신호가 네트워크의 계층들을 통해 역방향으로 전파될 때, 여기서 접속과 연관된 가중치는 오차를 최소화하도록 조정된다. 훈련 데이터세트의 예들로부터 생성된 각각의 출력의 오차가 최소화될 때, 신경망 모델은 "훈련된" 것으로 고려되고 인공 지능의 추론 작업에 이용될 수 있다.
다수의 파라미터들, 활성화 값들 및 그래디언트 값들의 버퍼 영역이 신경망 모델의 추론 및 훈련의 프로세스에 수반된다. 값들 각각은 매 훈련 프로세스에서 완전히 업데이트되며, 이는 매우 높은 계산력 및 처리 용량을 필요로 한다. 간단한 프로그래밍 모델, 강한 병렬 능력, 및 높은 비디오 메모리 대역폭으로, 그래픽 처리 유닛(GPU)은 심층 신경망들의 훈련과 연관된 계산들을 처리할 시에 극도로 효율적이다. 따라서, 복수의 GPU와 통합된 GPU 클러스터를 이용함으로써, 신경망 모델의 훈련 및 추론 속도를 효과적으로 개선하는 것이 가능할 수 있다.
추론 모델은 피드포워드 신경망 모델, 컨볼루션 신경망(CNN) 모델, 순환 신경망(RNN) 모델, 또는 생성 컨프론테이션 네트워크(GAN) 모델과 같은 신경망 모델일 수 있으며, 이에 제한되지 않고, 본 기술 분야의 통상의 기술자들에게 공지된 다른 신경망 모델들이 또한 사용될 수 있다.
S20에서, 추론 결과를 획득하기 위해 제1 추론 모델에 기초하여 제조 스테이지에서 발생되는 처리될 데이터에 대해 추론 연산이 수행되고, 추론 결과가 사용자측 디바이스에 전송된다. 추론 연산 장치(100)는 모델 훈련 장치보다 사용자측 디바이스에 더 가깝다.
일 예에서, 도 2를 참조하면, 추론 연산 장치(100)는 에지측 디바이스(1')이고, 모델 훈련 장치(200)는 클라우드 디바이스(2')이고, 에지측 디바이스(1')는 사용자측 디바이스(3')와 클라우드 디바이스(2') 사이에 배치되고 사용자측 디바이스(3')의 일단에 가깝다. 에지측 디바이스(1')는 추론 모델을 이용하여 사용자측 디바이스(3')로부터 처리될 데이터에 대해 추론 연산을 수행하여 에지측의 판정 결과를 획득하고, 에지측의 판정 결과를 사용자측 디바이스(3')에 전송한다. 또는, 에지측 디바이스(1')는 결과를 클라우드 디바이스(2')에 업로드하고, 그 후 클라우드 디바이스(2')는 업로드된 결과를 처리 및 분석하여 클라우드 판정 결과를 획득하고, 클라우드 판정 결과를 사용자측 디바이스(3')에 전송한다. 다른 예에서, 에지측 디바이스(1')는 사용자측 디바이스(3')에 통합될 수 있다. 즉, 사용자측 디바이스(3')는 생산 데이터를 생성하고 또한 생산 데이터에 대해 추론 연산을 수행한다.
에지측 디바이스(1')는 클라우드 디바이스(2')보다 사용자측 디바이스(3')에 더 가깝다. 따라서, 처리될 데이터를 송신하는데 더 적은 시간이 걸리고, 이는 데이터 처리의 적시성을 향상시킨다. 더욱이, 처리될 데이터를 클라우드 디바이스(2')에 업로드할 필요가 없기 때문에, 클라우드 디바이스(2') 상에서 더 적은 리소스들이 이용되며, 이에 의해, 클라우드 디바이스에 부과되는 부담을 감소시킨다. 또한, 사용자측-에지측-클라우드 연산 아키텍처에서, 클라우드 디바이스(2')는 실시간으로 판정을 피드백할 필요 없이 그 강한 연산력으로 모델 훈련을 수행하는데 활용될 수 있다.
에지측 디바이스(1')에서의 추론 모델은 (머신 러닝 알고리즘과 같은) 일부 알고리즘들을 사용하여 추론 연산을 수행하는 알고리즘 구조를 지칭한다는 점을 유의하여야 한다. 여기서, 에지 디바이스(1')의 추론 연산의 요건들을 충족시키는 추론 모델을 획득하기 위해 모델 훈련이 수행될 필요가 있다. 모델 훈련은 대량의 훈련 샘플들에 대해 다수의 반복 및 계산을 수행하고, 이러한 훈련 샘플들의 특정 특징들을 추출하고, 궁극적으로 특정 특징들을 갖는 데이터세트에 수렴하는 알고리즘 구조 및 파라미터 값들을 획득하는 것, 즉 특정 특징들을 갖는 데이터를 식별할 수 있는 추론 모델을 획득하는 것을 의미한다.
모델 훈련을 위해 사용되는 다수의 훈련 데이터세트, 검증 데이터세트, 및 훈련된 모델을 테스트하기 위한 테스트 데이터세트 모두는 원본 이미지 샘플들 및 대응하는 마킹 정보를 포함한다. 3개의 데이터세트 내의 원본 이미지 샘플들은 서로 완전히 중복되거나, 부분적으로 중복되거나, 중복되지 않을 수 있다. 그에 따라, 훈련 데이터세트, 검증 데이터세트, 및 테스트 데이터세트가 완전히 중복되거나, 부분적으로 중복되거나, 서로 중복되지 않을 수 있다. 중복이 전혀 없는 것이 이상적이고, 이 경우, 훈련된 모델들은 더 신뢰성 있다.
예를 들어, 디스플레이 패널의 생산 동안, 각각의 프로세스 후에 디스플레이 패널의 화상들을 촬영하여 디스플레이 패널의 이미지들(예컨대, 어레이 기판의 이미지)을 획득하여, 이미지들 내에 결함들은 물론, 결함들의 타입들 및 위치들이 존재하는지를 식별함으로써 디스플레이 패널의 결함 정보를 획득하고, 결함 디스플레이 패널 및 그의 결함 정보를 마킹하고, 상이한 결함들에 대한 대응하는 수리 프로세스들을 이용하여 패널을 수리하는 것이 필요하다. 컴퓨터 비전 인식은 딥 러닝을 사용한 신경망 모델을 통한 이미지 인식에 의해 실현될 수 있고, 여기서 추론 모델은 클라우드 디바이스(1')에 의한 샘플 훈련 후에 에지측 디바이스(2')에 전송된다. 사용자측(3')에 의해 발생된 이미지들에 에지측 디바이스(2')에 의해 추론 연산이 빠르게 적용되며, 이는 클라우드 연산의 송신의 지연 및 대역폭 압력을 제거한다.
예를 들어, 신경망 모델로 이미지들의 결함을 식별하는 단계는 다음과 같다: 제품 이미지들을 먼저 고정 픽셀 MХN으로 스케일링하고(이 단계는 또한 생략될 수 있음), 그 후 MХN 이미지들을 딥 컨볼루션 신경망, 예를 들어, VGGNet, ResNet 및 MobileNet 등에 전송하는 단계; 다수의 컨볼루션 계층, 활성화 계층 및 풀링 계층을 통해 특징 맵들을 획득하는 단계; 특징 맵들을 필터링 영역 네트워크(ZF, SSD, 및 RPN 등)에 입력하고, 계산들에 의해 제안 영역을 획득하는 단계; 및 이어서, 제안 영역에 대해 컨볼루션 및 풀링과 같은 동작들을 수행하여, 분류를 위해 완전 접속 및 소프트맥스 네트워크들로 전송되는 제안 영역의 제안 특징을 획득하여(본 명세서에서 "분류"는 제안 특징을 특정 결함 타입으로 분류하는 것을 의미함), 가장 큰 확률을 갖는 타입을 최종 분류 결과로서 획득하고, 타입 및 확률을 기록하는 단계. 또한, 제안 영역의 좌표 및 치수는 결함의 위치 및 크기를 나타낸다. 결함 모델에 기초하여 제품 결함 콘텐츠를 식별하기 위한 방법은 위의 방법 또는 본 기술 분야의 통상의 기술자들에게 공지된 다른 방법들의 유사한 변형일 수 있으며, 이는 본 개시내용에서 제한되지 않는다.
S30에서, 제1 추론 모델의 성능이 평가되어 제1 추론 모델이 업데이트될 필요가 있는지를 결정한다.
사용자측 디바이스(3')로부터 처리될 데이터가 계속적으로 발생되고 업데이트되고 새로운 특징들(모델 훈련 동안 나타나지 않은 특징들)로 처리될 데이터가 계속 나타남에 따라, 추론 모델의 추론 연산력은 점차 감소하고 추론 모델에 의해 획득되는 에지측 판정 결과의 정확도는 그와 함께 감소한다. 디스플레이 패널의 생산을 예로 들면, 새로운 제품들의 생산, 생산 프로세스들의 업데이트, 및 생산 장비의 업그레이드와 같은 인자들은 모두 생산 프로세스에서 새로운 타입의 결함을 야기할 수 있다. 새로운 타입의 결함이 모델 훈련 동안 훈련 샘플들에 나타나지 않았기 때문에, 추론 모델은 새로운 타입의 결함을 식별할 수 없다. 따라서, 추론 모델은 제조 프로세스에서 결함 식별 및 분류의 요건들을 더 이상 충족시키지 않는다.
위에서 언급된 바와 같이, 추론 모델은 다수의 훈련 샘플들을 사용하여 모델 훈련을 통해 획득된다. 훈련 샘플들은 적어도 하나의 데이터로 구성된 데이터세트로서 고려될 수 있고, 훈련 샘플들은 다양한 타입들의 데이터를 포함할 수 있다. 예를 들어, 훈련 데이터는 이미지들, 비디오들, 오디오 등을 포함할 수 있으며, 이들은 본 명세서에서 구체적으로 제한되지 않는다. 제1 추론 모델을 훈련하는데 사용되는 다수의 훈련 샘플은 제1 훈련 샘플 라이브러리로부터 유래되고, 제1 훈련 샘플 라이브러리 내의 훈련 샘플들은 이력 데이터로부터의 훈련 샘플들을 포함한다. 여기서, 이력 데이터는 정확한 결과로 판단되고 마킹된 생산 데이터를 지칭한다. 예를 들어, 생산 데이터는 전술한 이력 데이터를 획득하기 위해 수작업으로 또는 정확한 판단들을 할 수 있는 다른 장비에 의해 판단된다. 이력 데이터는 정확한 결과로 마킹되었기 때문에, 모델 훈련에서 훈련 샘플로서 이용될 수 있다.
예를 들어, 디스플레이 패널의 생산을 예로 들면, 제1 추론 모델에 의해 처리될 데이터는 제조 스테이지에서 발생된 원본 제품 이미지들을 포함하고, 제1 추론 모델의 추론 결과는 원본 제품 이미지들에 관한 결함 정보를 포함한다. 여기서, 원본 제품 이미지들은 처리되지 않은 것들이고, 원본 제품 이미지의 결함 정보, 예를 들어 결함 위치 및 타입을 획득하기 위해 제1 추론 모델에 의해 추론 연산이 적용될 필요가 있다. 전술한 이력 데이터는 결함 타입으로 마킹된 제품 이미지를 포함한다. 여기서, 마킹된 결함 타입은 정확한 결과이다. 제1 추론 모델의 성능을 평가할 때, 추론 연산 장치(100)는 추론 연산 후에 제1 추론 모델에 의해 획득되는 추론 결과를 정확한 결과와 비교하여, 제1 추론 모델의 성능을 평가할 것이라는 점을 유의하여야 한다. 여기서, 정확한 결과는 수작업 판단 후에 추론 연산 장치(100)에 입력된다.
예를 들어, 디스플레이 패널의 생산을 예로 들면, 작업자는 고정된 기간(예를 들어, 매일 14:00-15:00)에 생산 라인에서의 디스플레이 스크린의 원본 제품 이미지를 판단하여 결함을 갖는 원본 디스플레이 스크린 이미지를 결정하고, 결함 타입을 마킹하고, 수동 결과를 정확한 결과로서 추론 연산 장치(100)에 전송한다. 다른 예에서, 수작업 판단 결과를 얻기 위해 수작업 판단을 위해 고정된 수의 원본 제품 이미지가 랜덤하게 선택된다. 다른 예들에서는, 디스플레이 스크린들의 지정된 회분(batch)의 원본 제품 이미지들에 수작업 판단이 적용되어 수작업 판단 결과를 얻는다.
예를 들어, S20에서 제1 추론 모델에 기초하여 제조 스테이지에서 발생되는 처리될 데이터에 대해 추론 연산을 수행하는 프로세스 동안, 제1 추론 모델의 성능을 평가하기 위해 S30이 수행된다.
S40에서, 제1 추론 모델이 업데이트될 필요가 있다면, 제1 추론 모델이 업데이트된다.
전술한 추론 연산 장치(100)에서, 제1 추론 모델이 업데이트될 필요가 있는지를 결정하기 위해, 제1 추론 모델의 성능을 평가함으로써 제1 추론 모델의 성능이 추론 요건들을 충족시키는지를 알거나, 또는 성능 평가 결과에 기초하여 제1 추론 모델의 성능의 변동 경향을 예측하는 것이 가능하다. 제1 추론 모델의 성능이 현재 추론 요건들을 충족시키지 않는 경우, 또는 제1 추론 모델의 성능이 추론 요건들을 충족시키지 않을 것으로 예측되는 경우, 즉, 제1 추론 모델이 업데이트될 필요가 있다고 결정되는 경우, 제1 추론 모델이 업데이트된다. 이러한 방식으로, 제1 추론 모델의 성능이 모니터링될 수 있고, 그리고, 이는 그 성능이 추론 요건들을 충족시키지 않을 때 제시간에 알려지고 업데이트될 수 있으며, 이에 의해 추론 연산 장치(100)에 의해 사용되는 제1 추론 모델의 성능이 요건들을 충족시키는 것을 보장하고, 추론 연산 장치(100)의 추론 결과의 정확도를 향상시킨다. 또한, 추론 결과에 기초하여 이루어지는 판정 명령의 정확도가 향상될 수 있다.
추론 연산 장치(100)의 응용 시나리오는 본 명세서에서 구체적으로 제한되지 않는다는 점에 유의한다. 예를 들어, 추론 연산 장치(100)가 에지측 디바이스로서 사용될 수 있다. 다른 예로서, 추론 연산 장치(100)는 사용자측 디바이스(즉, 생산 디바이스)에 통합될 수 있다.
예를 들어, 디스플레이 패널의 생산을 예로 들면, 추론 연산 장치(100)는 사용자측 디바이스로부터 제조 스테이지에서의 디스플레이 패널의 원본 제품 이미지를 획득하고, 원본 제품 이미지는 추론 연산 장치(100)가 처리할 필요가 있는 처리되지 않은 데이터이다. 사용자측 디바이스는 다음을 포함할 수 있다: AOI(automated optical inspection) 장비, DFS(distributed file system) 또는 이미지 서버. 사용자측 디바이스는 예를 들어, 파일 전송 프로토콜(FTP)을 사용하여, 생산 프로세스에서 디스플레이 패널의 이미지를 원본 제품 이미지, 즉, 처리될 데이터로서 실시간으로 캡처할 수 있다. 처리될 데이터는 단지 예시적으로 이미지들로서 설명된다는 점에 유의한다. 실제로, 처리될 데이터는 다양한 형태의 데이터를 포함할 수 있고, 예를 들어, 이는 문서 파일, 사진, 그림, 마이크로필름, 비디오 및 오디오와 같은 적어도 하나의 타입의 구조화되지 않은 데이터를 포함할 수 있거나, 라이브러리에 의해 관리되는 정보와 같은 다양한 구조화되지 않은 정보 중 적어도 하나를 포함할 수 있고, 이는 본 명세서에서 구체적으로 제한되지 않는다.
이어서, 추론 연산 장치(100)는 제1 추론 모델에 따라 추론 연산을 수행한다. 여기서, 제1 추론 모델이 신경망 모델인 예에서, 신경망 모델은 원본 제품 이미지로부터 결함을 식별한 다음 결함 정보로 이를 마킹한다. 마킹된 결함 정보는 결함 타입, 결함 위치, 결함과 어레이 기판의 회로 컴포넌트 사이의 관계, 및 결함 크기 중 적어도 하나를 포함한다.
결함 타입에 관하여, 결함 타입은 예를 들어 입자, 잔류물, 라인, 홀, 스플래시, 정전기 파괴, 주름, 필름 컬러, 버블 및 다른 타입을 포함한다. 또한, 이러한 타입들은 여러 클래스로 더 분할될 수 있다. 예를 들어, 결함 타입이 입자들이면, 이는 P로 표현될 수 있고, 결함들은 입자의 형태에 따라 다수의 클래스들로 더 분할될 수 있다. 예를 들어, P0은 정상 입자들을 나타내고, P1은 벽 입자들을 나타내고, P2는 모래 입자들을 나타내는 등이다.
결함 위치에 관하여, 결함 위치는 예를 들어 식별된 결함이 위치하는 회로 보드, 결함이 위치하는 레벨, 및 결함의 위치를 지시하는, 결함이 위치하는 마스크 층 등 중 적어도 하나를 포함한다. 식별된 결함이 회로 보드 상에 위치되는 경우에, 결함 위치는 회로 보드 상의 결함의 정확한 좌표들을 표시하거나, 직사각형 상자 또는 원형 상자와 같은 디스플레이 경계가 결함을 선택하는데 사용될 수 있고, 디스플레이 경계와 연관되는 지점의 좌표들(예를 들어, 직사각형 상자의 꼭지점 또는 원형 상자의 중심의 좌표들)이 결함의 좌표들을 표시하는데 사용될 수 있다.
결함과 어레이 기판의 회로 컴포넌트 사이의 관계에 관하여, 예를 들어, 이는 결함 영역에 의해 커버되는 다수의 게이트들, 및 결함이 완전히 게이트 내에 있는지, 게이트와 교차하는지 또는 게이트의 외부 및 가까이에 있는지를 포함한다.
결함 크기에 관하여, 이는 결함의 길이 및 면적(예컨대, 결함에 의해 점유된 유효 디스플레이 면적)에 의해 표현될 수 있다.
예를 들어, 전술한 결함 정보는 코드(예를 들어, 입자 타입 결함들의 클래스들에 대응하는 코드들 P0 내지 P2), 좌표들, 수, 및 텍스트와 같은 다양한 형태들로 추가로 표현될 수 있다.
일 예에서, 제1 추론 모델은 원본 제품 이미지 내의 결함이 식별된 후에 식별된 결함을 그의 타입 및 위치로 마킹한다. 여기서, 결함의 타입은 식별된 결함의 타입의 코드로 대응적으로 마킹되고, 결함 위치는 원본 이미지에서 직사각형 상자로 마킹되고, 대응하는 이미지 내의 직사각형 상자의 좌표 정보가 기록된다.
이에 기초하여, 일부 실시예들에서, 제1 추론 모델의 성능은 제1 추론 모델에 의해 처리될 데이터의 추론 연산 동안 평가된다(S30). 이 경우에, 예시적으로, 제1 추론 모델의 성능을 평가하기 위해 사용되는 평가 파라미터들은 추론 연산 프로세스에서 제1 추론 모델의 정확도율, 정밀도율, 리콜율 및 F 스코어(FScore) 중 적어도 하나를 포함한다.
여기서, 정확도율은 공식 (1)에 의해 계산될 수 있고, 정밀도율은 공식 (2)에 의해 계산될 수 있고, 리콜율은 공식 (3)에 의해 계산될 수 있고, FScore는 공식 (4)에 의해 계산될 수 있다:
Figure pct00001
(1);
Figure pct00002
(2);
Figure pct00003
(3);
Figure pct00004
(4).
이 경우, TP(Ture Positive)는 계산된 결과가 양성이고 실제 결과 또한 양성임을 의미한다. 즉, 추론 모델에 의한 추론 연산 후에, 결과적인 계산된 결과는 A이고(A는 결과를 나타냄), 실제 결과는 또한 A이고, 이 경우, 계산된 결과는 실제 결과와 일치한다.
FP(False Positive)는 계산된 결과가 양성인 반면 실제 결과는 음성임을 의미한다. 즉, 추론 모델에 의한 추론 연산 후에, 결과적인 계산된 결과는 A이지만 실제 결과는 A가 아니며, 이 경우, 계산된 결과는 실제 결과와 일치하지 않는다.
FN(False Negative)은 계산된 결과가 음성인 반면 실제 결과가 양성임을 의미한다. 즉, 추론 모델에 의한 추론 연산 후에, 결과적인 계산된 결과는 A가 아닌 반면 실제 결과는 A이며, 이 경우, 계산된 결과는 실제 결과와 일치하지 않는다.
TN(Ture Negative)은 계산된 결과가 음성이고 실제 결과도 음성임을 의미한다. 즉, 추론 모델에 의한 추론 연산 후에, 결과적인 계산된 결과는 A가 아니고 실제 결과도 A가 아니며, 이 경우, 계산된 결과는 실제 결과와 일치한다.
정확도율, 정밀도율, 리콜율 및 F 스코어는 제1 추론 모델의 성능을 특징짓는 평가 파라미터들이라는 점에 유의한다. 제1 추론 모델의 성능을 평가함에 있어서, 선택된 평가 파라미터들은 추론 연산 장치(100)의 실제 추론 연산 요건에 따라 결정될 수 있다.
예를 들어, 추론 연산 장치(100)의 추론 연산 요건이 정확도율에 더 관심이 있는 경우, 이때, 추론 모델의 성능을 평가할 때 평가 파라미터로서 정확도율이 이용된다.
다른 예로서, F 스코어가 제1 추론 모델의 성능을 평가하는데 사용된다. F 스코어는 정확도율 및 리콜율로 가중된 평가 파라미터이다. 여기서, F 스코어를 계산하는 데 사용되는 β는 가중 인자이다. 그리고 정밀도율 및 리콜율의 관련 비율들은 응용 시나리오에 기초하여 조정될 수 있는 β의 값을 변경함으로써 조정될 수 있다. 예를 들어, β가 1로 설정될 때, 제1 추론 모델의 성능은 정밀도율 및 리콜율이 평가 결과에 동일한 영향을 미치는, 즉, 정밀도율 및 리콜율의 관련 비율들이 동일한 방식으로 평가될 수 있다.
일 예에서, 예를 들어, 추론 연산 장치(100)는 제1 추론 모델을 통해 1000개의 화상이 개 또는 고양이 중 어느 것인지를 판단할 필요가 있다. 여기서, 추론 모델(100)에 의해 이루어진 판단 결과는 이에 의해 이루어진 판정이다. 수작업 판단 후에, 1000개의 화상이 모든 개의 화상으로 판단된다. 즉, 실제 결과는 다음과 같다: 1000개의 화상들은 모두 개의 화상들이다. 제1 추론 모델에 의한 추론 연산 후에, 획득된 계산된 결과는 다음과 같다: 720개의 화상은 개의 화상이고, 80개의 화상이 고양이이고, 나머지 200개의 화상은 식별할 수 없다.
이 경우, 계산된 결과 내의 개의 화상으로 판단되고 실제 결과 내의 개인 화상들의 수는 720이며, 계산된 결과에서의 고양이의 화상으로 판단되지만 실제 결과에서의 고양이의 화상이 아닌 화상들의 수는 0이며, 즉, TP는 720이고; 계산된 결과에서 개의 화상이라고 판단되지만 실제 결과에서 개의 화상이 아닌 화상의 수는 0이고, 계산된 결과에서의 고양이의 화상으로 판단되지만 실제 결과에서의 고양이의 화상이 아닌 화상들의 수는 80이며, 즉 FP는 80이고; 계산된 결과에서 개의 화상이 아니라고 판단되지만(고양이라고 판단되는 화상들의 수 및 식별될 수 없는 화상들의 수를 포함함) 실제 결과에서 개의 화상인 수는 280이고; 계산된 결과에서의 고양이의 화상이 아니라고 판단되지만 실제 결과에서 고양이의 화상인 화상들의 수는 0이며, 즉 FN은 280이고; 계산된 결과에서 개가 아니라고 판단되고 실제로 실제 결과에서 개의 화상이 아닌 화상들의 수는 0이고; 계산된 결과에서 고양이가 아닌 것으로 판단되고(개의 화상으로 판단되는 화상들의 수 및 식별될 수 없는 화상들의 수를 포함함) 실제 결과에서 고양이가 아닌 것으로 판단되는 화상들의 수는 920이며, 즉 TN은 920이다.
TP, FP, FN 및 TN의 값들을 공식들 (1), (2), (3) 및 (4)에 대입함으로써- 여기서 β는 1임 -, 정확도율은 0.82이고, 정밀도율은 0.9이고, 리콜율은 0.72이고, F 스코어는 0.8인 것으로 결론지을 수 있다.
일부 실시예들에서, 추론 연산 장치(100)의 실제 추론 연산 요건들에 따라 평가 파라미터에 대해 하한이 설정된다.
예를 들어, 제1 추론 모델의 적어도 하나의 성능 평가에서, 획득된 평가 파라미터 값이 하한보다 낮은 경우, 평가 결과에서 제1 추론 모델의 성능이 감소하는 것으로 결정되고; 얻어진 평가 파라미터 값이 하한 이상이면, 평가 결과에서 제1 추론 모델의 성능이 성능 요건들을 충족시킨다고 결정된다.
또 다른 예로서, 일부 연속적인 성능 평가에서, 획득된 평가 파라미터 값들이 때때로 하한 이상이고 때때로 하한보다 낮다면, 평가 결과에서 제1 추론 모델의 성능이 변동한다고 결정되고; 얻어진 평가 파라미터 값들 모두가 하한값 이상이면, 평가 결과에서 제1 추론 모델의 성능이 성능 요건들을 충족시킨다고 결정된다.
예를 들어, 평가 파라미터가 정밀도율인 예에서, 정밀도율의 하한은 0.95로 설정된다. 성능 평가에서 제1 추론 모델의 정밀도율이 0.92인 것으로 획득되면, 평가 결과는 성능이 감소한다는 것이다. 다른 예에서, 제1 추론 모델의 정확도율이 5개의 연속적인 성능 평가에서 0.96, 093, 097, 0.92, 및 0.95이면, 평가 결과는 성능이 변동한다는 것이다.
일부 실시예들에서, S30에서의 제1 추론 모델의 성능의 평가에 따라, 제1 추론 모델이 업데이트될 필요가 있는 경우는 제1 추론 모델의 성능은 변동하거나 감소하는 경우를 포함한다. 제1 추론 모델의 성능이 변동하는지 또는 감소하는지는 연속적인 기간 내의 성능 파라미터들의 변동에 따라 결정된다.
본 개시내용의 일부 실시예들에서, 도 3 및 도 6을 참조하면, S40에서 제1 추론 모델을 업데이트하는 단계는 S401a 또는 S401b 및 S402를 포함한다.
S401a에서, 제2 추론 모델을 획득하기 위해 제2 훈련 샘플 라이브러리에 기초하여 모델 훈련이 수행되거나; 또는, S401b에서, 모델 업데이트 요청은 제2 추론 모델을 획득하기 위해 모델 훈련 장치(200)에 전송된다. 제2 훈련 샘플 라이브러리는 이력 데이터로부터의 훈련 샘플들 및/또는 추론 결과로부터 유래되고 재판단이 적용된 훈련 샘플들을 포함한다.
S402에서, 제1 추론 모델은 제2 추론 모델이 업데이트 조건을 충족시키는 경우에 제2 추론 모델로 업데이트된다.
전술한 "추론 결과"는 S20에서의 추론 연산을 통해 제1 추론 모델에 의해 획득된 추론 결과를 지칭한다는 점을 유의하여야 한다. 여기서, 여기에서 및 이하에서 설명되는 표현 "추론 결과로부터 유래되고 재판단이 적용된"은 제1 추론 모델의 추론 결과에 대해 재판단을 수행하는 것, 예를 들어, 제1 추론 모델의 추론 결과에 대해 수작업 판단을 수행하여 정확한 결과로 마킹된 생산 데이터를 획득하는 것을 의미한다. 예를 들어, 예로서 디스플레이 패널의 생산으로, 처리될 데이터는 디스플레이 패널의 원본 제품 이미지들이고, 그리고 디스플레이 패널의 원본 제품 이미지들이 추론 연산 장치(100)에 전송되고, 제1 추론 모델에 의해 추론 연산이 적용되어 추론 결과를 획득한다. 그 다음, 정확한 결과로 마킹된 디스플레이 패널의 제품 이미지들은 추론 결과의 재판단 후에 획득될 수 있고, 이러한 이미지들은 제2 훈련 라이브러리(150)의 훈련 샘플들의 소스로서 사용될 수 있다.
제2 훈련 라이브러리는 추론 결과로부터 유래되고 재판단이 적용된 훈련 샘플들을 포함한다. 추론 결과는 생산 프로세스에서 추론 연산 장치(100)에 의해 계속적으로 발생되기 때문에, 이미지들이 제2 훈련 라이브러리의 훈련 샘플들의 소스로서 역할을 할 때 제2 훈련 라이브러리는 제조 스테이지에서 생산 데이터에 새로운 특징들을 갖는 훈련 샘플들을 리프레시하고 이들을 포함한다. 이 경우, 새로운 훈련 샘플들이 모델 훈련에서 추론 연산 장치(100)에 의해 사용되는 것이 보장될 수 있다. 따라서, 제2 추론 모델은 제1 추론 모델보다 새로운 특징들로 처리될 새로 나타나는 데이터에 대해 더 나은 추론 연산을 수행할 수 있다. 제1 추론 모델이 제2 추론 모델로 업데이트되는 경우에, 추론 연산 장치(100)의 추론 결과의 정확도가 향상될 수 있다.
여기서, S401a에서의 제2 훈련 샘플 라이브러리와 관련하여, 일 예에서, 도 3에 도시된 바와 같이, 추론 연산 장치(100)는 제2 훈련 샘플 라이브러리를 포함하고, 이는 메모리(120)에 저장된다. 다른 예에서, 제2 훈련 샘플 라이브러리는 다른 메모리들에 저장되고, 추론 연산 장치(100)는 이러한 메모리들로부터 제2 훈련 샘플 라이브러리를 획득할 수 있다.
예를 들어, 도 3을 참조하면, 추론 연산 장치(100)는 에지측 디바이스로서 사용될 수 있고, 모델 훈련 장치는 클라우드 디바이스로서 사용될 수 있다. 즉, 추론 연산 장치(100)(에지측 디바이스)는 모델 훈련 장치(200)(클라우드 디바이스)보다 사용자측 디바이스에 더 가깝게 위치된다.
또한, 추론 연산 장치(100)는 결합 인터페이스(150)를 포함한다. 결합 인터페이스(150)는 추론 연산 장치(100)가 정보 상호작용을 구현하기 위해 유선 또는 무선 방식으로 사용자측 디바이스와 통신할 수 있게 할 수 있다. 여기서, 결합 인터페이스(150)는 유선 또는 무선 접속을 실현할 수 있는 임의의 하드웨어 또는 소프트웨어 인터페이스일 수 있다.
추론 연산 장치(100)는 정보 상호작용을 구현하기 위해 모델 훈련 장치(200)와 통신하는 네트워크 인터페이스(140)를 더 포함한다. 여기서, 추론 연산 장치는 전송 제어 프로토콜/인터넷 프로토콜(TCP/IP), 하이퍼 텍스트 전송 프로토콜(HTTP) 등 중 적어도 하나를 사용함으로써 네트워크 인터페이스(140)를 통해 외부 디바이스들(예컨대, 모델 훈련 장치(200))과의 정보 상호작용의 실현을 수행한다.
예를 들어, 추론 연산 장치(100)는 네트워크 인터페이스(140)를 통해 모델 훈련 장치(200)와 통신하고, 따라서 S401b에서 제1 추론 모델을 수신하거나 모델 업데이트 요청을 모델 훈련 장치(200)에 전송하여 제2 추론 모델을 획득한다. 즉, 모델 훈련 장치(200)의 정보 상호작용이 실현된다.
일부 실시예들에서, 도 6에 도시된 제2 추론 모델이 충족시킬 필요가 있는 업데이트 조건은 다음을 포함한다: 테스트가 제2 추론 모델에 대해 수행되고, 제2 추론 모델이 테스트를 통과한다.
테스트는 테스트 샘플들에 기초하여 제2 추론 모델의 성능을 평가하는 것을 포함한다. 성능이 평가 요건들을 충족시키는 경우, 제2 추론 모델이 테스트를 통과한 것으로 결정된다. 여기서, 테스트 샘플들의 소스는 구체적으로 제한되지 않는다. 예를 들어, 테스트 샘플들은 이력 데이터, 즉, 정확한 식별 정보로 마킹된 생산 데이터로부터의 것이다. 다른 예로서, 테스트 샘플들은 수작업 판단을 거친 처리될 데이터로부터의 것이다. 또 다른 예에서, 테스트 샘플들은 부분적으로는 이력 데이터로부터 그리고 부분적으로는 수작업 판단을 거친 처리될 데이터로부터 유래한다. 명백하게, 테스트 샘플들의 소스는 이들에 제한되지 않는다.
또한, 특정 테스트 샘플들은 테스트가 얼마나 자주 수행되는지 또는 테스트 레벨에 따라 복수의 테스트 샘플로부터 선택될 수 있고, 적어도 하나의 테스트 계획이 이에 기초하여 이루어질 수 있다. 이어서, 추론 연산 장치(100)는 적어도 하나의 테스트 계획에 따라 제2 추론 모델에 대해 테스트를 수행한다.
이에 기초하여, 일부 실시예들에서, 업데이트 조건은 다음을 더 포함한다: 그레이 스케일 배치가 제2 추론 모델에 대해 수행되고, 제2 추론 모델의 성능은 그레이 스케일 배치 동안 평가되고, 제2 추론 모델의 성능은 평가 요건들을 충족시킨다.
"그레이 스케일 배치"는 추론 연산 장치(100)가 미리 설정된 기간 내에 제2 추론 모델을 사용하여 시뮬레이션 처리를 수행하는 것을 의미한다. 예를 들어, 그레이 스케일 배치 동안, 추론 연산 장치(100)는 제1 추론 모델 및 제2 추론 모델을 동시에 이용하여 사용자측 디바이스로부터 전송된 처리될 데이터를 처리한다. 이 프로세스에서, 추론 연산 장치(100)는 제1 추론 모델의 추론 결과를 출력하는 반면, 제2 추론 모델의 추론 결과는 그 성능을 평가하기 위해서만 사용되고 실제 추론 결과로서 출력되지 않을 것이다. 즉, 추론 연산 장치(100)는 그레이 스케일 배치 프로세스 동안 제2 추론 모델의 추론 결과에 기초하여 판정 명령을 생성하지 않는다. 따라서, 제2 추론 모델의 그레이 스케일 배치는 추론 연산 장치(100)에 의해 처리될 데이터의 처리 및 생산 라인에서의 정상 생산에 영향을 미치지 않을 것이다.
제2 추론 모델의 성능은 시뮬레이션 프로세스 동안 제2 추론 모델의 성능을 평가함으로써 그것이 요건들을 충족시키는지를 알기 위해 예측된다. 그레이 스케일 배치 동안, 제2 추론 모델에 의해 추론 연산이 적용된 처리될 데이터도 수작업으로 판단될 필요가 있다. 여기서, 수작업 판단의 결과는 추론 연산 장치(100)가 수작업 판단의 결과를 제2 추론 모델의 추론 결과와 비교하기 위한 정확한 결과로서 사용되어, 그레이 스케일 배치 프로세스 동안 제2 추론 모델의 성능을 평가한다.
예를 들어, 사용자측 디바이스로부터 전송된 디스플레이 패널의 원본 제품 이미지의 사본이 그레이 스케일 배치 동안 제2 추론 모델의 시뮬레이션 프로세스를 위해 추론 연산 장치(100)에 전송되고, 수작업 판단을 위해 다른 사본이 사용된다. 추론 결과 및 정확한 결과는 제2 추론 모델의 성능을 평가하기 위해 추론 연산 장치(100)에 의해 비교된다.
또한, 본 기술 분야의 통상의 기술자들은 그레이 스케일 배치 동안 제2 추론 모델의 성능을 평가할 시에, 정확도율, 정밀도율, 리콜율 및 F 스코어 중 적어도 하나가 제2 추론 모델의 성능을 평가하기 위한 평가 파라미터로서 사용될 수 있으며, 이는 본 명세서에서 구체적으로 제한되지 않는다는 것을 이해할 것이다.
수작업 판단이 적용된 처리될 데이터는 전술한 테스트 및 그레이 스케일 배치에서 정확한 결과로 마킹된다는 점을 유의하여야 한다. 따라서, 정확한 결과로 마킹된 처리될 데이터는 제1 훈련 샘플 라이브러리(제1 훈련 샘플 라이브러리는 모델 훈련 장치(200)가 모델 훈련을 수행하는 훈련 샘플 라이브러리임) 및/또는 모델 훈련에서의 훈련 샘플들로서 역할을 하는 제2 훈련 샘플 라이브러리에 전송될 수 있고, 그래서, 제1 훈련 샘플 라이브러리 및/또는 제2 훈련 샘플 라이브러리의 업데이트가 실현될 수 있다.
일부 실시예들에서, 업데이트 조건은 다음을 더 포함한다: 제2 추론 모델의 구성 정보가 검증되고, 제2 추론 모델의 구성 정보가 수행될 추론 연산과 매칭된다.
여기서, "수행될 추론 연산"은 추론 연산 장치(100)에 의해 수행되는 처리될 데이터에 대한 추론 연산을 지칭한다. 디스플레이 패널의 생산 프로세스에서, 결함 및 결함 타입이 식별될 필요가 있는 예에서, "수행될 필요가 있는 추론 연산"은 원본 제품 이미지에서의 결함들 및 추가로 그들의 타입들이 추론 연산 장치(100)에 의해 식별될 필요가 있다는 것을 의미한다. 이러한 방식으로, 제2 추론 모델의 구성 정보에 대한 검증을 수행함으로써 제2 추론 모델의 데이터가 송신 동안 파괴되거나 변조되는지가 검출될 수 있고, 그리고 추론 연산 장치(100)에 의해 획득된 제2 추론 모델이 추론 연산(100)의 추론 연산 요건들과 매칭되는 것이 보장될 수 있다.
일부 실시예들에서, 도 6을 참조하면, 제2 훈련 샘플 라이브러리에 기초하여 모델 훈련을 수행하기 전에(S401a), 또는 모델 업데이트 요청을 모델 훈련 장치(200)에 전송하기 전에, 추론 연산 장치(100)는 다음의 동작 S5를 추가로 수행한다.
S35에서, 수행될 모델 훈련을 위해 요구되는 훈련 파라미터들이 훈련 파라미터들의 미리 설정된 범위 내에 있는지가 결정된다. 훈련 파라미터들이 미리 설정된 범위 내에 있으면, 모델 훈련이 수행된다(S401a). 즉, 이 경우에, 제2 추론 모델을 획득하기 위해 추론 연산 장치(100)에 의해 모델 훈련이 수행된다. 훈련 파라미터들이 미리 설정된 범위 내에 있지 않으면, 모델 업데이트 요청이 모델 훈련 장치(200)에 전송된다. 즉, 이 경우, 모델 훈련 장치(200)에 의해 모델 훈련이 수행되어 제2 추론 모델을 획득한다.
본 명세서에서, "훈련 파라미터들의 미리 설정된 범위"는 추론 연산 장치(100)의 훈련 용량이 수행될 모델 훈련의 요건들을 충족시키는 경우에 대응하는 훈련 파라미터들의 범위를 지칭한다. 즉, 추론 연산 장치(100)의 훈련 용량은 수행될 모델 훈련의 훈련 파라미터들이 훈련 파라미터들의 미리 설정된 범위 내에 있으면 수행될 모델 훈련의 요건들을 충족시킨다. 이 경우에, 모델 훈련은 추론 연산 장치(100) 자체의 모델 훈련 용량으로 완료될 수 있고, 따라서 제2 훈련 모델은 추론 연산 장치(100)에 의한 모델 훈련을 통해 획득될 것이다. 반대로, 추론 연산 장치(100)의 훈련 용량은 수행될 모델 훈련의 훈련 파라미터들이 훈련 파라미터들의 미리 설정된 범위 내에 있지 않으면 수행될 모델 훈련의 요건들을 충족시키지 못한다. 이 경우, 추론 연산 장치(100)의 훈련 용량은 모델 훈련을 완료하기에 불충분하고; 따라서 모델 업데이트 요청은 모델 훈련 장치(200)로 하여금 모델 훈련을 완료하여 제2 추론 모델을 획득하게 하기 위해 모델 훈련 장치(200)에 전송되도록 요구된다. 예를 들어, 모델 훈련 장치(200)는 클라우드 디바이스이다.
일부 실시예들에서, 훈련 파라미터들은 모델 훈련을 위해 요구되는 데이터 크기, 훈련 지속기간, 및 연산력 중 적어도 하나를 포함한다.
예를 들어, 훈련 파라미터들이 모델 훈련을 위해 요구되는 데이터 크기 및 훈련 지속기간인 예에서, 일부 모델 훈련을 위해 요구되는 데이터 크기는 2000개의 이미지 및 2000개의 라벨이고, 요구되는 훈련 지속기간은 15분이고; 설정된 데이터 크기는 3000개의 이미지들 및 3000개의 라벨들이고, 설정된 훈련 지속기간은 20분이다. 이 경우, 모델 훈련을 위해 요구되는 데이터 크기는 데이터 크기의 미리 설정된 범위 내에 있고, 요구되는 훈련 지속기간은 또한 훈련 지속기간의 미리 설정된 범위 내에 있다. 즉, 추론 연산 장치(100)의 훈련 용량은 모델 훈련의 요건들을 충족시킨다. 이후, 추론 연산 장치(100)는 모델 훈련을 수행한다(즉, S401a가 수행된다).
반대로, 다른 모델 훈련을 위해 요구되는 데이터 크기가 데이터 크기의 미리 설정된 범위 내에 있지 않고 요구되는 훈련 지속기간이 훈련 지속기간의 미리 설정된 범위 내에 있지 않은 경우- 이는 에지측 디바이스의 훈련 용량이 수행될 모델 훈련의 요건들을 충족시키지 못하는 것을 나타냄 -, 이때, 추론 연산 장치(100)는 모델 훈련 장치(200)가 모델 훈련을 수행하게 하기 위해 모델 업데이트 요청을 모델 훈련 장치(200)에 전송한다.
이러한 방식으로, 추론 연산 장치(100)의 훈련 용량이 하나의 모델 훈련의 요건들을 충족시키는 경우에, 추론 연산 장치(100)는 모델 훈련을 수행하게 되고, 이는 모델 훈련 장치(200)에 요청을 전송하고 모델 훈련 장치(200)로부터 전송되는 제2 추론 모델을 수신하는 시간을 절약한다. 따라서, 추론 모델은 적시에 획득되고 추론 연산 장치에 대해 업데이트될 수 있고, 그리고 추론 결과의 정확도가 향상될 수 있다.
또한, 모델 훈련 장치(200)가 클라우드 디바이스인 경우, 모델 훈련이 모든 경우에 클라우드 디바이스에 의해 수행되도록 요청되는 방식과 비교하여, 추론 연산 장치(100)가 모델 훈련의 요건을 충족시킬 때 추론 연산 장치(100)가 모델 훈련을 자율적으로 수행하게 함으로써 클라우드 디바이스에 대한 부담을 감소시킬 것이고, 클라우드 디바이스에 대한 불필요한 점유를 감소시킬 수 있고, 따라서 클라우드 디바이스의 리소스 이용률을 향상시키는 것이 가능할 수 있다.
일부 실시예들에서, 도 6을 참조하면, 제1 추론 모델이 제2 추론 모델로 업데이트되는 경우에, 즉, S402가 수행된 후에, 추론 연산 장치(100)는 다음 동작들을 추가로 수행한다:
제2 추론 모델에 대해 성능 평가를 수행하고, 제1 추론 모델의 성능을 제2 추론 모델의 성능과 비교하는 동작;
제2 추론 모델의 성능이 제1 추론 모델의 성능보다 나쁜 경우, 제2 추론 모델을 제1 추론 모델로 롤백시키는 동작; 및 모델 훈련을 다시 수행하거나, 모델 훈련 장치에게 모델 훈련을 다시 수행하도록 요청하는 동작.
이 경우에, 처리될 데이터를 처리하는 실제 프로세스에서, 제2 추론 모델의 성능이 제1 추론 모델의 성능보다 나쁘다면, 추론 연산 장치(100)는 업데이트 전에 업데이트된 제2 추론 모델을 제1 추론 모델로 롤백시킬 수 있다. 이후, 추론 연산 장치(100)는 모델 훈련을 다시 수행하거나, 또는 모델 훈련 장치(200)에게 모델 훈련을 다시 수행하도록 요청한다.
일부 실시예들에서, 도 7을 참조하면, S30에서 제1 추론 모델의 성능 평가에 따라 제1 추론 모델을 업데이트하는 단계는 S80 내지 S82를 포함한다.
S80에서, 제3 추론 모델이 수신된다.
제3 추론 모델은 모델 훈련 장치(200)가 추론 연산 장치(100)로부터 업데이트 요청을 수신하지 않은 경우에 업데이트된 제1 훈련 샘플 라이브러리에 기초한 모델 훈련을 통해 모델 훈련 장치(200)에 의해 획득된다. 업데이트된 제1 훈련 샘플 라이브러리는 추론 결과로부터 유래되고 재판단이 적용된 훈련 샘플들을 포함한다. 즉, 업데이트된 제1 훈련 샘플 라이브러리는 추론 결과로부터 유래되고 재판단이 적용된 훈련 샘플들을 사용하여 제1 훈련 샘플 라이브러리를 업데이트함으로써 획득된다.
S81에서, 제1 추론 모델의 성능은 제3 추론 모델의 성능과 비교된다.
S82에서, 제3 추론 모델의 성능이 제1 추론 모델의 성능보다 더 양호한 경우, 또는 제1 추론 모델에서 이상이 발생하는 경우, 제1 추론 모델은 제3 추론 모델로 업데이트된다.
이러한 방식으로, 업데이트된 제1 훈련 샘플 라이브러리의 훈련 샘플들은 비교적 새롭고 제조 스테이지에서 생산 데이터에 나타난 새로운 특징들을 갖는 훈련 샘플들을 포함하고, 이는 모델 훈련에서 모델 훈련 장치(200)에 의해 비교적 새로운 훈련 샘플들이 사용될 수 있는 것을 보장한다. 따라서, 제3 추론 모델은 제1 추론 모델보다 새로운 특징들을 가진 새로 나타나는 데이터에 대해 더 나은 추론 연산을 수행할 수 있다. 제1 추론 모델이 제3 추론 모델로 업데이트되는 경우에, 추론 연산 장치(100)의 추론 결과의 정확도가 향상될 수 있다.
또한, 제1 추론 모델에서 이상이 발생하는 경우는 제1 추론 모델이 추론 결과를 정확하게 출력할 수 없다는 것을 의미한다. 예를 들어, 제1 추론 모델의 성능이 갑자기 감소하거나; 또는, 제1 추론 모델이 요건들에 따라 추론 결과를 출력하지 않거나; 또는, 제1 추론 모델의 추론 연산이 너무 오래 걸리거나 심각한 타임아웃을 갖는다. 다시 말해, 제3 추론 모델은 제1 추론 모델에서 이상 조건이 발생할 때 제1 추론 모델을 대체하기 위한 백업 추론 모델로서 사용될 수 있다. 또한, 제1 추론 모델의 성능이 평가된 후에 제1 추론 모델이 업데이트될 필요가 있는 경우에, 즉, 제1 추론 모델의 성능이 더 이상 요건들을 충족시키지 않는 경우에, 제3 추론 모델이 추론 연산 장치(100) 또는 모델 훈련 장치(200)가 모델 훈련을 수행하는 기간 동안 요건들을 충족시키지 못하는 제1 추론 모델 대신에 처리될 데이터를 처리하는데 사용되어, 추론 연산 장치(100)의 정상 동작을 보장한다.
일부 실시예들에서, 도 6을 참조하면, 추론 결과를 획득한 후(S20), 추론 연산 장치(100)는 다음 동작(S70)을 추가로 수행한다: 추론 결과에 따라 판정 명령을 생성하는 동작.
결함 정보는 결함, 및 결함 위치 및 결함 타입을 갖는 식별된 원본 제품 이미지를 포함한다. 판정 명령은 결함을 갖는 원본 제품 이미지에 대응하는 제품에 대해 결함 처리를 수행하는 것을 포함한다. 예를 들어, 결함의 타입에 대한 수리 전략은 식별된 결함 타입에 따라 주어진다. 다른 예로서, 이러한 타입의 결함이 발생할 수 있는 이유가 하나 또는 여러 개의 프로세스 디바이스에서의 오동작 또는 일부 부적절하게 설정된 프로세스 파라미터들과 같은 이력 데이터의 분석에 기초하여 주어진다. 다른 예로서, 알려지지 않은 결함 또는 대규모 결함들이 발생할 때 경보가 발행된다.
판정 명령이 추론 연산 장치(100)에 의해 생성되지 않을 수 있다는 점을 유의하여야 한다. 예를 들어, 추론 연산 장치(100)는 추론 결과를 획득한 후에 이를 클라우드 디바이스에 업로드한다. 그 다음, 클라우드 디바이스는 추론 결과에 대한 연산 분석을 수행하여 판정 명령을 생성하고, 판정 명령을 추론 연산 장치(100)에 다시 전송한다. 이 경우, 추론 연산 장치(100)는, 전술한 사용자-에지-클라우드 아키텍처에서의 에지측 디바이스로서, 처리될 데이터가 에지측 디바이스에 의해 예비 처리된(추론 연산) 후에 추론 결과를 클라우드 디바이스에 전송한다. 클라우드 디바이스는 그 강한 연산력으로 판정 명령을 생성하고 이를 에지측 디바이스에 전송할 수 있다. 이러한 방식으로, 생산 장비에 대한 통합된 계획, 관리, 및 구성이 달성될 수 있다.
도 5 및 도 6을 참조하면, 본 개시내용의 일부 실시예들은 적어도 하나의 프로세서(210) 및 메모리(220)를 포함하는 모델 훈련 장치(200)를 더 제공한다. 메모리(220)는, 적어도 하나의 프로세서(210)에 의해 실행될 때, 모델 연산 장치(200)로 하여금 다음의 동작들(A10 내지 A40)을 수행하게 하는 프로그램 명령어들을 저장하고 있다.
A10에서, 제1 추론 모델을 획득하기 위해 제1 훈련 샘플 라이브러리에 기초하여 모델 훈련이 수행된다. 제1 훈련 샘플 라이브러리는 제조 스테이지에서 발생된 이력 데이터로부터의 훈련 샘플들을 포함한다.
여기서, 이력 데이터는 또한 수작업 판단된 생산 데이터를 지칭하고, 정확한 결과로 마킹된 생산 데이터이다.
예를 들어, 모델 훈련 장치(200)는 제1 훈련 샘플 라이브러리를 더 포함하고, 이는 메모리(220)에 저장된다. 다른 예로서, 제1 훈련 샘플 라이브러리는 메모리(220) 이외의 메모리들에 저장된다.
A20에서, 제1 추론 모델이 추론 연산 장치(100)에 전송된다.
모델 업데이트 요청이 추론 모델(100)로부터 수신되는 경우에,
A30에서, 제2 추론 모델을 획득하기 위해 업데이트된 제1 훈련 샘플 라이브러리에 기초하여 모델 훈련이 수행된다. 업데이트된 제1 훈련 샘플 라이브러리는 제1 추론 모델의 추론 결과로부터 유래되고 재판단이 적용된 훈련 샘플들을 포함한다.
A40에서, 제2 추론 모델은 추론 연산 장치(100)에게 전송된다.
제조 스테이지에서 생산 데이터에 나타나는 새로운 특징들을 갖는 훈련 샘플들을 포함하는 업데이트된 제1 훈련 샘플 라이브러리 내의 훈련 샘플들이 비교적 새롭기 때문에, 모델 훈련 장치(200)가 모델 훈련에서 비교적 새로운 훈련 샘플들을 사용하는 것이 보장될 수 있다. 업데이트된 제1 훈련 샘플 라이브러리에 기초한 모델 훈련 후에 획득된 제2 추론 모델은 새로운 특징들로 처리될 새로 나타나는 데이터에 대한 더 강한 추론 연산 능력들을 갖는다. 제1 추론 모델이 제2 추론 모델로 업데이트되는 경우에, 추론 연산 장치(100)의 추론 결과의 정확도가 향상될 수 있다.
예를 들어, 도 5를 참조하면, 모델 훈련 장치(200)는 네트워크 인터페이스(240)를 더 포함한다. 모델 훈련 장치(200)는 정보 상호작용을 실현하기 위해 네트워크 인터페이스(240)를 통해 다른 디바이스들(예를 들어, 사용자측 디바이스 및/또는 모델 훈련 장치(200))과 통신할 수 있다.
여기서, 모델 훈련 장치(200)는 전송 제어 프로토콜/인터넷 프로토콜(TCP/IP), 하이퍼 텍스트 전송 프로토콜(HTTP) 등 중 적어도 하나를 사용함으로써 네트워크 인터페이스(240)를 통해 외부 장치들(예컨대, 모델 훈련 장치(100))과의 정보 상호작용을 실현한다.
예를 들어, 모델 훈련 장치(200)는, 제1 추론 모델을 추론 연산 장치(100)에 전송하거나, 또는 추론 연산 장치(100)로부터 모델 업데이트 요청을 수신하거나, 또는 제2 추론 모델을 추론 연산 장치(100)에 전송하기 위해, 네트워크 인터페이스(240)를 통해 추론 연산 모델(100)과 통신한다.
일부 실시예들에서, 제1 훈련 샘플 라이브러리에 기초하여 모델 훈련을 수행하는 프로세스(즉, A10)에서, 또는 업데이트된 제1 훈련 샘플 라이브러리에 기초하여 모델 훈련을 수행하는 프로세스(즉, A30)에서, 도 8을 참조하면, 모델 훈련 장치(200)는 다음의 동작들 B1 내지 B2를 수행한다.
B1에서, 훈련 작업 정보가 생성된다.
B2에서, 훈련 구성 데이터가 훈련 작업 정보에 따라 생성된다.
B3에서, 대응하는 훈련 샘플 라이브러리로부터 훈련 샘플들이 획득되고, 훈련 샘플들 및 훈련 구성 데이터에 기초하여 모델 훈련이 수행되어 대응하는 추론 모델을 획득한다.
여기서 및 이하에서 언급되는 "대응하는 훈련 샘플 라이브러리" 및 "대응하는 추론 모델"은 수행될 모델 훈련에 대해 정의된다. 즉, A10이 수행되면, 제1 추론 모델은 제1 훈련 샘플 라이브러리로부터의 훈련 샘플들에 기초한 모델 훈련을 통해 획득될 것이다. A30이 수행되면, 제2 추론 모델은 업데이트된 제1 훈련 샘플 라이브러리로부터의 훈련 샘플들에 기초한 모델 훈련을 통해 획득될 것이다.
또한, 훈련 작업 정보는 추론 연산 장치(100)로부터 전송된 수신된 모델 업데이트 요청에 따라 생성되고, 모델 훈련을 위한 훈련 요건들을 포함한다. 예를 들어, 모델 훈련을 통해 획득되는 제2 추론 모델은 특정 추론 연산 기능을 갖고 연산 결과를 획득할 수 있도록 요구된다.
훈련 구성 데이터는 훈련 요건들에 따라 발생된 훈련 스케줄 정보를 포함한다. 모델 훈련에서 호출될 필요가 있는 훈련 샘플들은 훈련 스케줄 정보에 따라 알려질 수 있다. 예를 들어, 훈련 스케줄 정보는 데이터 식별자를 포함하고, 이를 통해, 모델 훈련에서 호출될 필요가 있는 훈련 샘플들을 발견할 수 있다.
예를 들어, 도 9를 참조하면, B3에서의 모델 훈련을 수행하는 프로세스 동안, 모델 훈련 장치(200)는 다음의 동작들 B31 내지 B33을 추가로 수행한다.
B31에서, 모델 훈련 프로세스가 모니터링된다.
B32에서, 모델 훈련 프로세스에서 이상이 발생할 때 훈련 구성 데이터가 업데이트된다.
B33에서, 훈련 샘플들 및 업데이트된 훈련 구성 데이터에 기초하여 모델 훈련이 수행된다.
일부 실시예들에서, 제1 추론 모델을 추론 연산 장치(100)에 전송하기 전에(즉, 도 6의 A20 전에), 또는 제2 추론 모델을 추론 연산 장치(100)에 전송하기 전에(즉, 도 6의 A40 전에), 모델 훈련 장치(100)는 다음 동작들을 추가로 수행한다.
대응하는 추론 모델의 모델 버전 정보가 검증되어 모델 버전 정보가 정확한지를 결정한다.
모델 버전 정보가 정확한 경우, 대응하는 추론 모델이 추론 연산 장치(100)에게 전송된다.
여기서, 제1 추론 모델이 전송되는 경우에, 모델 버전 정보가 정확한 것으로 결정되는 경우, A20이 수행되고; 제2 추론 모델이 전송되는 경우에, 모델 버전 정보가 정확한 것으로 결정되는 경우, A40이 수행된다.
모델 버전 정보가 부정확하면, 요건들을 충족하는 모델 버전을 갖는 대응하는 추론 모델이 검색된다. 대응하는 추론 모델이 발견되면, 대응하는 추론 모델이 추론 연산 장치(100)에 전송되고; 대응하는 추론 모델이 발견되지 않으면, 통지 메시지가 추론 연산 장치(100)에 전송된다.
추론 연산 장치(100)는 수신된 통지 메시지에 기초하여 모델 훈련을 다시 수행하라고 모델 훈련 장치에 요청할 수 있거나, 동작을 중단할 수 있다.
이러한 방식으로, 제1 추론 모델 또는 제2 추론 모델을 전송하기 전에 모델 버전 정보를 검증함으로써, 제1 추론 모델 또는 제2 추론 모델의 정확한 버전이 추론 연산 장치(100)에 전송되는 것을 보장하는 것이 가능할 수 있다.
일부 실시예들에서, 도 5 및 도 7을 참조하면, 모델 훈련 장치(200)는 제1 훈련 샘플 라이브러리를 포함하고, 모델 훈련 장치(200)는 다음의 동작들(A50 내지 A70)을 추가로 수행한다.
A50에서, 제1 훈련 샘플 라이브러리가 업데이트된다.
A60에서, 모델 업데이트 요청이 추론 연산 장치(100)로부터 수신되지 않은 경우에 제3 추론 모델을 획득하기 위해 업데이트된 제1 훈련 샘플 라이브러리에 기초하여 모델 훈련이 수행된다.
A70에서, 제3 추론 모델은 추론 연산 장치(100)에게 전송된다.
제3 추론 모델은 모델 훈련 장치(200)가 모델 업데이트 요청을 수신하지 않은 경우에 모델 훈련을 통해 모델 훈련 장치(200)에 의해 획득된다는 점을 유의하여야 한다. 즉, 제3 추론 모델은 업데이트된 제1 훈련 샘플 라이브러리에 기초하여 그 자체적으로 모델 훈련을 수행한 후에 모델 훈련 장치(200)에 의해 획득된다.
제3 추론 모델이 위에서 상세히 소개되었기 때문에, 세부 사항들은 여기서 반복되지 않을 것이다.
본 개시내용의 일부 실시예들은 상기 실시예들 중 임의의 것에서 설명된 추론 연산 장치(100)에 제공되는 컴퓨터 판독가능 저장 매체를 더 제공한다. 컴퓨터 판독가능 저장 매체는, 추론 연산 장치(100)의 적어도 하나의 프로세서(110)에 의해 실행될 때, 추론 연산 장치(100)로 하여금 이하의 동작들 S10 내지 S40을 수행하게 하는 프로그램 명령어들을 저장하고 있다.
S10에서, 제1 추론 모델이 수신된다. 제1 추론 모델은 제1 훈련 샘플 라이브러리에 기초한 모델 훈련을 통해 획득되고, 제1 훈련 샘플 라이브러리는 이력 데이터로부터의 훈련 샘플들을 포함한다.
S20에서, 추론 결과를 획득하기 위해 제1 추론 모델에 기초하여 제조 스테이지에서 발생되는 처리될 데이터에 대해 추론 연산이 수행된다.
S30에서, 제1 추론 모델의 성능이 평가되어 제1 추론 모델이 업데이트될 필요가 있는지를 결정한다.
S40에서, 제1 추론 모델이 업데이트될 필요가 있다면, 제1 추론 모델이 업데이트된다.
컴퓨터 판독가능 저장 매체는 또한 추론 결과의 정확도를 향상시킬 수 있고, 상세는 여기서 반복되지 않을 것이다.
본 개시내용의 일부 실시예들은, 상기 실시예들 중 임의의 것에 설명된 바와 같은 추론 연산 장치(200)에 제공되는 컴퓨터 판독가능 저장 매체를 추가로 제공한다. 추론 연산 장치(200)의 적어도 하나의 프로세서(210)에 의해 실행될 때, 프로그램 명령어들은 추론 연산 장치(200)로 하여금 다음의 동작들 A10 내지 A40을 수행하게 한다.
A10에서, 제1 추론 모델을 획득하기 위해 제1 훈련 샘플 라이브러리에 기초하여 모델 훈련이 수행된다. 제1 훈련 샘플 라이브러리는 이력 데이터로부터의 훈련 샘플들을 포함한다.
A20에서, 제1 추론 모델이 추론 연산 장치(100)에게 전송된다.
모델 업데이트 요청이 추론 연산 장치(100)로부터 수신되는 경우에,
A30에서, 제2 추론 모델을 획득하기 위해 업데이트된 제1 훈련 샘플 라이브러리에 기초하여 모델 훈련이 수행된다. 업데이트된 제1 훈련 샘플 라이브러리는 제1 추론 모델의 추론 결과로부터 유래되고 재판단이 적용된 훈련 샘플들을 사용하여 제1 훈련 샘플 라이브러리를 업데이트함으로써 획득된다.
A40에서, 제2 추론 모델은 추론 연산 장치(100)에게 전송된다.
컴퓨터 판독가능 저장 매체는 또한 추론 결과의 정확도를 향상시킬 수 있고, 세부사항은 여기서 반복되지 않을 것이다.
본 개시내용의 일부 실시예들은 추론 연산 시스템(1000)을 추가로 제공한다. 도 10에 도시된 바와 같이, 추론 연산 시스템은 상기 실시예들 중 임의의 것에 설명된 추론 연산 장치(100), 및 상기 실시예들 중 임의의 것에 설명된 모델 훈련 장치(200)를 포함한다.
추론 연산 시스템(1000)에 포함되는 추론 연산 장치(100) 및 모델 훈련 장치(200)가 추론 결과의 정확도를 향상시킬 수 있기 때문에, 모델 배치 시스템(1000)은 또한 추론 결과의 정확도를 향상시킬 수 있고, 세부사항들은 여기서 반복되지 않을 것이다.
본 개시내용에서 언급된 프로세서들(예컨대, 프로세서(110) 및 프로세서(210))은 중앙 처리 유닛(CPU), 범용 프로세서(GPP), 디지털 신호 프로세서(DSP), 주문형 집적 회로(ASIC), 필드 프로그래머블 게이트 어레이 (FPGA), 또는 다른 프로그래머블 로직 디바이스들, 트랜지스터 로직 디바이스들, 하드웨어 컴포넌트들 또는 이들의 임의의 조합일 수 있다는 점을 유의하여야 한다. 이러한 프로세서들은 본 개시내용에 설명된 모든 예시적인 로직 블록들 및 모듈들을 실현 또는 구현할 수 있다. 프로세서(210)는 연산 기능들을 실현하기 위한 조합일 수 있다. 예를 들어, 프로세서(210)는 하나 이상의 마이크로프로세서의 조합, DSP와 마이크로프로세서의 조합 등일 수 있다.
또한, 본 개시내용의 실시예들에서 언급된(메모리(120) 및 메모리(220)와 같은) 메모리들은 RAM(random access memory), 플래시 메모리, ROM(read-only memory), EPROM(erasable programmable ROM), EEPROM(electrically EPROM), 레지스터, 하드 드라이브, 이동식 하드 드라이브, CD-ROM(compact disc read-only memories) 또는 본 기술 분야에 공지된 임의의 다른 저장 매체일 수 있다.
본 개시내용의 일부 실시예들은 추론 연산 장치(300)를 제공한다. 기능 모듈들이 각각의 기능들에 따라 분할되어 있는 경우에, 도 11을 참조하면, 추론 연산 장치(300)는 성능 평가 모듈(11), 추론 모델 모듈(13) 및 모델 작업 관리 모듈(14)을 포함한다.
모델 작업 관리 모듈(14)은 모델 훈련 장치(400)로부터 제1 추론 모델을 수신하도록 구성된다. 추론 모델 모듈(13)은 수신된 제1 추론 모델에 기초하여 제조 스테이지에서 발생된(사용자측 디바이스(3)로부터의) 처리될 데이터에 대해 추론 연산을 수행하여 추론 결과를 획득하고, 추론 결과를 사용자측 디바이스(3)에 전송하도록 구성된다. 성능 평가 모듈(11)은 제1 추론 모델이 업데이트될 필요가 있는지를 결정하기 위해 제1 추론 모델의 성능을 평가하도록 구성된다. 그리고 제1 추론 모델이 업데이트될 필요가 있으면, 제1 추론 모델은 모델 작업 관리 모듈(14)에 의해 업데이트될 것이다.
본 개시내용의 일부 실시예들에서, 추론 연산 장치(300)는 제2 모델 훈련 모듈(12) 및 제2 샘플 훈련 라이브러리(19)를 더 포함한다. 제1 추론 모델이 업데이트될 필요가 있는 경우에, 제2 모델 훈련 모듈(12)은 제2 추론 모델을 획득하기 위해 제2 훈련 샘플 라이브러리(19)에 기초하여 모델 훈련을 수행하도록 구성되고; 또는, 성능 평가 모듈(11)은 제2 추론 모델을 획득하기 위해 모델 업데이트 요청을 모델 훈련 장치(400)에 전송하도록 추가로 구성된다. 제2 훈련 샘플 라이브러리(19)는 모델 훈련을 위해 요구되는 훈련 샘플을 저장하고, 훈련 샘플은 추론 모델 모듈(13) 및/또는 모델 작업 관리 모듈(14)로부터의 것일 수 있다.
이에 기초하여, 일부 실시예들에서, 모델 작업 관리 모듈(14)은 모델 훈련 장치(400)로부터 제2 추론 모델을 수신하고, 수신된 제2 추론 모델에 대해 테스트, 그레이 스케일 배치 또는 구성 정보 검증 중 적어도 하나를 수행하도록 추가로 구성된다.
예를 들어, 도 11을 참조하면, 모델 작업 관리 모듈(14)은 검증 유닛(141), 테스트 유닛(142), 및 그레이 스케일 배치 유닛(143)을 포함한다.
검증 유닛(141)은 수신된 제2 추론 모델을 테스트하도록 구성되고; 테스트 유닛(142)은 수신된 제2 추론 모델에 대해 테스트를 수행하도록 구성되고; 그레이 스케일 배치 유닛(143)은 수신된 제2 추론 모델에 대해 그레이 스케일 배치를 수행하도록 구성된다.
일부 실시예들에서, 추론 연산 장치(300)는 모델 훈련 의사 결정 모듈(18)을 더 포함하고, 이는 모델 훈련을 위해 요구되는 훈련 파라미터들이 훈련 파라미터들의 미리 설정된 범위 내에 있는지를 결정하도록 구성된다. 훈련 파라미터들이 미리 설정된 범위 내에 있으면, 성능 평가 모듈(11)은 모델 업데이트 요청을 제2 모델 훈련 모듈(12)에 전송하게 되고, 즉, 제2 모델 훈련 모듈(12)은 모델 훈련을 수행하여 제2 추론 모델을 획득하게 되고; 훈련 파라미터들이 미리 설정된 범위 내에 있지 않으면, 성능 평가 모듈(11)은 모델 업데이트 요청을 모델 훈련 장치(400)에 전송하게 된다, 즉, 모델 훈련 장치(400)는 모델 훈련을 수행하여 제2 추론 모델을 획득하게 된다.
본 개시내용의 일부 실시예들에서, 추론 연산 장치(300)는 백업 모듈(15)을 더 포함하고, 이는 제3 추론 모델을 수신하도록 구성된다. 제3 추론 모델의 성능이 추론 모델 모듈(11)에서의 제1 추론 모델의 성능보다 더 양호한 경우에, 또는 이상이 추론 모델 모듈(11)에서의 제1 추론 모델에서 발생하는 경우에, 백업 모듈(15)은 제3 추론 모델을 모델 작업 관리 모듈(14)에 전송하고, 모델 작업 관리 모듈(14)은 제1 추론 모델을 제3 추론 모델로 업데이트한다.
일부 실시예들에서, 성능 평가 모듈(11)은 제2 추론 모델의 성능을 평가하고 제1 추론 모델의 성능을 제2 추론 모델의 성능과 비교하도록 추가로 구성된다. 제2 추론 모델의 성능이 제1 추론 모델의 성능보다 나쁜 경우에, 모델 작업 관리 모듈(14)은 제2 추론 모델을 제1 추론 모델로 롤백시키도록 추가로 구성된다. 성능 평가 모듈(11)은 모델 훈련 요청을 제2 모델 훈련 모듈(12) 또는 모델 훈련 장치(400)에 다시 전송하도록 추가로 구성된다.
일부 실시예들에서, 도 11을 참조하면, 추론 연산 장치(300)는 기능 확장 관리 모듈(16)을 더 포함하고, 이는 추론 모델 모듈(13) 및 작업 관리 모듈(14)의 기능들을 확장 또는 수정하도록 구성된다.
예를 들어, 기능 확장 모듈(16)은 도입된 추론 모델을 수신하고, 도입된 추론 모델로 스위칭되도록 추론 모델 모듈(13) 내의 추론 모델을 제어한다.
또한, 도 11을 참조하면, 모델 훈련 장치(400)가 제1 훈련 샘플 라이브러리(23)를 포함하는 경우, 기능 확장 모듈(16)은 또한 제1 훈련 샘플 라이브러리의 기능들을 확장하는 것을 가능하게 할 수 있다.
예를 들어, 기능 확장 모듈(16)은 기능 확장 인터페이스를 포함한다.
일부 실시예들에서, 도 11을 참조하면, 추론 연산 장치(300)는 원본 데이터 수집 모듈(17) 및 추론 모델 모듈(13)을 더 포함한다.
원본 데이터 수집 모듈(17)은 사용자측 디바이스(3)로부터 원본 데이터를 수집하여 처리될 데이터를 획득하고, 처리될 데이터를 추론 모델 모듈(13)에 전송하도록 구성된다.
본 개시내용의 일부 실시예들은 모델 훈련 장치(400)를 제공한다. 기능 모듈들이 각각의 기능들에 따라 분할되는 경우에, 도 11을 참조하면, 모델 훈련 장치(400)는 훈련 관리 모듈(21), 제1 모델 훈련 모듈(22) 및 제1 훈련 샘플 라이브러리(23)를 포함한다.
제1 모델 훈련 모듈(22)은 제1 훈련 샘플 라이브러리(23)에 기초하여 모델 훈련을 수행하여 제1 추론 모델을 획득하고, 및/또는 업데이트된 제1 훈련 샘플 라이브러리(23)에 기초하여 모델 훈련을 수행하여 제2 추론 모델을 획득하도록 구성된다.
훈련 관리 모듈(21)은 제1 훈련 모델 및/또는 제2 훈련 모델을 추론 연산 장치(300)에 전송하도록 구성된다.
예를 들어, 도 11을 참조하면, 모델 작업 관리 모듈(21)은 작업 관리 유닛(211), 훈련 스케줄링 유닛(212), 및 분기 관리 유닛(213)을 포함한다.
작업 관리 유닛(211)은 추론 연산 장치(300)에 의해 전송된 모델 업데이트 요청에 따라 훈련 작업 정보를 생성하도록 구성된다. 훈련 스케줄링 유닛(212)은 훈련 작업 정보에 따라 훈련 구성 데이터를 생성하고 대응하는 훈련 샘플 라이브러리로부터 훈련 샘플들을 획득하도록 구성된다. 분기 관리 유닛(213)은 대응하는 추론 모델의 모델 버전 정보를 검증하여 모델 버전 정보가 정확한지를 결정하도록 구성된다. 모델 버전 정보가 정확한 경우, 분기 관리 유닛(213)은 정확한 버전 정보를 갖는 대응하는 추론 모델을 추론 연산 장치(300)에 전송하도록 추가로 구성된다.
예를 들어, 훈련 스케줄링 유닛(212)은 제1 모델 훈련 모듈(22)의 모델 훈련 프로세스를 모니터링하고, 모델 훈련 프로세스에서 이상이 발생할 때 훈련 구성 데이터를 업데이트하고, 업데이트된 훈련 구성 데이터를 제1 모델 훈련 모듈(22)에 전송하도록 추가로 구성된다. 이 경우, 제1 모델 훈련 모듈(22)은 업데이트된 훈련 구성 데이터 및 훈련 샘플들에 따라 모델 훈련을 수행하도록 추가로 구성된다.
일부 실시예들에서, 도 11을 참조하면, 모델 훈련 장치(400)는 제1 훈련 샘플 라이브러리(23)를 더 포함하고, 이는 추론 연산 장치(300)에 의해 전송된 정확한 결과로 마킹된 훈련 샘플들을 수신하도록 구성된다. 예를 들어, 재판단되고 정확한 결과로 마킹된 후에, 추론 연산 장치(300)의 추론 모델 모듈(13)의 추론 결과는 제1 훈련 샘플 라이브러리(23)에 전송되어 제1 훈련 샘플 라이브러리(23)를 업데이트한다. 이 경우, 제1 모델 훈련 모듈(22)은 모델 업데이트 요청이 수신되지 않은 경우에 업데이트된 제1 훈련 샘플 라이브러리(23)에 기초하여 모델 훈련을 수행하여 제3 추론 모델을 획득하도록 추가로 구성된다.
예를 들어, 훈련 관리 모듈(21)이 분기 관리 유닛(213)을 포함하는 경우, 제1 모델 훈련 모듈(22)은 제3 추론 모델을 분기 관리 유닛(213)에 전송하도록 구성되고, 그 후 분기 관리 유닛(213)은 제3 추론 모델을 추론 연산 장치(300)에 전송한다.
전술한 설명들은 단지 본 개시내용의 특정 구현들에 불과하며, 본 개시내용의 보호 범위는 이에 제한되지 않는다. 본 기술 분야의 통상의 기술자가 본 개시내용의 기술적 범위 내에서 용이하게 인지할 수 있는 임의의 변경 또는 대체는 본 개시내용의 보호 범위에 포함될 것이다. 따라서, 본 개시내용의 보호 범위는 청구항들의 보호 범위에 따를 것이다.

Claims (20)

  1. 적어도 하나의 프로세서 및 메모리를 포함하는 추론 연산 장치로서, 상기 메모리에는 프로그램 명령어들이 저장되어 있고, 상기 프로그램 명령어들은 상기 적어도 하나의 프로세서에 의해 실행될 때, 상기 추론 연산 장치로 하여금
    상기 모델 훈련 장치로부터 제1 추론 모델을 수신하는 동작- 상기 제1 추론 모델은 제1 훈련 샘플 라이브러리에 기초한 모델 훈련을 통해 상기 모델 훈련 장치에 의해 획득되고, 상기 제1 훈련 샘플 라이브러리는 제조 스테이지에서 생성된 이력 데이터로부터의 훈련 샘플들을 포함하고, 상기 모델 훈련 장치는 클라우드 디바이스를 포함함 -;
    상기 제1 추론 모델에 기초하여 제조 스테이지에서 생성되는 처리될 데이터에 대해 추론 연산을 수행하여 추론 결과를 획득하고, 상기 추론 결과를 사용자측 디바이스에 전송하는 동작- 상기 추론 연산 장치는 상기 모델 훈련 장치보다 상기 사용자측 디바이스에 더 가까움 -; 및
    상기 제1 추론 모델의 성능을 평가하여 상기 제1 추론 모델이 업데이트될 필요가 있는지를 결정하고, 상기 제1 추론 모델이 업데이트될 필요가 있는 경우 상기 제1 추론 모델을 업데이트하는 동작을 수행하게 하는, 추론 연산 장치.
  2. 제1항에 있어서,
    상기 이력 데이터는 결함 정보로 마킹된 제품 이미지를 포함하고;
    상기 처리될 데이터는 상기 제조 스테이지에서 발생된 원본 제품 이미지를 포함하고; 및
    상기 추론 결과는 상기 원본 제품 이미지에서의 결함 정보를 포함하는, 추론 연산 장치.
  3. 제1항 또는 제2항에 있어서, 상기 제1 추론 모델을 업데이트하는 동작은
    제2 훈련 샘플 라이브러리에 기초하여 모델 훈련을 수행하여 제2 추론 모델을 획득하거나, 또는 모델 업데이트 요청을 모델 훈련 장치에 전송하여 제2 추론 모델을 획득하는 동작- 상기 제2 훈련 샘플 라이브러리는 상기 이력 데이터로부터의 훈련 샘플들 및/또는 상기 추론 결과로부터 유래되고 재판단이 적용된 훈련 샘플들을 포함함 -; 및
    상기 제2 추론 모델이 업데이트 조건을 충족시키는 경우에 상기 제1 추론 모델을 상기 제2 추론 모델로 업데이트하는 동작을 포함하는, 추론 연산 장치.
  4. 제3항에 있어서, 상기 업데이트 조건은
    상기 제2 추론 모델에 대해 테스트가 수행되고, 상기 제2 추론 모델이 상기 테스트를 통과하는 조건을 포함하고,
    상기 테스트는 테스트 샘플들에 기초하여 상기 제2 추론 모델의 성능을 평가하는 것; 및 상기 성능이 평가 요건을 만족시키는 경우, 상기 제2 추론 모델이 테스트를 통과한 것으로 결정하는 것을 포함하는, 추론 연산 장치.
  5. 제4항에 있어서, 상기 업데이트 조건은
    그레이 스케일 배치가 상기 제2 추론 모델에 대해 수행되고, 상기 제2 추론 모델의 성능이 상기 그레이 스케일 배치 동안 평가되고, 상기 제2 추론 모델의 성능이 상기 평가 요건들을 충족시키는 것을 더 포함하는, 추론 연산 장치.
  6. 제5항에 있어서, 상기 업데이트 조건은
    상기 제2 추론 모델의 구성 정보가 검증되고, 상기 구성 정보가 수행될 추론 연산과 매칭되는 것을 더 포함하는, 추론 연산 장치.
  7. 제3항에 있어서, 상기 모델 훈련을 수행하여 상기 제2 추론 모델을 획득하기 전에, 또는 상기 모델 업데이트 요청을 상기 모델 훈련 장치에 전송하여 상기 제2 추론 모델을 획득하기 전에, 상기 추론 연산 장치는
    상기 모델 훈련이 수행되도록 요구되는 훈련 파라미터들이 훈련 파라미터들의 미리 설정된 범위 내에 있는지를 결정하는 동작; 및 훈련 파라미터들이 미리 설정된 범위 내에 있으면, 모델 훈련을 수행하는 동작; 훈련 파라미터들이 미리 설정된 범위 내에 있지 않으면, 상기 모델 업데이트 요청을 상기 모델 훈련 장치에 전송하는 동작을 추가로 수행하는, 추론 연산 장치.
  8. 제7항에 있어서, 상기 훈련 파라미터들은 상기 모델 훈련을 위해 요구되는 데이터 크기, 훈련 지속기간, 및 연산력 중 적어도 하나를 포함하는, 추론 연산 장치.
  9. 제1항에 있어서, 상기 추론 모델의 성능을 평가하는 데 사용되는 평가 파라미터들은 추론 연산 프로세스 동안 상기 제1 추론 모델의 정확도율, 정밀도율, 리콜율 및 F 스코어 중 적어도 하나를 포함하고;
    상기 제1 추론 모델이 성능 평가에 따라 업데이트될 필요가 있는 경우는 상기 제1 추론 모델의 성능이 변동하거나 감소하는 것을 포함하고, 상기 제1 추론 모델의 성능이 변동하거나 감소하는지 여부는 연속적인 기간 내의 상기 평가 파라미터들의 변동에 따라 결정되는, 추론 연산 장치.
  10. 제3항에 있어서, 상기 성능 평가에 따라 상기 제1 추론 모델을 업데이트하는 동작은
    제3 추론 모델을 수신하는 동작- 상기 제3 추론 모델은 상기 모델 훈련 장치가 상기 모델 업데이트 요청을 수신하지 않은 경우에 업데이트된 제1 훈련 샘플 라이브러리에 기초하여 모델 훈련을 통해 상기 모델 훈련 장치에 의해 획득되고, 상기 업데이트된 제1 훈련 샘플 라이브러리는 추론 결과로부터 유래되고 재판단이 적용된 훈련 샘플들을 포함함 -;
    상기 제1 추론 모델의 성능을 상기 제3 추론 모델의 성능과 비교하고, 상기 제3 추론 모델의 성능이 상기 제1 추론 모델의 성능보다 더 양호한 경우, 또는 상기 제1 추론 모델에서 이상이 발생하는 경우, 상기 제3 추론 모델로 상기 제1 추론 모델을 업데이트하는 동작을 포함하는, 추론 연산 장치.
  11. 제3항에 있어서, 상기 제1 추론 모델이 상기 제2 추론 모델을 사용하여 업데이트되는 경우에, 상기 추론 연산 장치는
    상기 제2 추론 모델에 대해 성능 평가를 수행하고, 상기 제1 추론 모델의 성능을 상기 제2 추론 모델의 성능과 비교하는 동작;
    상기 제2 추론 모델의 성능이 상기 제1 추론 모델의 성능보다 나쁜 경우, 상기 제2 추론 모델을 상기 제1 추론 모델로 롤백시키는 동작; 및 모델 훈련을 다시 수행하거나, 모델 훈련 장치에게 모델 훈련을 다시 수행하도록 요청하는 동작을 추가로 수행하는, 추론 연산 장치.
  12. 제2항에 있어서, 상기 추론 결과를 획득한 후에, 상기 추론 연산 장치는
    상기 추론 결과에 따라 판정 명령을 생성하는 동작을 추가로 수행하고;
    상기 결함 정보는 결함, 결함 위치 및 결함 타입을 갖는 상기 식별된 원본 제품 이미지를 포함하고; 상기 판정 명령은 상기 원본 제품 이미지의 상기 결함 정보에 따라 상기 결함을 갖는 상기 원본 제품 이미지에 대응하는 제품에 대해 대응하는 결함 처리를 수행하는 것을 포함하는, 추론 연산 장치.
  13. 적어도 하나의 프로세서 및 메모리를 포함하는 모델 훈련 장치로서, 상기 메모리에는 프로그램 명령어들이 저장되어 있고, 상기 프로그램 명령어들은 상기 적어도 하나의 프로세서에 의해 실행될 때, 상기 모델 훈련 장치로 하여금
    제1 훈련 샘플 라이브러리에 기초하여 모델 훈련을 수행하여 제1 추론 모델을 획득하는 동작- 상기 제1 훈련 샘플 라이브러리는 제조 스테이지에서 생성된 이력 데이터로부터 훈련 샘플들을 포함함 -;
    상기 제1 추론 모델을 추론 연산 장치에 전송하는 동작;
    상기 추론 연산 장치로부터 모델 업데이트 요청이 수신되는 경우에 업데이트된 제1 훈련 샘플 라이브러리에 기초하여 모델 훈련을 수행하여 제2 추론 모델을 획득하는 동작- 상기 업데이트된 제1 훈련 샘플 라이브러리는 상기 제1 추론 모델의 추론 결과로부터 유래되고 재판단이 적용된 훈련 샘플들을 포함함 -; 및
    상기 제2 추론 모델을 상기 추론 연산 장치에 전송하는 동작을 수행하게 하는, 모델 훈련 장치.
  14. 제13항에 있어서, 상기 제1 훈련 샘플 라이브러리 또는 상기 업데이트된 제1 훈련 샘플 라이브러리에 기초하여 상기 모델 훈련을 수행하는 프로세스에서, 상기 모델 훈련 장치는
    훈련 작업 정보를 생성하는 동작;
    상기 훈련 작업 정보에 따라 훈련 구성 데이터를 생성하는 동작; 및
    대응하는 훈련 샘플 라이브러리로부터 훈련 샘플들을 획득하고, 상기 훈련 샘플들 및 상기 훈련 구성 데이터에 기초하여 모델 훈련을 수행하여 대응하는 추론 모델을 획득하는 동작을 수행하는, 모델 훈련 장치.
  15. 제14항에 있어서, 상기 대응하는 훈련 샘플 라이브러리로부터 상기 훈련 샘플들을 획득하고 상기 훈련 샘플들 및 상기 훈련 구성 데이터에 기초하여 상기 모델 훈련을 수행하여 상기 대응하는 추론 모델을 획득하는 프로세스에서, 상기 모델 훈련 장치는
    모델 훈련 프로세스를 모니터링하는 동작;
    상기 모델 훈련 프로세스에서 이상이 발생할 때 상기 훈련 구성 데이터를 업데이트하는 동작; 및
    상기 훈련 샘플들 및 상기 업데이트된 훈련 구성 데이터에 기초하여 상기 모델 훈련을 수행하는 동작을 추가로 수행하는, 모델 훈련 장치.
  16. 제13항 내지 제15항 중 어느 한 항에 있어서, 상기 제1 추론 모델 또는 상기 제2 추론 모델을 상기 추론 연산 장치에 전송하기 전에, 상기 모델 훈련 장치는
    대응하는 추론 모델의 모델 버전 정보를 검증하여 상기 모델 버전 정보가 정확한지를 결정하는 동작;
    상기 모델 버전 정보가 정확한 경우, 상기 대응하는 추론 모델을 상기 추론 연산 장치에 전송하는 동작; 및
    상기 모델 버전 정보가 정확하지 않은 경우, 요건을 만족시키는 모델 버전을 갖는 대응하는 추론 모델을 검색하는 동작; 대응하는 추론 모델이 발견되는 경우, 해당 대응하는 추론 모델을 상기 추론 연산 장치에 전송하는 동작; 및 대응하는 추론 모델이 발견되지 않는 경우, 통지 메시지를 상기 추론 연산 장치로 전송하는 동작을 추가로 수행하는, 모델 훈련 장치.
  17. 제13항에 있어서, 상기 제1 훈련 샘플 라이브러리를 더 포함하고, 상기 모델 훈련 장치는
    제1 훈련 샘플 라이브러리를 업데이트하는 동작;
    모델 업데이트 요청이 수신되지 않은 경우, 업데이트된 제1 훈련 샘플 라이브러리에 기초하여 모델 훈련을 수행하여 제3 추론 모델을 획득하는 동작; 및
    상기 제3 추론 모델을 상기 추론 연산 장치에 전송하는 동작을 추가로 수행하는, 모델 훈련 장치.
  18. 프로그램 명령어들을 저장하고 있는 컴퓨터 판독가능 저장 매체로서, 상기 프로그램 명령어는 프로세서에 의해 실행될 때, 추론 연산 장치로 하여금
    제1 추론 모델을 수신하는 동작- 상기 제1 추론 모델은 제1 훈련 샘플 라이브러리에 기초한 모델 훈련을 통해 획득되고, 상기 제1 훈련 샘플 라이브러리는 이력 데이터로부터의 훈련 샘플들을 포함함 -;
    상기 제1 추론 모델에 기초하여 제조 스테이지에서 생성되는 처리될 데이터에 대해 추론 연산을 수행하여 추론 결과를 획득하는 동작; 및
    상기 제1 추론 모델의 성능을 평가하여, 상기 제1 추론 모델이 업데이트될 필요가 있는지를 결정하고, 상기 제1 추론 모델이 업데이트될 필요가 있는 경우, 상기 제1 추론 모델을 업데이트하는 동작을 수행하게 하는, 컴퓨터 판독 가능 저장 매체.
  19. 프로그램 명령어들을 저장하고 있는 컴퓨터 판독가능 저장 매체로서, 상기 프로그램 명령어는 프로세서에 의해 실행될 때, 모델 연산 장치로 하여금
    제1 훈련 샘플 라이브러리에 기초하여 모델 훈련을 수행하여 제1 추론 모델을 획득하는 동작- 상기 제1 훈련 샘플 라이브러리는 제조 스테이지에서 생성된 이력 데이터로부터 훈련 샘플들을 포함함 -;
    상기 제1 추론 모델을 추론 연산 장치에 전송하는 동작;
    상기 추론 연산 장치로부터 모델 업데이트 요청이 수신되는 경우에 업데이트된 제1 훈련 샘플 라이브러리에 기초하여 모델 훈련을 수행하여 제2 추론 모델을 획득하는 동작- 상기 업데이트된 제1 훈련 샘플 라이브러리는 상기 제1 추론 모듈의 추론 결과로부터 유래되고 재판단이 적용된 훈련 샘플들을 사용하여 상기 제1 훈련 샘플 라이브러리를 업데이트함으로써 획득됨 -; 및
    상기 제2 추론 모델을 상기 추론 연산 장치에 전송하는 동작을 수행하게 하는, 컴퓨터 판독 가능 저장 매체.
  20. 추론 연산 시스템으로서, 제1항 내지 제12항 중 어느 한 항에 따른 추론 연산 장치, 및 제13항 내지 제17항 중 어느 한 항에 따른 모델 훈련 장치를 포함하는, 추론 연산 시스템.
KR1020227001528A 2019-12-20 2019-12-20 추론 연산 장치, 모델 훈련 장치, 및 추론 연산 시스템 KR20220117194A (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2019/127048 WO2021120181A1 (zh) 2019-12-20 2019-12-20 推理计算装置、模型训练装置、推理计算系统

Publications (1)

Publication Number Publication Date
KR20220117194A true KR20220117194A (ko) 2022-08-23

Family

ID=76478141

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227001528A KR20220117194A (ko) 2019-12-20 2019-12-20 추론 연산 장치, 모델 훈련 장치, 및 추론 연산 시스템

Country Status (6)

Country Link
US (1) US20210209488A1 (ko)
EP (1) EP4080407A4 (ko)
JP (1) JP7442550B2 (ko)
KR (1) KR20220117194A (ko)
CN (1) CN113597618A (ko)
WO (1) WO2021120181A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11574246B2 (en) * 2020-01-21 2023-02-07 Microsoft Technology Licensing, Llc Updating training examples for artificial intelligence
KR20220030339A (ko) * 2020-08-27 2022-03-11 삼성디스플레이 주식회사 이물 불량 검출 방법 및 이물 불량 검출 시스템
KR20220049165A (ko) * 2020-10-14 2022-04-21 삼성에스디에스 주식회사 추론 데이터 기반 예측 모델 보정 시스템 및 방법
CN114741269B (zh) * 2022-04-14 2022-09-23 网思科技股份有限公司 一种推理系统业务性能评估的方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101242549A (zh) * 2007-11-22 2008-08-13 中国移动通信集团山东有限公司 通信网络告警关联的神经网络构建方法
TWI385492B (zh) * 2008-12-16 2013-02-11 Ind Tech Res Inst 機台設備的維護分析系統及其方法
US11127020B2 (en) * 2009-11-20 2021-09-21 Palo Alto Research Center Incorporated Generating an activity inference model from contextual data
BR112013008305A2 (pt) * 2010-10-19 2023-12-26 3M Innovative Properties Company Método, sistema e aparelho de inspeção automatizado
WO2013033098A1 (en) * 2011-09-01 2013-03-07 Knf Technologies, Inc. Relational metal-model and associated domain context-based knowledge inference engine for knowledge discovery and organization
CN103078897B (zh) * 2012-11-29 2015-11-18 中山大学 一种实现Web业务细粒度分类与管理的系统
US10614373B1 (en) * 2013-12-23 2020-04-07 Groupon, Inc. Processing dynamic data within an adaptive oracle-trained learning system using curated training data for incremental re-training of a predictive model
US20150324686A1 (en) * 2014-05-12 2015-11-12 Qualcomm Incorporated Distributed model learning
US20170154269A1 (en) 2015-11-30 2017-06-01 Seematics Systems Ltd System and method for generating and using inference models
US20180322623A1 (en) * 2017-05-08 2018-11-08 Aquifi, Inc. Systems and methods for inspection and defect detection using 3-d scanning
WO2018223000A1 (en) * 2017-06-02 2018-12-06 Aspen Technology, Inc. Computer system and method for building and deploying predictive inferential models online
CN107256009B (zh) * 2017-06-30 2019-08-02 武汉理工大学 一种基于深度学习的产品数字模型智能装配系统
CN107316083B (zh) * 2017-07-04 2021-05-25 北京百度网讯科技有限公司 用于更新深度学习模型的方法和装置
CN109754105B (zh) * 2017-11-07 2024-01-05 华为技术有限公司 一种预测方法及终端、服务器
JP6924413B2 (ja) 2017-12-25 2021-08-25 オムロン株式会社 データ生成装置、データ生成方法及びデータ生成プログラム
JP7056259B2 (ja) 2018-03-14 2022-04-19 オムロン株式会社 検査システム、識別システム、及び識別器評価装置
US11030071B2 (en) * 2018-04-16 2021-06-08 Armory, Inc. Continuous software deployment
WO2019229910A1 (ja) 2018-05-30 2019-12-05 株式会社ウフル 顔認証を用いた入国審査システム、入国審査方法、プログラム、および認証装置
CN109635171B (zh) * 2018-12-13 2022-11-29 成都索贝数码科技股份有限公司 一种新闻节目智能标签的融合推理系统和方法
US20200193313A1 (en) * 2018-12-14 2020-06-18 Parallel Machines, Inc. Interpretability-based machine learning adjustment during production
CN109740661B (zh) * 2018-12-28 2022-10-28 沈阳工业大学 一种基于模糊评估的油井动液面自适应预测方法
US10481579B1 (en) * 2019-02-28 2019-11-19 Nanotronics Imaging, Inc. Dynamic training for assembly lines
CN110378900B (zh) * 2019-08-01 2020-08-07 北京迈格威科技有限公司 产品缺陷的检测方法、装置及系统
CN110554047B (zh) * 2019-09-06 2021-07-02 腾讯科技(深圳)有限公司 产品缺陷检测数据处理方法、装置、系统和设备

Also Published As

Publication number Publication date
CN113597618A (zh) 2021-11-02
WO2021120181A1 (zh) 2021-06-24
JP7442550B2 (ja) 2024-03-04
US20210209488A1 (en) 2021-07-08
JP2023514466A (ja) 2023-04-06
EP4080407A4 (en) 2023-02-01
EP4080407A1 (en) 2022-10-26

Similar Documents

Publication Publication Date Title
JP7442550B2 (ja) 推論演算装置、モデル訓練装置、及び推論演算システム
JP6921241B2 (ja) ディスプレイスクリーン品質検査方法、装置、電子機器及び記憶媒体
US20200160207A1 (en) Automated model update based on model deterioration
US11042145B2 (en) Automatic health indicator learning using reinforcement learning for predictive maintenance
JP7393515B2 (ja) 分散型製品欠陥分析システム、方法及びコンピュータ可読記憶媒体
US10795655B1 (en) Provisioning of software applications on edge devices in an internet-of-things environment
JP2020529056A (ja) ディスプレイの品質検出方法、装置、電子機器及び記憶媒体
US20190179647A1 (en) Auto throttling of input data and data execution using machine learning and artificial intelligence
JP2018513490A (ja) 自動化システムを動作させる方法及び装置
US11500370B2 (en) System for predictive maintenance using generative adversarial networks for failure prediction
US20230142383A1 (en) Method and device for processing product manufacturing messages, electronic device, and computer-readable storage medium
JP2023547849A (ja) ラベルなしセンサデータを用いた産業システム内の稀な障害の自動化されたリアルタイムの検出、予測、及び予防に関する、方法または非一時的コンピュータ可読媒体
CN112906775A (zh) 一种设备故障预测方法及系统
CN114787831B (zh) 改进分类模型的准确性
CN113095508A (zh) 回归模型构建优化方法、设备、介质及计算机程序产品
CN115546218B (zh) 置信度阈值确定方法和装置、电子设备和存储介质
EP4141679A1 (en) Management of an app, especially testing the deployability of an app comprising a trained function using a virtual test environment, method and system
JP2023537766A (ja) 自動化されたデータサイエンスプロセスのためのシステム及び方法
CN112904807B (zh) 工业分析系统、方法和非暂态计算机可读介质
US20230350392A1 (en) Method and system for seamless transition of runtime system from controller device to digitalization platform
US20240160199A1 (en) Industrial asset model versioning control and access
US20240160164A1 (en) Industrial automation data quality and analysis
US20240160193A1 (en) Industrial automation data staging and transformation
US20240160811A1 (en) Industrial data extraction
WO2022177567A1 (en) Dependability assessment framework for railroad asset management