KR102579116B1 - 클라우드 기반 인공지능 자동 학습 및 배포를 위한 장치 및 이를 위한 방법 - Google Patents

클라우드 기반 인공지능 자동 학습 및 배포를 위한 장치 및 이를 위한 방법 Download PDF

Info

Publication number
KR102579116B1
KR102579116B1 KR1020230008322A KR20230008322A KR102579116B1 KR 102579116 B1 KR102579116 B1 KR 102579116B1 KR 1020230008322 A KR1020230008322 A KR 1020230008322A KR 20230008322 A KR20230008322 A KR 20230008322A KR 102579116 B1 KR102579116 B1 KR 102579116B1
Authority
KR
South Korea
Prior art keywords
data
learning
detection model
verification
evaluation
Prior art date
Application number
KR1020230008322A
Other languages
English (en)
Inventor
라태진
진태정
현지훈
최우식
김태규
Original Assignee
주식회사 딥노이드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 딥노이드 filed Critical 주식회사 딥노이드
Application granted granted Critical
Publication of KR102579116B1 publication Critical patent/KR102579116B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)

Abstract

인공지능 자동 학습 및 배포를 위한 방법은 데이터처리부가 복수의 에지 장치로부터 탐지모델을 통해 추론한 복수의 정상 데이터를 수집하는 단계와, 검증부가 상기 정상 데이터를 분석하여 상기 탐지모델에 대한 보정 조건의 만족 여부를 판단하는 단계와, 상기 보정 조건을 만족하면, 학습부가 상기 정상 데이터를 기초로 상기 탐지모델을 보정하는 단계와, 배포부가 상기 보정된 탐지모델을 상기 복수의 에지 장치에 배포하는 단계를 포함한다.

Description

클라우드 기반 인공지능 자동 학습 및 배포를 위한 장치 및 이를 위한 방법{Apparatus and method for automatically learning and distributing artificial intelligence based on the cloud}
본 발명은 인공지능 자동 학습 및 배포를 위한 기술에 관한 것으로, 보다 상세하게는 클라우드 기반 인공지능 자동 학습 및 배포를 위한 장치 및 이를 위한 방법에 관한 것이다.
한편, 본 발명은 아래 표 1의 국가연구개발사업의 지원을 받았다.
과제고유번호 -
과제번호 -
부처명 과학기술정보통신부
과제관리(전문)기관명 정보통신산업진흥원
연구사업명 AI융합 불법복제품 판독시스템 사업
연구과제명 AI융합 불법복제품 판독시스템 사업
기여율 100%
과제수행기관명 (주)딥노이드
연구기간 2022.05.01 ~ 2022.12.31
산업 분야에 분류, 측정, 결함 탐지 등 다양한 목적을 위한 인공지능 활용이 활발히 일어나고 있다. 그러나 인공지능을 활용하기 위해서는 전문지식과 노하우, 양질의 데이터가 필요하며, 인공지능을 학습하고 실제 적용하기 위해서는 고성능의 컴퓨팅 자원이 요구된다. 이것을 적용하고자 하는 각각의 분야에서 갖추기란 어렵고 매우 비효율적이고 많은 리소스 및 비용이 요구되기 때문에 관심은 있지만 쉽게 접근하지 못하는 실정이다.
한국공개특허 제2019-0134982호 (2019년12월05일 공개)
본 발명의 목적은 클라우드 기반 인공지능 자동 학습 및 배포를 위한 장치 및 이를 위한 방법을 제공함에 있다.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 인공지능 자동 학습 및 배포를 위한 방법은 데이터처리부가 복수의 에지 장치로부터 탐지모델을 통해 추론한 복수의 정상 데이터를 수집하는 단계와, 검증부가 상기 정상 데이터를 분석하여 상기 탐지모델에 대한 보정 조건의 만족 여부를 판단하는 단계와, 상기 보정 조건을 만족하면, 학습부가 상기 정상 데이터를 기초로 상기 탐지모델을 보정하는 단계와, 배포부가 상기 보정된 탐지모델을 상기 복수의 에지 장치에 배포하는 단계를 포함한다.
상기 보정 조건의 만족 여부를 판단하는 단계는 상기 검증부가 상기 정상 데이터를 에지 장치 및 소정의 단위 기간 별로 구분하여 복수의 검증 데이터를 생성하는 단계와, 상기 검증부가 검증모델을 통해 상기 검증 데이터를 상기 검증모델이 정의하는 벡터공간에 사상하여 복수의 검증벡터를 도출하는 단계와, 상기 검증부가 상기 복수의 검증벡터의 분산이 기 설정된 임계치 이상인지 여부에 따라 상기 보정 조건의 만족 여부를 판단하는 단계를 포함한다.
상기 보정 조건의 만족 여부를 판단하는 단계는 상기 검증부가 상기 정상 데이터를 소정의 단위 기간 별로 구분하여 복수의 검증 데이터를 생성하는 단계와, 상기 검증부가 검증모델을 통해 상기 검증 데이터를 상기 검증모델이 정의하는 벡터공간에 사상하여 복수의 검증벡터를 도출하는 단계와, 상기 검증부가 상기 복수의 검증벡터 중 최근의 단위 기간에 대응하는 검증벡터를 제외한 나머지 검증벡터의 중심벡터를 도출하는 단계와, 상기 검증부가 상기 중심벡터와 상기 최근의 단위 기간에 대응하는 검증벡터와의 거리가 기 설정된 임계치 이상인지 여부에 따라 상기 보정 조건의 만족 여부를 판단하는 단계를 포함한다.
상기 탐지모델을 보정하는 단계는 상기 학습부가 상기 정상 데이터로부터 추출된 학습 데이터의 학습용 입력 데이터를 상기 탐지모델에 입력하는 단계와, 상기 탐지모델이 입력된 학습용 입력 데이터에 대해 가중치 연산을 수행하여 학습용 입력 데이터를 모사하는 학습용 모사 데이터를 도출하는 단계와, 상기 학습부가 학습용 입력 데이터와 상기 학습용 모사 데이터와의 차이를 나타내는 학습 손실을 산출하는 단계와, 상기 학습부가 상기 학습 손실이 최소가 되도록 탐지모델의 가중치를 수정하는 최적화를 수행하는 단계를 포함한다.
상기 방법은 상기 학습부가 상기 정상 데이터로부터 추출된 평가 데이터의 복수의 평가용 입력 데이터를 상기 탐지모델에 입력하는 단계와, 상기 탐지모델이 상기 복수의 평가용 입력 데이터에 대한 가중치 연산을 수행하여 복수의 평가용 입력 데이터를 모사하는 복수의 평가용 모사 데이터를 도출하는 단계와, 상기 학습부가 복수의 평가용 입력 데이터와 복수의 평가용 모사 데이터와의 차이를 나타내는 복수의 평가 손실을 산출하는 단계와, 상기 학습부가 수학식
Figure 112023007759120-pat00001
에 따라 이상 기준치를 산출하는 단계를 더 포함한다.
여기서, 상기 V는 이상 기준치이고, 상기 m은 복수의 평가 손실의 평균이고, 상기 o는 복수의 평가 손실의 표준편차이고, 상기 K는 이상 범위 가중치인 것을 특징으로 한다.
상기 방법은 상기 배포하는 단계 후, 에지장치가 로컬 데이터를 수집하는 단계와, 상기 에지 장치가 상기 보정된 탐지모델을 통해 상기 로컬 데이터에 대해 학습된 가중치가 적용되는 가중치 연산을 수행하여 로컬 모사 데이터를 도출하는 단계와, 상기 에지 장치가 상기 로컬 모사 데이터가 수학식
Figure 112023007759120-pat00002
을 만족하는지 여부에 따라 상기 로컬 데이터의 이상 여부를 판단하는 단계를 더 포함한다.
여기서, 상기 ma는 소정 기간을 주기로 하는 로컬 데이터의 이동 평균이고, 상기 V는 이상 기준치이고, 상기 LD는 로컬 데이터인 것을 특징으로 한다.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 인공지능 자동 학습 및 배포를 위한 장치는 복수의 에지 장치로부터 탐지모델을 통해 추론한 복수의 정상 데이터를 수집하는 데이터처리부와, 상기 정상 데이터를 분석하여 상기 탐지모델에 대한 보정 조건의 만족 여부를 판단하는 검증부와, 상기 보정 조건을 만족하면, 상기 정상 데이터를 기초로 상기 탐지모델을 보정하는 학습부와, 상기 보정된 탐지모델을 상기 복수의 에지 장치에 배포하는 배포부를 포함한다.
상기 검증부는 상기 정상 데이터를 에지 장치 및 소정의 단위 기간 별로 구분하여 복수의 검증 데이터를 생성하고, 검증모델을 통해 상기 검증 데이터를 상기 검증모델이 정의하는 벡터공간에 사상하여 복수의 검증벡터를 도출하고, 상기 복수의 검증벡터의 분산이 기 설정된 임계치 이상인지 여부에 따라 상기 보정 조건의 만족 여부를 판단하는 것을 특징으로 한다.
상기 검증부는 상기 정상 데이터를 소정의 단위 기간 별로 구분하여 복수의 검증 데이터를 생성하고, 검증모델을 통해 상기 검증 데이터를 상기 검증모델이 정의하는 벡터공간에 사상하여 복수의 검증벡터를 도출하고, 상기 복수의 검증벡터 중 최근의 단위 기간에 대응하는 검증벡터를 제외한 나머지 검증벡터의 중심벡터를 도출하고, 상기 중심벡터와 상기 최근의 단위 기간에 대응하는 검증벡터와의 거리가 기 설정된 임계치 이상인지 여부에 따라 상기 보정 조건의 만족 여부를 판단하는 것을 특징으로 한다.
상기 학습부는 상기 정상 데이터로부터 추출된 학습 데이터의 학습용 입력 데이터를 상기 탐지모델에 입력하고, 상기 탐지모델이 입력된 학습용 입력 데이터에 대해 가중치 연산을 수행하여 학습용 입력 데이터를 모사하는 학습용 모사 데이터를 도출하면, 학습용 입력 데이터와 상기 학습용 모사 데이터와의 차이를 나타내는 학습 손실을 산출하고, 상기 학습 손실이 최소가 되도록 탐지모델의 가중치를 수정하는 최적화를 수행하는 것을 특징으로 한다.
상기 학습부는 상기 정상 데이터로부터 추출된 평가 데이터의 복수의 평가용 입력 데이터를 상기 탐지모델에 입력하고, 상기 탐지모델이 상기 복수의 평가용 입력 데이터에 대한 가중치 연산을 수행하여 복수의 평가용 입력 데이터를 모사하는 복수의 평가용 모사 데이터를 도출하면, 복수의 평가용 입력 데이터와 복수의 평가용 모사 데이터와의 차이를 나타내는 복수의 평가 손실을 산출하고, 수학식
Figure 112023007759120-pat00003
에 따라 이상 기준치를 산출하는 것을 특징으로 한다.
여기서, 상기 V는 이상 기준치이고, 상기 m은 복수의 평가 손실의 평균이고, 상기 o는 복수의 평가 손실의 표준편차이고, 상기 K는 이상 범위 가중치인 것을 특징으로 한다.
상기 에지장치는 로컬 데이터를 수집하고, 상기 보정된 탐지모델을 통해 상기 로컬 데이터에 대해 학습된 가중치가 적용되는 가중치 연산을 수행하여 로컬 모사 데이터를 도출한 후, 상기 로컬 모사 데이터가 수학식
Figure 112023007759120-pat00004
을 만족하는지 여부에 따라 상기 로컬 데이터의 이상 여부를 판단하는 것을 특징으로 한다.
여기서, 상기 ma는 소정 기간을 주기로 하는 로컬 데이터의 이동 평균이고, 상기 V는 이상 기준치이고, 상기 LD는 로컬 데이터인 것을 특징으로 한다.
본 발명에 따르면, 인공지능 활용을 위한 많은 리소스의 부담을 하나의 클라우드 서비스로 대체함으로써 실제 현장에서 공간과 자원의 부담 없이 인공지능을 사용하고 추가할 수 있으며, 손쉬운 접근을 통하여 인공지능의 산업 분야에 활용성을 극대화할 수 있다.
도 1은 본 발명의 실시예에 따른 클라우드 기반 인공지능 자동 학습 및 배포를 위한 시스템의 구성을 설명하기 위한 도면이다.
도 2는 본 발명의 실시예에 따른 클라우드 기반 인공지능 자동 학습 및 배포를 위한 장치의 구성을 설명하기 위한 도면이다.
도 3은 본 발명의 실시예에 따른 클라우드 기반 인공지능 자동 학습 및 배포를 위한 탐지모델의 구성을 설명하기 위한 도면이다.
도 4는 본 발명의 실시예에 따른 클라우드 기반 인공지능 자동 학습 및 배포를 위한 검증모델의 구성을 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 탐지모델을 생성하는 방법을 설명하기 위한 흐름도이다.
도 6은 본 발명의 실시예에 따른 클라우드 기반 인공지능 자동 학습 및 배포를 위한 방법을 설명하기 위한 흐름도이다.
도 7은 본 발명의 실시예에 따른 탐지모델을 보정하는 방법을 설명하기 위한 흐름도이다.
도 8은 본 발명의 실시예에 따른 탐지모델을 보정하는 방법을 설명하기 위한 도면이다.
도 9는 본 발명의 실시예에 따른 학습을 통해 탐지모델을 보정하는 방법을 설명하기 위한 흐름도이다.
도 10은 본 발명의 실시예에 따른 컴퓨팅 장치를 나타내는 도면이다.
본 발명의 상세한 설명에 앞서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 실시예에 불과할 뿐, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음을 유의해야 한다. 또한, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 마찬가지의 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다.
특히, 이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.
먼저, 본 발명의 실시예에 따른 클라우드 기반 인공지능 자동 학습 및 배포를 위한 시스템의 구성에 대해 설명하기로 한다. 도 1은 본 발명의 실시예에 따른 클라우드 기반 인공지능 자동 학습 및 배포를 위한 시스템의 구성을 설명하기 위한 도면이다. 도 2는 본 발명의 실시예에 따른 클라우드 기반 인공지능 자동 학습 및 배포를 위한 장치의 구성을 설명하기 위한 도면이다. 도 3은 본 발명의 실시예에 따른 클라우드 기반 인공지능 자동 학습 및 배포를 위한 탐지모델의 구성을 설명하기 위한 도면이다. 도 4는 본 발명의 실시예에 따른 클라우드 기반 인공지능 자동 학습 및 배포를 위한 검증모델의 구성을 설명하기 위한 도면이다.
도 1을 참고하면, 본 발명의 실시예에 따른 클라우드 기반 인공지능 자동 학습 및 배포를 위한 시스템은 중앙서버(10) 및 복수의 에지장치(20)를 포함한다. 또한, 선택적으로, 센싱장치(30)를 더 포함할 수 있다.
중앙서버(10) 및 에지장치(20) 양자 모두는 컴퓨팅 연산을 수행할 수 있는 장치이며, 네트워크를 통해 통신 가능한 장치이다.
중앙서버(10)는 클라우드 서버로, 에지장치(20)에 비해 상대적으로 큰 컴퓨팅 파워 및 리소스를 가진다. 중앙서버(10)는 워크스테이션 급 컴퓨터를 예시할 수 있다.
에지장치(20)는 로컬에 설치 혹은 로컬에서 사용되는 장치이며, 중앙서버(10)에 비해 상대적으로 작은 컴퓨팅 파워 및 리소스를 가진다. 에지장치(20)는 예컨대, 퍼스널 컴퓨터, 휴대형 단말 등을 예시할 수 있다.
또한, 센싱장치(30)는 에지장치(20)와 연결된 장치이며, 에지장치(20)가 설치된 지역의 특정 데이터를 관측할 수 있는 장치이다. 예컨대, 센싱장치(30)는 CCTV, 영상 센서, 공장에 특정 장치에 설치된 센서 등이 될 수 있다.
중앙서버(10)는 학습 모델(machine learning model/deep learning model)인 탐지모델(DM)을 생성하고, 생성된 탐지모델(DM)을 복수의 에지장치(20)에 배포한다.
에지장치(20)는 직접 혹은 연결된 센서장치(30)를 통해 로컬 데이터를 수집하며, 배포된 탐지모델(DM)을 통해 로컬 데이터의 이상 여부를 탐지할 수 있다. 예컨대, 로컬 데이터는 공장에서 제품을 촬영한 이미지 데이터이거나, 제품의 특징을 감지하는 센서가 계측한 데이터가 될 수 있다. 혹은, 로컬 데이터는 방범용의 CCTV를 통해 특정 영역을 촬영한 영상일 수 있다. 에지장치(20)는 탐지모델(DM)을 통해 로컬 데이터가 정상인 경우와, 이상이 있는 경우를 구분할 수 있다. 예컨대, 로컬 데이터가 이상이 있는 경우는 로컬 데이터가 제품을 촬영한 이미지 데이터이거나, 제품의 특징을 감지하는 센서가 계측한 데이터인 경우, 제품의 불량을 의미한다. 또한, 로컬 데이터가 방범용의 CCTV를 통해 특정 영역을 촬영한 영상인 경우, 침입자가 발생한 경우를 의미한다.
에지장치(20)는 탐지모델(DM)을 로컬 데이터의 이상 여부를 판단하고, 로컬 데이터에 이상이 있는 경우, 관리자에게 알람을 할 수 있다. 에지장치(20)는 로컬 데이터가 이상이 없는 정상 데이터인 경우, 정상 데이터를 중앙서버(10)에 제공한다.
중앙서버(10)는 정상 데이터를 분석하여 탐지모델(DM)의 보정(tuning)이 필요한 경우, 정상 데이터를 이용하여 학습(machine learningl/deep learning)을 통해 탐지모델(DM)을 보정할 수 있다.
중앙서버(10)는 탐지모델(DM)을 보정한 후, 보정된 탐지모델(DM)을 다시 복수의 에지장치(20)에 배포할 수 있다. 이에 따라, 복수의 에지장치(20)는 보정된 탐지모델(DM)을 이용하여 로컬 데이터의 이상 여부를 탐지한다.
도 2를 참조하면, 중앙서버(10)는 데이터처리부(100), 학습부(200), 검증부(300) 및 배포부(400)를 포함한다. 데이터처리부(100)는 학습 데이터 및 평가 데이터를 마련하기 위한 것이다. 학습부(200)는 학습(machine learning/deep learning)을 통해 탐지모델(DM)을 생성하거나, 보정(tuning)하기 위한 것이다. 이때, 학습부(200)는 학습 시 리소스가 부족한 경우, 에지장치(20)의 리소스를 사용할 수 있다. 에지장치(20)가 대기 모드에 있는 경우, 에지장치(20)는 대기 모드임을 알리는 메시지를 중앙서버(10)에 전송하며, 학습부(200)는 이러한 메시지를 수신하여 학습 시, 대기 모드에 있는 에지장치(20)를 특정한 후, 해당 에지장치(20)의 리소스를 이용할 수 있다. 검증부(300)는 탐지모델(DM)을 정정하기 위한 기준 및 시점을 결정하기 위한 것이다. 배포부(400)는 생성되거나, 보정된 탐지모델(DM)을 복수의 에지장치(20)에 배포하기 위한 것이다. 전술한 데이터처리부(100), 학습부(200), 검증부(300) 및 배포부(400)를 포함하는 중앙서버(10)의 구체적인 동작은 아래에서 더 상세하게 설명될 것이다.
본 발명의 실시예에 따르면, 중앙서버(10)는 탐지모델(DM)을 생성 혹은 보정한다. 이를 위하여, 중앙서버(10)는 검증모델(VM)을 이용할 수 있다. 이러한 탐지모델(DM) 및 검증모델(VM)은 인공신경망(ANN: Artificial Neural Network) 모델이 될 수 있다. 이러한 탐지모델(DM) 및 검증모델(VM)을 포함하는 인공신경망 모델(ANN)은 서로 연결된 복수의 계층(혹은 모듈)을 포함하며, 복수의 계층(혹은 모듈)은 복수의 연산으로 이루어진다. 또한, 복수의 계층(혹은 모듈)은 가중치(W: weight)로 연결된다. 즉, 어느 하나의 계층(혹은 모듈)의 연산 결과에 따른 출력은 가중치가 적용되어 다음 계층의 연산에 입력된다. 인공신경망 모델(ANN)은 입력 데이터에 대해 복수의 계층(혹은 모듈) 간 가중치가 적용되는 복수의 연산을 수행하여 출력값을 도출한다. 이러한 인공신경망 모델(ANN)의 복수의 계층(혹은 모듈) 간 가중치가 적용되는 복수의 연산을 '가중치 연산'이라고 칭하기로 한다.
도 3을 참조하면, 탐지모델(DM)은 오토인코더(Auto-Encoder)를 예시할 수 있다. 탐지모델(DM)은 입력 데이터에 대해 가중치 연산을 수행하여 입력 데이터를 모사하는 모사 데이터를 출력하도록 학습된다.
탐지모델(DM)은 인코더(E) 및 디코더(D)를 포함한다. 인코더(E) 및 디코더(D)를 포함하는 탐지모델(DM)은 복수의 계층을 포함하며, 복수의 계층은 복수의 연산을 포함한다. 또한, 복수의 계층 간은 가중치(w: weight)로 연결된다. 어느 하나의 계층의 연산 결과는 가중치가 적용되어 다음 계층 노드의 입력이 된다.
인코더(E)는 컨벌루션(Convolution) 연산 및 활성화함수에 의한 연산을 포함하는 복수의 컨벌루션층(Convolution Layer: CL)을 포함한다. 또한, 인코더(E)의 복수의 컨벌루션층(CL) 사이에는 풀링(Pooling) 연산을 수행하는 풀링층(Pooling Layer: PL)가 적용될 수 있다. 인코더(E)는 입력 데이터에 대해 가중치 연산을 수행하여 가중치 연산을 수행하여 잠재 벡터(z: Latent Vector)를 산출한다. 다른 말로, 인코더(E)는 입력 데이터를 압축하여 잠재 벡터(z)를 도출한다. 디코더(D)는 디컨벌루션(Deconvolution) 연산 및 활성화함수에 의한 연산을 포함하는 복수의 디컨벌루션층(Deconvolution Layer: DL)을 포함한다. 디코더(D)는 짐재벡터(z)를 입력받고, 입력된 잠재벡터(z)에 대해 가중치 연산을 수행하여 입력 데이터를 모사하는 모사 데이터를 산출한다.
정리하면, 탐지모델(DM)의 복수의 계층은 컨벌루션층(CL), 풀링층(PL), 디컨벌루션층(DL) 및 완전연결계층(Fully-connected Layer)을 포함하며, 복수의 계층은 디컨벌루션(Deconvolution) 연산, 컨벌루션 연산, 최대 풀링 연산 및 활성화함수에 의한 연산을 포함한다. 활성화함수는 시그모이드(Sigmoid), 하이퍼볼릭탄젠트(tanh: Hyperbolic tangent), ELU(Exponential Linear Unit), ReLU(Rectified Linear Unit), Leakly ReLU, Maxout, Minout, Softmax 등을 예시할 수 있다.
도 4를 참조하면, 검증모델(VM)은 합성곱 신경망(CNN: convolutional neural network) 기반 모델이 될 수 있다. 검증모델(VM)은 복수의 정상 데이터를 검증모델(VM)이 정의하는 벡터 공간에 사상하여 검증 벡터를 생성한다.
검증모델(VM)은 입력층(input layer: IL), 교번으로 반복되는 적어도 한 쌍의 컨벌루션층(convolution layer: CL)과 풀링층(pooling layer: PL), 적어도 하나의 완전연결층(fully-connected layer: FL) 및 출력층(output layer: OL)을 포함할 수 있다. 본 발명의 일 실시예에 따른 검증모델(VM)은 순차로 입력층(IL), 컨볼루션층(CL), 풀링층(PL), 완전연결층(FL) 및 출력층(OL)을 포함한다.
컨볼루션층(CL) 및 풀링층(PL)은 적어도 하나의 특징맵(FM: Feature Map)을 생성한다. 특징맵(FM)은 이전 계층의 연산 결과에 대해 가중치 및 임계치를 적용한 값을 입력받고, 입력받은 값에 대한 연산을 수행한 결과로 도출된다. 이러한 가중치는 소정 크기의 가중치 행렬인 필터 혹은 커널(W)을 통해 적용된다. 본 발명의 실시예에서 컨볼루션층(CL)의 컨벌루션 연산은 제1 필터(W1)가 사용되며, 풀링층(PL)의 풀링 연산은 제2 필터(W2)가 사용된다.
입력층(IL)은 검증 데이터를 입력받기 위한 것이다. 입력층(IL)에 검증 데이터가 입력되면, 컨볼루션층(CL)은 입력층(IL)의 검증 데이터에 대해 제1 필터(W1)를 이용한 컨벌루션(convolution) 연산 및 활성화함수에 의한 연산을 수행하여 적어도 하나의 제1 특징맵(FM1)을 도출한다. 이어서, 풀링층(PL)은 컨볼루션층(CL)의 적어도 하나의 제1 특징맵(FM1)에 대해 제2 필터(W2)를 이용한 풀링(pooling 또는 sub-sampling) 연산을 수행하여 적어도 하나의 제2 특징맵(FM2)을 도출한다.
완결연결층(FL)은 복수의 연산노드(f1 내지 fn)로 이루어진다. 완결연결층(FL)의 복수의 연산노드(f1 내지 fn)는 풀링층(PL)의 적어도 하나의 제2 특징맵(FM2)에 대해 활성화함수에 의한 연산을 통해 복수의 연산값을 산출한다.
출력층(OL)은 복수의 출력노드(g1 내지 g6)를 포함한다. 완결연결층(FL)의 복수의 연산노드(f1 내지 fn) 각각은 가중치(W: weight)를 가지는 채널로 출력층(OL)의 출력노드(g1 내지 g6)와 연결된다. 다른 말로, 복수의 연산노드(f1 내지 fn)의 복수의 연산값은 가중치가 적용되어 복수의 출력노드(g1 내지 g3) 각각에 입력된다. 이에 따라, 출력층(OL)의 복수의 출력노드(g1 내지 g3)는 완결연결층(FL)의 가중치가 적용되는 복수의 연산값에 대해 활성화함수에 의한 연산을 통해 검증벡터를 도출한다. 여기서, 복수의 출력노드(g1 내지 g3)에서 출력되는 출력값은 각각이 하나의 차원을 나타내는 값이 될 수 있다. 예를 들면, 3개의 출력노드(g1 내지 g3)가 존재하는 경우, 3개의 출력노드(g1 내지 g3) 각각의 출력값은 각각이 하나의 차원을 나타내는 성분이 될 수 있다. 이에 따라, 검증모델(VM)은 3차원의 검증벡터를 도출한다.
전술한 컨벌루션층(CL), 완결연결층(FL) 및 출력층(OL)에서 사용되는 활성화함수는 시그모이드(Sigmoid), 하이퍼볼릭탄젠트(tanh: Hyperbolic tangent), ELU(Exponential Linear Unit), ReLU(Rectified Linear Unit), Leakly ReLU, Maxout, Minout, Softmax 등을 예시할 수 있다. 컨벌루션층(CL), 완결연결층(FL) 및 출력층(OL)에 이러한 활성화함수 중 어느 하나를 선택하여 적용할 수 있다.
다음으로, 본 발명의 실시예에 따른 탐지모델을 생성하는 방법에 대해서 설명하기로 한다. 도 5는 본 발명의 실시예에 따른 탐지모델을 생성하는 방법을 설명하기 위한 흐름도이다.
도 5를 참조하면, 데이터처리부(100)는 S110 단계에서 학습 데이터 및 평가 데이터를 마련한다. 이러한 학습 데이터는 정상을 나타내는 레이블이 부착된 하나 이상의 학습용 입력 데이터를 포함한다. 마찬가지로, 평가 데이터는 정상을 나타내는 레이블이 부착된 하나 이상의 평가용 입력 데이터를 포함한다. 예컨대, 탐지모델(DM)이 제품의 정상 여부를 검출하기 위한 것이라고 가정한다. 이때, 입력 데이터는 제품의 정상 여부를 판별하기 위해 제품을 촬영한 영상이 될 수 있으며, 학습 데이터 및 평가 데이터의 입력 데이터, 즉, 학습용 입력 데이터 및 평가용 입력 데이터는 정상 상태의 제품을 촬영한 영상이 될 수 있다.
학습부(200)는 S120 단계에서 학습용 입력 데이터를 탐지모델(DM)에 입력한다. 그러면, 탐지모델(DM)은 S130 단계에서 학습용 입력 데이터에 대해 학습되지 않은 가중치가 적용되는 가중치 연산을 수행하여 학습용 입력 데이터를 모사한 학습용 모사 데이터를 산출한다. 보다 구체적으로, 도 3을 참조하면, 탐지모델(DM)의 인코더(E)는 학습용 입력 데이터(x)를 압축하여 잠재 벡터(z)를 도출하고, 디코더(D)는 잠재 벡터(z)를 복원하여 학습용 입력 데이터(x)를 모사하는 학습용 모사 데이터를(D(z))를 도출한다.
그러면, 학습부(200)는 S140 단계에서 손실함수를 통해 출력된 학습용 모사 데이터와 학습용 입력 데이터와의 차이를 나타내는 학습 손실을 산출한다. 이어서, 학습부(200)는 S150 단계에서 도출된 학습 손실이 최소가 되도록 최적화 알고리즘을 통해 탐지모델(DM)의 가중치를 갱신하는 최적화를 수행한다.
다음으로, 학습부(200)는 S160 단계에서 학습 완료 조건을 만족하는지 여부를 확인한다. 여기서, 학습 완료 조건은 학습 손실이 임계치 미만인 경우, 학습 손실이 수렵하는 경우, 학습률이 소정 수치 이상인 경우를 예시할 수 있다. 상기 확인 결과, 학습 완료 조건을 만족하지 않는 경우, 전술한 S120 단계 내지 S160 단계를 반복한다. 반면, 상기 확인 결과, 학습 완료 조건을 만족하는 경우(즉, 검증 손실이 기 설정된 임계치 미만인 경우), 학습부(200)는 S170 단계에서 학습을 완료한다.
학습이 완료된 후, 학습부(200)는 S180 단계에서 탐지모델(DM)을 통해 복수의 평가용 입력 데이터에 대응하는 복수의 평가용 모사 데이터를 도출하고, 복수의 평가용 입력 데이터에 대응하는 복수의 평가용 모사 데이터와의 차이를 나타내는 복수의 평가 손실을 산출한다. 즉, 학습부(200)는 탐지모델(DM)에 복수의 평가용 입력 데이터를 입력한다. 그러면, 탐지모델(DM)은 복수의 평가용 입력 데이터에 대해 학습된 가중치가 적용되는 가중치 연산을 수행하여 복수의 평가용 모사 데이터를 도출한다. 이어서, 학습부(200)는 손실함수를 통해 복수의 평가용 입력 데이터에 대응하는 복수의 평가용 모사 데이터와의 차이를 나타내는 복수의 평가 손실을 산출한다.
그런 다음, 학습부(200)는 S190 단계에서 다음의 수학식 1에 따라 이상 기준치를 산출한다.
Figure 112023007759120-pat00005
여기서, V는 이상 기준치를 나타낸다. 또한, m은 복수의 평가 손실의 평균이고, o는 복수의 평가 손실의 표준편차이고, 상기 K는 이상 범위 가중치를 나타낸다. 평가 손실은 평가용 입력 데이터와 평가용 모사 데이터와의 차이를 의미한다. K는 1 미만의 양수이며, 설정되는 값이다.
다음으로, 본 발명의 실시예에 따른 클라우드 기반 인공지능 자동 학습 및 배포를 위한 방법에 대해서 설명하기로 한다. 도 6은 본 발명의 실시예에 따른 클라우드 기반 인공지능 자동 학습 및 배포를 위한 방법을 설명하기 위한 흐름도이다.
도 6을 참조하면, 중앙서버(10)의 학습부(200)는 S210 단계에서 학습(machine learning/deep learning)을 통해 탐지모델(DM)을 생성한다. 이러한 방법에 대해서는 앞서 도 4를 통해 설명된 바와 같다.
그런 다음, 중앙서버(10)의 배포부(400)는 S220 단계에서 탐지모델(DM)을 복수의 에지장치(20)에 배포한다. 이때, 탐지모델(DM)에 대한 배포는 탐지모델(DM) 자체를 제공하는 것이 아니라, 예컨대, 가중치 및 임계치 등과 같은 탐지모델(DM)의 파라미터 및 이상 기준치(수학식 1, V)를 전달한다.
탐지모델(DM)의 파라미터를 수신한 에지장치(20)는 파라미터를 통해 탐지모델(DM)을 생성하고, 생성된 탐지모델(DM) 및 이상 기준치를 이용한 추론을 통해 로컬 데이터에서 정상 데이터를 검출한다. 이에 대해 구체적으로 설명하면, 복수의 에지장치(20) 각각은 S230 단계에서 지속적으로 로컬 데이터를 수집한다. 로컬 데이터는 에지장치(20)가 직접 혹은 에지장치(20)에 연결된 센싱장치(30)를 통해 수집되는 데이터를 의미한다. 즉, 로컬 데이터는 에지장치(20)가 설치된 영역에서만 수집될 수 있는 것이다. 다음으로, 복수의 에지장치(20) 각각은 S240 단계에서 탐지모델(DM)을 통해 지속적으로 수집되는 로컬 데이터에 대한 가중치 연산을 수행하여 로컬 데이터를 모사하는 로컬 모사 데이터를 산출한다. 보다 구체적으로, 도 3을 참조하면, 탐지모델(DM)의 인코더(E)는 로컬 입력 데이터(x)를 압축하여 잠재 벡터(z)를 도출하고, 디코더(D)는 잠재 벡터(z)를 복원하여 로컬 입력 데이터(x)를 모사하는 로컬 모사 데이터를(D(z))를 도출한다.
그런 다음, 복수의 에지장치(20) 각각은 S250 단계에서 이상 기준치(수학식 1, V)를 통해 로컬 입력 데이터에 대한 이상 여부를 판단한다. 즉, 복수의 에지장치(20) 각각은 로컬 입력 데이터가 다음의 수학식 2를 만족하는지 여부에 따라 로컬 입력 데이터의 이상 여부를 판단한다. 즉, 에지장치(20)는 다음의 수학식 2를 만족하지 않는 경우, 해당 로컬 입력 데이터를 이상으로 판단한다. 반면, 에지장치(20)는 다음의 수학식 2를 만족하는 경우, 해당 로컬 입력 데이터를 정상으로 판단하여 정상 데이터로 검출한다.
Figure 112023007759120-pat00006
여기서, ma는 소정 기간을 주기로 하는 복수의 로컬 모사 데이터의 이동 평균이다. 이는 즉, S250 단계의 판단 시점 이전에 수집된 로컬 입력 데이터에 대응하여 도출된 복수의 로컬 모사 데이터에 대한 이동 평균을 의미한다. 또한, V는 이상 기준치이고, LD는 로컬 입력 데이터이다.
다음으로, 복수의 에지장치(20) 각각은 S260 단계에서 정상으로 판별된 로컬 입력 데이터인 정상 데이터를 중앙서버(10)로 전송한다. 다른 말로, 중앙서버(10)는 복수의 에지장치(20)로부터 복수의 정상 데이터를 수집한다.
중앙서버(10)는 S270 단계에서 복수의 에지장치(20)로부터 복수의 정상 데이터를 수신하면, 수신된 복수의 정상 데이터를 이용하여 탐지모델(DM)을 보정(tuning) 할 수 있다. 그리고 중앙서버(10)의 배포부(400)는 보정된 탐지모델(DM)을 다시 복수의 에지장치(20)에 배포할 수 있다.
그러면, 복수의 정상 데이터를 이용하여 탐지모델(DM)을 보정(tuning)하는 방법에 대해 보다 상세하게 설명하기로 한다. 도 7은 본 발명의 실시예에 따른 탐지모델을 보정하는 방법을 설명하기 위한 흐름도이다. 도 8은 본 발명의 실시예에 따른 탐지모델을 보정하는 방법을 설명하기 위한 도면이다.
도 7을 참조하면, 데이터처리부(100)는 S310 단계에서 복수의 에지 장치(20)로부터 지속적으로 복수의 정상 데이터를 수신할 수 있다(S260 참조). 그러면, 검증부(300)는 S320 단계에서 복수의 정상 데이터를 에지장치(20) 및 단위 기간 중 적어도 하나에 따라 구분하여 복수의 검증 데이터를 생성한다.
여기서, 도 8을 참조하면, n개의 에지장치(20)가 존재한다고 가정한다. 일 실시예에 따르면, 수집된 복수의 정상 데이터를 제1 내지 제n 에지장치 및 단위 기간 별로 구분하여 복수의 검증 데이터를 생성할 수 있다. 여기서, 어느 하나의 검증 데이터는 각 에지장치(20) 별, 각 단위 시간에 수집된 복수의 정상 데이터의 평균값, 중간값, 혹은 합산값 등의 통계치가 될 수 있다. 혹은 어느 하나의 검증 데이터는 각 에지장치(20) 별, 각 단위 시간에 수집된 복수의 정상 데이터를 연결(concat)하거나, 적층한 데이터가 될 수 있다. 일례로, 제3 에지장치로부터 t2 내지 t3 기간 동안 수집된 복수의 정상 데이터의 평균값이 하나의 검증 데이터가 될 수 있다. 다른 예로, 제3 에지장치로부터 t2 내지 t3 기간 동안 수집된 복수의 정상 데이터를 연결하거나, 적층한 데이터가 하나의 검증 데이터가 될 수 있다. 이는 정상 데이터가 이미지인 경우에 바람직하게 실시될 수 있다.
다른 실시예에 다르면, 수집된 복수의 정상 데이터를 단위 기간 별로 구분하여 복수의 검증 데이터를 생성할 수 있다. 여기서, 어느 하나의 검증 데이터는 각 단위 시간에 수집된 복수의 정상 데이터의 평균값, 중간값, 혹은 합산값 등의 통계치가 될 수 있다. 혹은 어느 하나의 검증 데이터는 각 단위 시간에 수집된 복수의 정상 데이터를 연결(concat)하거나, 적층한 데이터가 될 수 있다. 일례로, 제1 내지 제n 에지장치로부터 t2 내지 t3 기간 동안 수집된 복수의 정상 데이터의 평균값이 하나의 검증 데이터가 될 수 있다. 다른 예로, 제1 내지 제n 에지장치로부터 t2 내지 t3 기간 동안 수집된 복수의 정상 데이터를 연결하거나, 적층한 데이터가 하나의 검증 데이터가 될 수 있다. 이는 정상 데이터가 이미지인 경우에 바람직하게 실시될 수 있다.
검증부(300)는 S330 단계에서 복수의 검증 데이터를 통해 탐지모델에 대한 보정 조건의 만족 여부를 판단한다.
일 실시예에 따르면, 검증부(300)는 복수의 검증 데이터를 검증모델(VM)이 정의하는 벡터공간에 사상하여 복수의 검증벡터를 도출한다. 그런 다음, 검증부(300)는 복수의 검증벡터의 분산이 기 설정된 임계치 이상인지 여부에 따라 보정 조건의 만족 여부를 판단한다. 즉, 검증부(300)는 복수의 검증벡터의 분산이 기 설정된 임계치 이상이면 보정 조건을 만족하는 것으로 판단한다.
다른 실시예에 따르면, 검증부(300)는 복수의 검증 데이터를 검증모델(VM)이 정의하는 벡터공간에 사상하여 복수의 검증벡터를 도출한다. 그런 다음, 검증부(300)는 복수의 검증벡터 중 최근의 단위 기간의 검증 데이터에 대응하는 검증벡터를 제외한 나머지 검증벡터의 중심벡터를 도출한다. 예컨대, t5가 현재 시점이라고 가정할 경우, 최근의 단위 기간의 검증 데이터에 대응하는 검증벡터는 t4 내지 t5 기간 동안 제1 내지 제n 에지장치(20: 20-1, 20-2, ..., 20-n)로부터 수집된 복수의 정상 데이터로부터 도출되는 것이다. 또한, 나머지 검증벡터는 t1 내지 t2, t2 내지 t3, 및 t3 내지 t4 각각의 기간 동안 제1 내지 제n 에지장치(20: 20-1, 20-2, ..., 20-n)으로부터 수집된 복수의 정상 데이터로부터 도출되는 것이다. 검증부(300)는 중심벡터와 최근의 단위 기간에 대응하는 검증벡터와의 거리가 기 설정된 임계치 이상인지 여부에 따라 보정 조건의 만족 여부를 판단할 수 있다. 즉, 검증부(300)는 중심벡터와 최근의 단위 기간에 대응하는 검증벡터와의 거리가 기 설정된 임계치 이상인면, 보정 조건을 만족하는 것으로 판단한다.
보정 조건을 만족하면, 학습부(200)는 S350 단계에서 앞서 수신된 정상 데이터를 학습 데이터 및 평가 데이터로 이용하여 학습(machine learning/deep learning)을 통해 탐지모델을 보정한다. 이러한 S350 단계는 학습 데이터 및 평가 데이터를 에지장치(20)로부터 수신한 정상 데이터를 이용하는 것만 다를 뿐 도 5의 절차와 동일한 방법으로 이루어진다. 이에 대해서는 아래에서 더 상세하게 설명될 것이다.
그런 다음, 배포부(400)는 S360 단계에서 보정된 탐지모델(DM)을 복수의 에지장치(20)에 배포한다. 이때, 탐지모델(DM)에 대한 배포는 탐지모델(DM) 자체를 제공하는 것이 아니라, 예컨대, 가중치 및 임계치 등과 같은 탐지모델(DM)의 파라미터 및 이상 기준치(수학식 1, V)를 전달한다. 이에 따라, 복수의 에지장치(20)는 보정된 탐지모델(DM) 및 이상 기준치를 이용하여 로컬 데이터의 이상 여부를 탐지할 수 있다. 이러한 이상 데이터 탐지는 앞서 설명된 S230 단계 내지 S250 단계에서 설명된 바와 동일한 방법으로 수행된다.
즉, 어느 하나의 에지장치(20)는 로컬 데이터를 수집하고, 보정된 탐지모델(DM)을 통해 로컬 데이터에 대해 학습된 가중치가 적용되는 가중치 연산을 수행하여 로컬 모사 데이터를 도출한 후, 로컬 모사 데이터가 수학식 1을 만족하는지 여부에 따라 로컬 데이터의 이상 여부를 판단할 수 있다. 이때, 에지장치(20)는 로컬 모사 데이터가 수학식 1을 만족하는 경우, 로컬 데이터를 정상 데이터로 판단한다. 이에 따라, 에지장치(20)는 정상 데이터를 중앙서버(10)로 전달한다.
다음으로, 전술한 S350 단계에 대해 보다 상세하게 설명하기로 한다. 도 9는 본 발명의 실시예에 따른 학습을 통해 탐지모델을 보정하는 방법을 설명하기 위한 흐름도이다. 강조하면, 도 9는 S350 단계의 상세한 설명이다.
도 9를 참조하면, 데이터처리부(100)는 S410 단계에서 정상 데이터로부터 학습 데이터 및 평가 데이터를 마련한다. 즉, 데이터처리부(100)는 정상 데이터의 일부를 학습 데이터로 마련하고, 나머지 일부를 평가 데이터로 마련한다.
학습부(200)는 S420 단계에서 학습용 입력 데이터를 탐지모델(DM)에 입력한다. 그러면, 탐지모델(DM)은 S430 단계에서 학습용 입력 데이터에 대해 학습되지 않은 가중치가 적용되는 가중치 연산을 수행하여 학습용 입력 데이터를 모사한 학습용 모사 데이터를 산출한다. 보다 구체적으로, 도 3을 참조하면, 탐지모델(DM)의 인코더(E)는 학습용 입력 데이터(x)를 압축하여 잠재 벡터(z)를 도출하고, 디코더(D)는 잠재 벡터(z)를 복원하여 학습용 입력 데이터(x)를 모사하는 학습용 모사 데이터를(D(z))를 도출한다.
그러면, 학습부(200)는 S440 단계에서 손실함수를 통해 출력된 학습용 모사 데이터와 학습용 입력 데이터와의 차이를 나타내는 학습 손실을 산출한다. 이어서, 학습부(200)는 S450 단계에서 도출된 학습 손실이 최소가 되도록 최적화 알고리즘을 통해 탐지모델(DM)의 가중치를 갱신하는 최적화를 수행한다.
다음으로, 학습부(200)는 S460 단계에서 학습 완료 조건을 만족하는지 여부를 확인한다. 여기서, 학습 완료 조건은 학습 손실이 임계치 미만인 경우, 학습 손실이 수렵하는 경우, 학습률이 소정 수치 이상인 경우를 예시할 수 있다. 상기 확인 결과, 학습 완료 조건을 만족하지 않는 경우, 전술한 S420 단계 내지 S460 단계를 반복한다. 반면, 상기 확인 결과, 학습 완료 조건을 만족하는 경우(즉, 검증 손실이 기 설정된 임계치 미만인 경우), 학습부(200)는 S470 단계에서 학습을 완료한다.
학습이 완료된 후, 학습부(200)는 S480 단계에서 탐지모델(DM)을 통해 복수의 평가용 입력 데이터에 대응하는 복수의 평가용 모사 데이터를 도출하고, 복수의 평가용 입력 데이터에 대응하는 복수의 평가용 모사 데이터와의 차이를 나타내는 복수의 평가 손실을 산출한다. 즉, 학습부(200)는 탐지모델(DM)에 복수의 평가용 입력 데이터를 입력한다. 그러면, 탐지모델(DM)은 복수의 평가용 입력 데이터에 대해 학습된 가중치가 적용되는 가중치 연산을 수행하여 복수의 평가용 모사 데이터를 도출한다. 이어서, 학습부(200)는 손실함수를 통해 복수의 평가용 입력 데이터에 대응하는 복수의 평가용 모사 데이터와의 차이를 나타내는 복수의 평가 손실을 산출한다. 그런 다음, 학습부(200)는 S490 단계에서 전술한 수학식 1에 따라 이상 기준치를 산출한다.
이와 같이, 본 발명에 따르면, 전문적인 지식이 필요 없고, 적은 데이터만 활용해서 몇 번의 클릭만으로 인공지능 학습과 배포가 자동으로 이루어지며, 이러한 고성능의 사양이 필요한 과정은 클라우드 기반으로 중앙에서 고성능의 중앙서버(10)에서만 이루어진다. 실제 현장에서는 인공지능 적용과 간단한 조작을 위한 저성능의 에지장치(20)만이 존재하고, 여러 생산 라인 또는 장소에 해당 시스템이 필요한 경우에는 큰 비용의 고성능 컴퓨터가 아닌 저성능의 에지장치(20)만 추가하여 손쉽게 적용이 가능하여 사용자의 공간적 및 자금적 부담을 혁신적으로 줄일 수 있다.
도 10은 본 발명의 실시예에 따른 컴퓨팅 장치를 나타내는 도면이다. 도 10의 컴퓨팅 장치(TN100)는 본 명세서에서 기술된 장치, 예컨대, 중앙서버(10), 에지장치(20) 등이 될 수 있다.
도 10의 실시예에서, 컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.
프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다.
메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다.
송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다.
한편, 전술한 본 발명의 실시예에 따른 방법은 다양한 컴퓨터수단을 통하여 판독 가능한 프로그램 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 와이어뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 와이어를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 이와 같이, 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 균등론에 따라 다양한 변화와 수정을 가할 수 있음을 이해할 것이다.
10: 중앙서버
20: 에지장치
100: 데이터처리부
200: 학습부
300: 검증부
400: 배포부

Claims (12)

  1. 인공지능 자동 학습 및 배포를 위한 방법에 있어서,
    데이터처리부가 복수의 에지 장치로부터 탐지모델을 통해 추론한 복수의 정상 데이터를 수집하는 단계;
    검증부가 상기 정상 데이터를 분석하여 상기 탐지모델에 대한 보정 조건의 만족 여부를 판단하는 단계;
    상기 보정 조건을 만족하면, 학습부가 상기 정상 데이터를 기초로 상기 탐지모델을 보정하는 단계; 및
    배포부가 상기 보정된 탐지모델을 상기 복수의 에지 장치에 배포하는 단계;
    를 포함하며,
    상기 보정 조건의 만족 여부를 판단하는 단계는
    상기 검증부가 상기 정상 데이터를 에지 장치 및 소정의 단위 기간 별로 구분하여 복수의 검증 데이터를 생성하는 단계;
    상기 검증부가 검증모델을 통해 상기 검증 데이터를 상기 검증모델이 정의하는 벡터공간에 사상하여 복수의 검증벡터를 도출하는 단계; 및
    상기 검증부가 상기 복수의 검증벡터의 분산이 기 설정된 임계치 이상인지 여부에 따라 상기 보정 조건의 만족 여부를 판단하는 단계;
    를 포함하는 것을 특징으로 하는
    인공지능 자동 학습 및 배포를 위한 방법.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서,
    상기 탐지모델을 보정하는 단계는
    상기 학습부가 상기 정상 데이터로부터 추출된 학습 데이터의 학습용 입력 데이터를 상기 탐지모델에 입력하는 단계;
    상기 탐지모델이 입력된 학습용 입력 데이터에 대해 가중치 연산을 수행하여 학습용 입력 데이터를 모사하는 학습용 모사 데이터를 도출하는 단계;
    상기 학습부가 학습용 입력 데이터와 상기 학습용 모사 데이터와의 차이를 나타내는 학습 손실을 산출하는 단계;
    상기 학습부가 상기 학습 손실이 최소가 되도록 탐지모델의 가중치를 수정하는 최적화를 수행하는 단계;
    를 포함하는 것을 특징으로 하는
    인공지능 자동 학습 및 배포를 위한 방법.
  5. 제4항에 있어서,
    상기 학습부가 상기 정상 데이터로부터 추출된 평가 데이터의 복수의 평가용 입력 데이터를 상기 탐지모델에 입력하는 단계;
    상기 탐지모델이 상기 복수의 평가용 입력 데이터에 대한 가중치 연산을 수행하여 복수의 평가용 입력 데이터를 모사하는 복수의 평가용 모사 데이터를 도출하는 단계;
    상기 학습부가 복수의 평가용 입력 데이터와 복수의 평가용 모사 데이터와의 차이를 나타내는 복수의 평가 손실을 산출하는 단계;
    상기 학습부가 수학식
    Figure 112023007759120-pat00007

    에 따라 이상 기준치를 산출하는 단계;
    를 더 포함하며,
    상기 V는 이상 기준치이고,
    상기 m은 복수의 평가 손실의 평균이고,
    상기 o는 복수의 평가 손실의 표준편차이고,
    상기 K는 이상 범위 가중치인 것을 특징으로 하는
    인공지능 자동 학습 및 배포를 위한 방법.
  6. 제5항에 있어서,
    상기 배포하는 단계 후,
    에지장치가 로컬 데이터를 수집하는 단계; 및
    상기 에지 장치가 상기 보정된 탐지모델을 통해 상기 로컬 데이터에 대해 학습된 가중치가 적용되는 가중치 연산을 수행하여 로컬 모사 데이터를 도출하는 단계;
    상기 에지 장치가
    상기 로컬 모사 데이터가
    수학식
    Figure 112023007759120-pat00008

    을 만족하는지 여부에 따라 상기 로컬 데이터의 이상 여부를 판단하는 단계;
    를 더 포함하며,
    상기 ma는 소정 기간을 주기로 하는 로컬 데이터의 이동 평균이고,
    상기 V는 이상 기준치이고,
    상기 LD는 로컬 데이터인 것을 특징으로 하는
    인공지능 자동 학습 및 배포를 위한 방법.
  7. 인공지능 자동 학습 및 배포를 위한 장치에 있어서,
    복수의 에지 장치로부터 탐지모델을 통해 추론한 복수의 정상 데이터를 수집하는 데이터처리부;
    상기 정상 데이터를 분석하여 상기 탐지모델에 대한 보정 조건의 만족 여부를 판단하는 검증부;
    상기 보정 조건을 만족하면, 상기 정상 데이터를 기초로 상기 탐지모델을 보정하는 학습부; 및
    상기 보정된 탐지모델을 상기 복수의 에지 장치에 배포하는 배포부;
    를 포함하며,
    상기 검증부는
    상기 정상 데이터를 에지 장치 및 소정의 단위 기간 별로 구분하여 복수의 검증 데이터를 생성하고,
    검증모델을 통해 상기 검증 데이터를 상기 검증모델이 정의하는 벡터공간에 사상하여 복수의 검증벡터를 도출하고,
    상기 복수의 검증벡터의 분산이 기 설정된 임계치 이상인지 여부에 따라 상기 보정 조건의 만족 여부를 판단하는 것을 특징으로 하는
    인공지능 자동 학습 및 배포를 위한 장치.
  8. 삭제
  9. 삭제
  10. 제7항에 있어서,
    상기 학습부는
    상기 정상 데이터로부터 추출된 학습 데이터의 학습용 입력 데이터를 상기 탐지모델에 입력하고,
    상기 탐지모델이 입력된 학습용 입력 데이터에 대해 가중치 연산을 수행하여 학습용 입력 데이터를 모사하는 학습용 모사 데이터를 도출하면,
    학습용 입력 데이터와 상기 학습용 모사 데이터와의 차이를 나타내는 학습 손실을 산출하고,
    상기 학습 손실이 최소가 되도록 탐지모델의 가중치를 수정하는 최적화를 수행하는 것을 특징으로 하는
    인공지능 자동 학습 및 배포를 위한 장치.
  11. 제10항에 있어서,
    상기 학습부는
    상기 정상 데이터로부터 추출된 평가 데이터의 복수의 평가용 입력 데이터를 상기 탐지모델에 입력하고,
    상기 탐지모델이 상기 복수의 평가용 입력 데이터에 대한 가중치 연산을 수행하여 복수의 평가용 입력 데이터를 모사하는 복수의 평가용 모사 데이터를 도출하면,
    복수의 평가용 입력 데이터와 복수의 평가용 모사 데이터와의 차이를 나타내는 복수의 평가 손실을 산출하고,
    수학식
    Figure 112023007759120-pat00009

    에 따라 이상 기준치를 산출하며,
    상기 V는 이상 기준치이고,
    상기 m은 복수의 평가 손실의 평균이고,
    상기 o는 복수의 평가 손실의 표준편차이고,
    상기 K는 이상 범위 가중치인 것을 특징으로 하는
    인공지능 자동 학습 및 배포를 위한 장치.
  12. 제11항에 있어서,
    상기 에지장치는
    로컬 데이터를 수집하고,
    상기 보정된 탐지모델을 통해 상기 로컬 데이터에 대해 학습된 가중치가 적용되는 가중치 연산을 수행하여 로컬 모사 데이터를 도출한 후,
    상기 로컬 모사 데이터가
    수학식
    Figure 112023007759120-pat00010

    을 만족하는지 여부에 따라 상기 로컬 데이터의 이상 여부를 판단하며,
    상기 ma는 소정 기간을 주기로 하는 로컬 데이터의 이동 평균이고,
    상기 V는 이상 기준치이고,
    상기 LD는 로컬 데이터인 것을 특징으로 하는
    인공지능 자동 학습 및 배포를 위한 장치.
KR1020230008322A 2022-12-14 2023-01-19 클라우드 기반 인공지능 자동 학습 및 배포를 위한 장치 및 이를 위한 방법 KR102579116B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220175315 2022-12-14
KR20220175315 2022-12-14

Publications (1)

Publication Number Publication Date
KR102579116B1 true KR102579116B1 (ko) 2023-09-15

Family

ID=88017218

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230008322A KR102579116B1 (ko) 2022-12-14 2023-01-19 클라우드 기반 인공지능 자동 학습 및 배포를 위한 장치 및 이를 위한 방법

Country Status (1)

Country Link
KR (1) KR102579116B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190134982A (ko) 2018-05-18 2019-12-05 박병훈 빅데이터 기반의 인공지능 통합 플랫폼
JP2021060940A (ja) * 2019-10-09 2021-04-15 株式会社日立製作所 運用支援システム及び方法
KR102312152B1 (ko) * 2019-12-03 2021-10-12 주식회사 포스코아이씨티 시공간 환경 변화에 따른 안면인식을 위한 안면인식서버 및 안면인식 시스템

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190134982A (ko) 2018-05-18 2019-12-05 박병훈 빅데이터 기반의 인공지능 통합 플랫폼
JP2021060940A (ja) * 2019-10-09 2021-04-15 株式会社日立製作所 運用支援システム及び方法
KR102312152B1 (ko) * 2019-12-03 2021-10-12 주식회사 포스코아이씨티 시공간 환경 변화에 따른 안면인식을 위한 안면인식서버 및 안면인식 시스템

Similar Documents

Publication Publication Date Title
KR102450374B1 (ko) 데이터 인식 및 트레이닝 장치 및 방법
AU2017437537B2 (en) Training tree-based machine-learning modeling algorithms for predicting outputs and generating explanatory data
WO2021109578A1 (zh) 业务运维中告警的预测方法、装置与电子设备
KR102641116B1 (ko) 데이터 증강에 기초한 인식 모델 트레이닝 방법 및 장치, 이미지 인식 방법 및 장치
CN112181666A (zh) 一种基于边缘智能的设备评估和联邦学习重要性聚合方法、系统、设备和可读存储介质
WO2019116354A1 (en) Training of artificial neural networks using safe mutations based on output gradients
KR102011788B1 (ko) 계층적 시각 특징을 이용한 시각 질의 응답 장치 및 방법
US20210064978A1 (en) Information processing device, information processing method, and storage medium
KR20220038907A (ko) 생성적 대립 신경망(gan) 기반의 데이터 예측 방법, 그리고 이를 구현하기 위한 장치
US20220245405A1 (en) Deterioration suppression program, deterioration suppression method, and non-transitory computer-readable storage medium
CN111008631A (zh) 图像的关联方法及装置、存储介质和电子装置
CN112819024A (zh) 模型处理方法、用户数据处理方法及装置、计算机设备
KR20210066534A (ko) 에너지 사용량 데이터의 비지도 학습 기반 부하 모니터링 방법
US11003960B2 (en) Efficient incident management in large scale computer systems
KR20200038072A (ko) 엔트로피 기반 신경망(Neural Networks) 부분학습 방법 및 시스템
KR102579116B1 (ko) 클라우드 기반 인공지능 자동 학습 및 배포를 위한 장치 및 이를 위한 방법
US20230133989A1 (en) Information processing apparatus, information processing method, and recording medium
KR20180022180A (ko) 전자전 위협신호의 분류를 위한 딥 신경망 학습장치 및 방법
CN116524296A (zh) 设备缺陷检测模型的训练方法、装置和设备缺陷检测方法
KR102184395B1 (ko) 결정트리 및 심층신경망을 이용한 대량의 데이터를 분류하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
KR102211604B1 (ko) Gpu 기반의 채널 단위 딥뉴럴 네트워크 구조 검색을 사용하는 인공지능 시스템
KR20220052844A (ko) 뉴럴 네트워크의 제공
US20220300818A1 (en) Structure optimization apparatus, structure optimization method, and computer-readable recording medium
KR102585904B1 (ko) 자기 주도 중앙 제어 기반의 인공지능을 이용한 방사선 영상을 판독하기 위한 장치 및 이를 위한 방법
CN113313079B (zh) 一种车辆属性识别模型的训练方法、系统及相关设备

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant