KR20200116279A - 학습기반 데이터 처리 시스템 및 모델 갱신 방법 - Google Patents
학습기반 데이터 처리 시스템 및 모델 갱신 방법 Download PDFInfo
- Publication number
- KR20200116279A KR20200116279A KR1020190037865A KR20190037865A KR20200116279A KR 20200116279 A KR20200116279 A KR 20200116279A KR 1020190037865 A KR1020190037865 A KR 1020190037865A KR 20190037865 A KR20190037865 A KR 20190037865A KR 20200116279 A KR20200116279 A KR 20200116279A
- Authority
- KR
- South Korea
- Prior art keywords
- learning
- learning model
- model
- data
- recognition result
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G06N3/0454—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
본 기술의 일 실시예에 의한 학습기반 데이터 처리 시스템은 학습 데이터 집합을 학습하여 학습 모델을 생성하고, 관찰 데이터를 학습 모델에 따라 인식하여 결과를 제공하는 학습기반 데이터 처리 시스템으로서, 제 1 학습 데이터 집합에 기초하여 생성한 제 1 학습 모델과, 제 2 학습 데이터 집합에 기초하여 생성한 제 2 학습 모델을 결합하여 결합된 학습 모델을 생성하도록 구성되는 데이터 인식 장치를 포함하도록 구성될 수 있다.
Description
본 기술은 데이터 처리 기술에 관한 것으로, 보다 구체적으로는 학습기반 데이터 처리 시스템 및 모델 갱신 방법에 관한 것이다.
기계학습은 인공지능 시스템을 구현하는 접근 방식의 하나이다.
인공 지능 시스템은 다양한 환경에서 수집된 방대한 데이터를 분석하여 활용하며 자동차, 이미지 처리, 음성 처리, 의료, 보안, 금융 등 그 적용 범위가 날로 확대되고 있다.
인공 지능 시스템은 해결할 문제가 정의되면 이를 해결하기 위한 데이터를 수집 및 가공하여 데이터 집합을 구성한다. 데이터 집합은 문제 해결에 적합한 방법론, 예를 들어 신경망 방법론에 따라 학습(모델링)되어 학습 파라미터(모델)가 도출된다. 그리고, 제공(feeding)되는 데이터에 대해 학습 모델을 적용하여 결과를 추론, 즉 입력 데이터를 인식한다.
추론 과정에서 제공되는 데이터의 수가 유의미한 수준이 되면 학습 모델을 갱신할 수 있다.
방대한 양의 데이터를 분석하여 학습 모델을 구축하기 위하여 시스템의 연산량이 증가하고 누적되는 데이터를 계속해서 저장하기 위한 대용량 스토리지 장치가 필요하다.
본 기술의 실시예는 연산량 및 데이터 저장량을 최소화할 수 있는 학습기반 데이터 처리 시스템 및 모델 갱신 방법을 제공할 수 있다.
본 기술의 일 실시예에 의한 학습기반 데이터 처리 시스템은 학습 데이터 집합을 학습하여 학습 모델을 생성하고, 관찰 데이터를 학습 모델에 따라 인식하여 결과를 제공하는 학습기반 데이터 처리 시스템으로서, 제 1 학습 데이터 집합에 기초하여 생성한 제 1 학습 모델과, 제 2 학습 데이터 집합에 기초하여 생성한 제 2 학습 모델을 결합하여 결합된 학습 모델을 생성하도록 구성되는 데이터 인식 장치;를 포함하도록 구성될 수 있다.
본 기술의 일 실시예에 의한 모델 갱신 방법은 학습 데이터 집합을 학습하여 학습 모델을 생성하고, 관찰 데이터를 학습 모델에 따라 인식하여 결과를 제공하는 학습기반 데이터 처리 시스템의 모델 갱신 방법으로서, 제 1 학습 데이터 집합에 기초하여 제 1 학습 모델을 생성하는 단계; 제 2 학습 데이터 집합에 기초하여 제 2 학습 모델 생성하는 단계; 및 상기 제 1 학습 모델과 상기 제 2 학습 모델을 결합하여 결합된 학습 모델을 생성하는 단계;를 포함하도록 구성될 수 있다.
본 기술에 의하면, 분석을 위해 제공되는 모든 데이터를 저장할 필요가 없다. 또한, 결합된 학습 모델에 기초하여 새로 제공되는 데이터를 학습하므로 데이터 저장량 및 연산량을 최소화할 수 있다.
도 1은 일 실시예에 의한 학습기반 데이터 처리 시스템의 구성도이다.
도 2는 일 실시예에 의한 데이터 인식 장치의 구성도이다.
도 3은 일 실시예에 의한 초기 모델 생성 방법을 설명하기 위한 개념도이다.
도 4는 일 실시예에 의한 모델 갱신 방법을 설명하기 위한 개념도이다.
도 5는 일 실시예에 의한 모델 갱신부의 구성도이다.
도 6은 일 실시예에 의한 모델 갱신 방법을 설명하기 위한 흐름도이다.
도 2는 일 실시예에 의한 데이터 인식 장치의 구성도이다.
도 3은 일 실시예에 의한 초기 모델 생성 방법을 설명하기 위한 개념도이다.
도 4는 일 실시예에 의한 모델 갱신 방법을 설명하기 위한 개념도이다.
도 5는 일 실시예에 의한 모델 갱신부의 구성도이다.
도 6은 일 실시예에 의한 모델 갱신 방법을 설명하기 위한 흐름도이다.
이하, 첨부된 도면을 참조하여 본 기술의 실시예를 보다 구체적으로 설명한다.
도 1은 일 실시예에 의한 학습기반 데이터 처리 시스템의 구성도이다.
도 1을 참조하면, 일 실시예에 의한 학습기반 데이터 처리 시스템(10)은 프로세서(110), ROM(120), RAM(130), 스토리지(140) 및 인터페이스부(IF, 150)를 포함할 수 있다.
프로세서(110)는 학습기반 데이터 처리 시스템(10)이 동작하는 데 필요한 프로그램 코드를 해독 및 연산하여 학습기반 데이터 처리 시스템(10)의 제반 동작을 제어할 수 있다.
ROM(120)은 학습기반 데이터 처리 시스템(10)의 동작에 필요한 각종 시스템 데이터, 펌웨어 코드, 소프트웨어 코드 등을 저장할 수 있다.
RAM(130)은 프로세서(110)의 동작에 수반되는 데이터를 저장하도록 구성될 수 있다.
스토리지(140)는 학습기반 데이터 처리 시스템(10)에서 사용하기 위한 데이터가 수집되는 반도체 기억장치일 수 있다.
인터페이스부(150)는 학습기반 데이터 처리 시스템(10)이 통신망을 통해 데이터를 송수신할 수 있는 통신망 인터페이스, 운용자 또는 작업자가 학습기반 데이터 처리 시스템(10)에 접근할 수 있는 사용자 인터페이스를 포함할 수 있다.
일 실시예에서, 프로세서(110)는 데이터 인식 장치(20)를 포함할 수 있다.
데이터 인식 장치(20)는 입력되는 데이터 집합, 즉 학습 데이터 집합을 모델링하여 학습 모델을 생성할 수 있다. 그리고, 관찰(feeding)되는 데이터에 대해 학습 모델을 적용하여 인식하여 출력할 수 있다.
데이터 인식 장치(20)는 추론 과정에서 제공되는 관찰 데이터의 수가 미리 설정된 기준값 이상이 되면 새로운 학습 데이터 집합인 갱신 학습 데이터 집합을 구성하고, 학습 모델을 갱신할 수 있다.
일 실시예에서, 데이터 인식 장치(20)는 이전 시점의 학습 데이터 집합에 기초하여 생성한 학습 모델(제 1 학습 모델)과, 갱신 학습 데이터 집합에 기초하여 생성한 학습 모델(제 2 학습 모델)을 결합하여 결합된 학습 모델을 생성할 수 있다.
즉, 학습 데이터가 추가되어 학습 모델을 갱신할 때, 학습 데이터를 누적하여 학습하는 것이 아니라, 학습 데이터 집합별 학습 모델을 이용하여 모델을 갱신할 수 있다.
일 실시예에서, 데이터 인식 장치(20)는 학습 모델을 생성하기 위하여 신경망 방법론을 이용할 수 있으나 이에 한정되는 것은 아니다.
제 1 학습 모델을 생성하기 위한 학습 방법과, 제 2 학습 모델을 생성하기 위한 학습 방법은 같거나 상이할 수 있다.
본 기술에 의하면, 갱신되는 학습 데이터를 누적해서 저장하지 않고 학습 모델만을 저장하므로 데이터 저장량 및 연산량을 최소화할 수 있다.
데이터 인식 장치(20)는 소프트웨어 모듈 또는 하드웨어 모듈, 또는 소프트웨어와 하드웨어가 결합된 형태 등으로 제작될 수 있다.
도 2는 일 실시예에 의한 데이터 인식 장치의 구성도이다.
도 2를 참조하면, 일 실시예에 의한 데이터 인식 장치(20)는 학습부(210), 추론부(220), 판단부(230) 및 모델 갱신부(240)를 포함할 수 있다.
학습부(210)는 입력되는 학습 데이터 집합에 포함된 원소들을 학습하여 학습 모델(M(.))을 생성하도록 구성될 수 있다.
일 실시예에서, 학습부(210)는 인공 신경망 방식으로 데이터를 학습하여 학습 모델(M(.))을 생성할 수 있다.
인공 신경망 방식은 입력 데이터에 가중치를 적용하여 결과를 추정하고, 추정값으로부터 오차를 검출하여 가중치를 보정하는 과정을 반복하여 데이터를 모델링하는 방식을 의미한다.
추론부(220)는 관찰 데이터에 학습 모델(M(.))을 적용하여 관찰 데이터의 인식 결과(D(M(.))를 출력할 수 있다.
판단부(230)는 입력 데이터 및 추론부(220)의 인식 결과(D(M(.))에 기초하여 분석 및 판단하고 판단 결과치(Ground Truth, GT(.))를 출력할 수 있다.
모델 갱신부(240)는 이전 시점의 학습 데이터 집합으로부터 생성된 제 1 학습 모델 및 현재 시점의 갱신 학습 데이터 집합으로부터 생성된 제 2 학습 모델의 인식 결과를 결합하여 결합된 학습 모델(M(AN))을 생성하고 추론부(220)로 제공하도록 구성될 수 있다.
N은 학습 모델의 갱신 차수를 의미할 수 있다.
일 실시예에서, 모델 갱신부(240)는 관찰 데이터의 수가 미리 설정된 기준값 이상이 되면 갱신 학습 데이터 집합을 구성할 수 있다. 갱신 학습 데이터 집합이 구성되면 제 2 학습 모델을 생성하고, 이전 시점에 생성한 제 1 학습 모델과 제 2 학습 모델의 인식 결과를 결합하여 학습 모델을 갱신할 수 있다.
도 3은 일 실시예에 의한 초기 모델 생성 방법을 설명하기 위한 개념도이다.
도 3을 참조하면, 초기 학습 데이터 집합(A)이 구성됨에 따라, 학습부(210)는 초기 학습 데이터 집합(A)의 각 원소(k)를 모델링하여 제 1 학습 모델(M(A))을 생성할 수 있다.
이 후 관찰 데이터가 제공됨에 따라, 추론부(220)는 제 1 학습 모델(M(A))에 기초한 인식 결과(D(M(A))를 출력할 수 있다.
추론부(220)의 인식 결과(D(M(A))는 판단부(230)에서 평가되어 판단 결과치(GT(k))가 생성될 수 있다.
관찰 데이터의 수가 미리 설정된 개수만큼 수집되기 전까지 데이터 인식 장치(20)는 초기 학습 데이터 집합에 기초하여 생성된 제 1 학습 모델(M(A))에 따라 관찰 데이터를 인식하게 된다.
도 4는 일 실시예에 의한 모델 갱신 방법을 설명하기 위한 개념도이다.
관찰 데이터의 수가 미리 설정된 기준값 이상으로 수집되면, 갱신 학습 데이터 집합(B)이 구성될 수 있다.
학습부(210)는 갱신 학습 데이터 집합(B)의 각 원소(k)를 모델링하여 제 2 학습 모델(M(B))을 생성할 수 있다.
추론부(220)는 갱신 학습 데이터 집합(B)의 각 원소(k)에 제 2 학습 모델(M(B))을 적용하여 인식 결과(D(M(B))를 출력할 수 있다.
판단부(230)는 추론부(220)의 인식 결과(D(M(B))를 평가하고 판단 결과치(GT(k), k는 갱신 학습 데이터 집합(B)의 원소)를 출력할 수 있다.
모델 갱신부(240)는 제 1 학습 모델(M(A))에 기초한 인식 결과(D(M(A))), 제 2 학습 모델(M(B))에 기초한 인식 결과(D(M(B))) 및 판단부(230)의 판단 결과치(GT(k))에 기초하여 결합된 학습 모델(M(AN))을 생성할 수 있다.
이제, 추론부(220)는 관찰 데이터의 수가 미리 설정된 기준값 이상으로 수집될 때까지 결합된 학습 모델(M(AN))에 따라 데이터를 인식할 수 있다.
일 실시예에서, 모델 갱신부(240)는 갱신 학습 데이터 집합(B)의 모든 원소(k)에 대해 f{(D(M(A),k)), (D(M(B),k))}==GT(k)인 분류함수(f)를 도출할 수 있다. 즉, 갱신 학습 데이터 집합의 모든 원소(k)에 대해 상기 제 1 학습 모델에 의한 인식 결과(D(M(A),k)) 및 상기 제 2 학습 모델에 의한 인식 결과(D(M(B),k))가 판단 결과치 GT(k)와 동일해지도록 하는 분류함수(f)를 도출할 수 있다.
분류함수는 D(M(.))가 유한집합의 원소(c)로 맵핑되는 함수일 수 있다. C는 c의 집합이며, CN(C)는 집합 C의 크기를 의미한다.
그리고, 결합된 학습 모델(M(AN)) = f{(D(M(A),k)), (D(M(B),k))}로 정의할 수 있다.
도 5는 일 실시예에 의한 모델 갱신부의 구성도이다.
도 5를 참조하면, 모델 갱신부(240)는 BKS 요소 생성부(241) 및 맵핑부(243)를 포함할 수 있다.
일 실시예에서, 결합된 학습 모델(M(AN))을 도출하기 위해, 행위 지식 공간(Behavior Knowledge Space; BKS) 방식을 이용할 수 있다.
BKS 방식은 추론부(220)의 인식 결과 각각에 대한 판단 결과치를 테이블화하여 두고, 새로운(관찰) 데이터가 유입되면 테이블을 참조하여 인식 결과를 제공하는 방식을 의미한다.
BKS 방식에서, 추론부(220)의 인식 결과는 키 데이터가 될 수 있고, 각 키 데이터 별로 통계치 벡터를 산출하여 BKS 요소들을 구성할 수 있다.
BKS : BKS 요소들의 집합
BKS 요소 : {(키데이터, 통계치벡터)}
일 실시예에서, BKS 요소 생성부(241)는 이전 시점의 학습 데이터 집합(A) 및 갱신 학습 데이터 집합(B)의 모든 데이터(k)에 대한 추론을 실시하여 얻어진 인식 결과를 바탕으로 BKS 요소를 구성할 수 있다.
일 실시예에서, BKS 요소 생성부(241)는 제 1 학습 모델(M(A))에 기초한 인식 결과(D(M(A))) 및 제 2 학습 모델(M(B))에 기초한 인식 결과(D(M(B)))의 순서쌍을 키 데이터로 설정할 수 있다.
키데이터 = [D(M(A)), D(M(B))]
BKS 요소 생성부(241)는 학습 데이터 집합에서 [갱신 학습 데이터 집합(B)에서 해당 키 데이터가 나타난 횟수, 분류함수의 모든 원소(c)에 대해 해당 키 데이터가 나타났을 때 GT(B)=c인 횟수]를 통계치 벡터로 설정할 수 있다. 따라서, 통계치 벡터의 차원은 [CN(C)+1]의 크기를 가질 수 있다.
키 데이터가 [D(M(A)), D(M(B))]의 순서쌍으로 설정됨에 따라, BKS 요소 생성부(241)는 키 데이터를 구성하는 순서쌍[D(M(A)), D(M(B))] 각각에 대한 통계치 벡터를 구성할 수 있다.
맵핑부(243)는 키 데이터가 (D(M(A),k), D(M(B),k))인 BKS 요소 중, 통계치 벡터의 두번째 원소부터 마지막 원소 - 뷴류함수(f)의 모든 원소(c)에 대해 산출된 해당 키데이터가 나타났을 때의 GT(B)=c인 횟수 - 중에서 최대값을 갖는 원소(c)를 해당 키 데이터에 맵핑시킬 수 있다.
이와 같이, 제 1 학습 모델의 인식 결과 및 제 2 학습 모델의 인식 결과를 BKS 방식으로 결합(Cascade)하여 분류함수를 생성하고 이후의 추론 과정에 적용할 수 있다.
도 6은 일 실시예에 의한 모델 갱신 방법을 설명하기 위한 흐름도이다.
초기 학습 데이터 집합 (A)이 구성됨에 따라(S101), 데이터 인식 장치(20)의 학습부(210)는 초기 학습 데이터 집합(A)의 각 원소(k)를 모델링하여 제 1 학습 모델(M(A))을 생성할 수 있다(S103).
이 후 관찰 데이터가 제공됨에 따라, 데이터 인식 장치(20)의 추론부(220)는 제 1 학습 모델(M(A))에 기초한 인식 결과(D(M(A))를 출력할 수 있다(S105).
단계 S105의 인식 결과(D(M(A))는 판단부(230)에서 실제 데이터와 비교하는 방식으로 평가되어 관찰 데이터에 대한 판단 결과가 판단 결과치(GT(k))로 제공될 수 있다(S107).
관찰 데이터의 수가 미리 설정된 개수만큼 수집되기 전까지 데이터 인식 장치(20)는 초기 학습 데이터 집합에 기초하여 생성된 제 1 학습 모델(M(A))에 따라 관찰 데이터를 인식하게 된다.
관찰 데이터의 수가 미리 설정된 기준값 이상으로 수집되면, 갱신 학습 데이터 집합(B)이 구성될 수 있다(S109).
데이터 인식 장치(20)의 학습부(210)는 갱신 학습 데이터 집합(B)의 각 원소(k)를 모델링하여 제 2 학습 모델(M(B))을 생성할 수 있다(S111). 그리고, 추론부(220)는 갱신 학습 데이터 집합(B)의 각 원소(k)에 제 2 학습 모델(M(B))을 적용하여 인식 결과(D(M(B))를 출력할 수 있다.
이후, 데이터 인식 장치(20)의 판단부(230)는 갱신 학습 데이터 집합(B)에 대한 인식 결과(D(M(B))를 평가한 판단 결과를 판단 결과치(GT(k))로 출력할 수 있다(S115).
데이터 인식 장치(20)의 모델 갱신부(240)는 제 1 학습 모델(M(A))에 기초한 인식 결과(D(M(A))), 제 2 학습 모델(M(B))에 기초한 인식 결과(D(M(B))) 및 단계 S115의 판단 결과치(GT(k))에 기초하여 결합된 학습 모델(M(AN))을 생성할 수 있다(S117).
이제, 추론부(220)는 관찰 데이터의 수가 미리 설정된 기준값 이상으로 수집될 때까지 결합된 학습 모델(M(AN))에 따라 데이터를 인식할 수 있고(S119), 인식 결과는 판단부(230)에서 평가될 수 있다(S121).
관찰 데이터의 수가 기 설정된 기준값 이상 수집되면 단계 S109로 복귀하여 학습 모델을 갱신하는 과정이 반복될 수 있다.
일 실시예에서, 학습 모델을 갱신하는 단계(S117)는 갱신 학습 데이터 집합(B)의 모든 원소(k)에 대해 f{(D(M(A),k)), (D(M(B),k))}==GT(k)인 분류함수(f)를 도출하는 단계일 수 있다.
일 실시예에서, 분류함수(f)를 도출하기 위해 BKS 방식을 이용할 수 있으나 이에 한정되는 것은 아니다.
일 실시예에서, 제 1 학습 모델(M(A))에 기초한 인식 결과(D(M(A))) 및 제 2 학습 모델(M(B))에 기초한 인식 결과(D(M(B)))의 순서쌍을 키 데이터로 설정할 수 있다.
그리고, 학습 데이터 집합에서 [갱신 학습 데이터 집합(B)에서 해당 키 데이터가 나타난 횟수, 분류함수의 모든 원소(c)에 대해 해당 키 데이터가 나타났을 때 GT(B)=c인 횟수]를 통계치 벡터로 설정할 수 있다.
BKS 요소가 구성되면, 키 데이터가 (D(M(A),k), D(M(B),k))인 BKS 요소 중, 통계치 벡터의 두번째 원소부터 마지막 원소 - 뷴류함수(f)의 모든 원소(c)에 대해 산출된 해당 키데이터가 나타났을 때의 GT(B)=c인 횟수 - 중에서 최대값을 갖는 원소(c)를 해당 키 데이터에 맵핑시켜 분류함수를 도출할 수 있다.
따라서, 관찰 대상 데이터를 누적하여 저장할 필요가 없이, 이전 학습 단계의 학습 모델을 이용하여 모델을 갱신할 수 있으므로, 학습기반 데이터 처리 시스템(10)의 데이터 저장량 및 연산량을 최소화할 수 있다.
일 실시예에서, 데이터 인식 장치(20)는 적어도 하나의 하드웨어 칩 형태로 제작되어 학습기반 데이터처리 시스템(10)에 탑재될 수 있다. 예를 들어, 데이터 인식 장치(20)는 인공 지능을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 범용 프로세서(CPU 또는 application processor) 또는 그래픽 전용 프로세서(GPU)의 일부로 제작되어 학습기반 데이터 처리 시스템(10)에 탑재될 수 있다.
이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
10 : 학습기반 데이터 처리 시스템
20 : 데이터 인식 장치
20 : 데이터 인식 장치
Claims (20)
- 학습 데이터 집합을 학습하여 학습 모델을 생성하고, 관찰 데이터를 학습 모델에 따라 인식하여 결과를 제공하는 학습기반 데이터 처리 시스템으로서,
제 1 학습 데이터 집합에 기초하여 생성한 제 1 학습 모델과, 제 2 학습 데이터 집합에 기초하여 생성한 제 2 학습 모델을 결합하여 결합된 학습 모델을 생성하도록 구성되는 데이터 인식 장치;
를 포함하도록 구성되는 학습기반 데이터 처리 시스템. - 제 1 항에 있어서,
상기 데이터 인식 장치는 인공 신경망에 기초하여 상기 학습 데이터 집합을 학습하도록 구성되는 학습기반 데이터처리 시스템. - 제 1 항에 있어서,
상기 데이터 인식 장치는, 학습 데이터 집합에 포함된 원소들을 학습하여 학습 모델을 생성하는 학습부;
상기 관찰 데이터에 상기 학습 모델을 적용하여 인식 결과를 출력하는 추론부;
상기 추론부의 인식 결과를 평가하여 판단 결과치를 출력하는 판단부; 및
상기 제 1 학습 모델에 의한 상기 추론부의 제 1 인식 결과 및 상기 제 2 학습 모델에 의한 상기 추론부의 제 2 인식 결과에 기초하여 상기 결합된 학습 모델을 생성하여 상기 추론부로 제공하도록 구성되는 모델 갱신부;
를 포함하는 학습기반 데이터 처리 시스템. - 제 3 항에 있어서,
상기 모델 갱신부는, 상기 관찰 데이터의 수가 미리 설정된 기준값 이상이면 상기 제 2 학습 데이터 집합을 구성하는 학습기반 데이터 처리 시스템. - 제 3 항에 있어서,
상기 모델 갱신부는, 상기 제 2 학습 데이터 집합의 모든 원소에 대해 상기 제 1 학습 모델에 의한 상기 제 1 인식 결과 및 상기 제 2 학습 모델에 의한 상기 제 2 인식 결과가 상기 제 2 인식 결과에 대한 판단 결과치와 동일해지도록 하는 분류함수를 도출하는 학습기반 데이터 처리 시스템. - 제 5 항에 있어서,
상기 모델 갱신부는, 행위 지식 공간(Behavior Knowledge Space; BKS) 방식에 기초하여 상기 결합된 학습 모델을 생성하는 학습기반 데이터 처리 시스템. - 제 6 항에 있어서,
상기 모델 갱신부는, 키데이터 및 상기 키데이터에 대한 통계치 벡터를 포함하는 BKS 요소들의 집합을 구성하는 학습기반 데이터 처리 시스템. - 제 7 항에 있어서,
상기 키데이터는 상기 제 1 인식 결과 및 상기 제 2 인식 결과를 포함하는 학습기반 데이터 처리 시스템. - 제 7 항에 있어서,
상기 통계치 벡터는 [상기 제 2 학습 데이터 집합에서 상기 키 데이터가 나타난 횟수, 상기 분류함수의 모든 원소(c) 각각에 대해 상기 키 데이터가 나타났을 때의 판단 결과치가 c인 횟수]로 구성되는 학습기반 데이터 처리 시스템. - 제 9 항에 있어서,
상기 모델 갱신부는 상기 통계치 벡터의 두번째 원소부터 마지막 원소 중에서 최대값을 갖는 원소를 상기 키 데이터에 맵핑하여 상기 분류함수를 구성하는 학습기반 데이터 처리 시스템. - 학습 데이터 집합을 학습하여 학습 모델을 생성하고, 관찰 데이터를 학습 모델에 따라 인식하여 결과를 제공하는 학습기반 데이터 처리 시스템의 모델 갱신 방법으로서,
제 1 학습 데이터 집합에 기초하여 제 1 학습 모델을 생성하는 단계;
제 2 학습 데이터 집합에 기초하여 제 2 학습 모델 생성하는 단계; 및
상기 제 1 학습 모델과 상기 제 2 학습 모델을 결합하여 결합된 학습 모델을 생성하는 단계;
를 포함하도록 구성되는 학습기반 데이터 처리 시스템의 모델 갱신 방법. - 제 11 항에 있어서,
상기 학습 모델을 생성하는 단계는 인공 신경망에 기초하여 상기 학습 데이터 집합을 학습하는 단계인 학습기반 데이터처리 시스템의 모델 갱신 방법. - 제 11 항에 있어서,
상기 관찰 데이터에 학습 모델을 적용하여 인식 결과를 출력하는 단계; 및
상기 인식 결과를 평가하여 판단 결과치를 출력하는 단계;
를 더 포함하고,
상기 결합된 학습 모델을 생성하는 단계는, 상기 제 1 학습 모델에 의한 제 1 인식 결과 및 상기 제 2 학습 모델에 의한 제 2 인식 결과에 기초하여 상기 결합된 학습 모델을 생성하는 단계인 학습기반 데이터 처리 시스템의 모델 갱신 방법. - 제 13 항에 있어서,
상기 결합된 학습 모델을 생성하는 단계는, 상기 관찰 데이터의 수가 미리 설정된 기준값 이상이면 상기 제 2 학습 데이터 집합을 구성하는 단계를 더 포함하는 학습기반 데이터 처리 시스템의 모델 갱신 방법. - 제 13 항에 있어서,
상기 결합된 학습 모델을 생성하는 단계는, 상기 제 2 학습 데이터 집합의 모든 원소에 대해 상기 제 1 학습 모델에 의한 상기 제 1 인식 결과 및 상기 제 2 학습 모델에 의한 상기 제 2 인식 결과가 상기 제 2 인식 결과에 대한 판단 결과치와 동일해지도록 하는 분류함수를 도출하는 단계를 포함하는 학습기반 데이터 처리 시스템의 모델 갱신 방법. - 제 15 항에 있어서,
상기 결합된 학습 모델을 생성하는 단계는, 행위 지식 공간(Behavior Knowledge Space; BKS) 방식에 기초하여 상기 결합된 학습 모델을 생성하는 단계인 학습기반 데이터 처리 시스템의 모델 갱신 방법. - 제 16 항에 있어서,
상기 결합된 학습 모델을 생성하는 단계는, 키데이터 및 상기 키데이터에 대한 통계치 벡터를 포함하는 BKS 요소들의 집합을 구성하는 단계를 포함하는 학습기반 데이터 처리 시스템의 모델 갱신 방법. - 제 17 항에 있어서,
상기 키데이터는 상기 제 1 인식 결과 및 상기 제 2 인식 결과를 포함하는 학습기반 데이터 처리 시스템의 모델 갱신 방법. - 제 17 항에 있어서,
상기 통계치 벡터는 [상기 제 2 학습 데이터 집합에서 상기 키 데이터가 나타난 횟수, 상기 분류함수의 모든 원소(c) 각각에 대해 상기 키 데이터가 나타났을 때의 판단 결과치가 c인 횟수]로 구성되는 학습기반 데이터 처리 시스템의 모델 갱신 방법. - 제 19 항에 있어서,
상기 결합된 학습 모델을 생성하는 단계는, 상기 통계치 벡터의 두번째 원소부터 마지막 원소 중에서 최대값을 갖는 원소를 상기 키 데이터에 맵핑하여 상기 분류함수를 구성하는 단계를 포함하는 학습기반 데이터 처리 시스템의 모델 갱신 방법.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190037865A KR102200809B1 (ko) | 2019-04-01 | 2019-04-01 | 학습기반 데이터 처리 시스템 및 모델 갱신 방법 |
US16/677,694 US11556760B2 (en) | 2019-04-01 | 2019-11-08 | Learning-based data processing system and model update method |
CN201911105993.8A CN111798001A (zh) | 2019-04-01 | 2019-11-13 | 基于学习的数据处理系统及模型更新方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190037865A KR102200809B1 (ko) | 2019-04-01 | 2019-04-01 | 학습기반 데이터 처리 시스템 및 모델 갱신 방법 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200168298A Division KR102222072B1 (ko) | 2020-12-04 | 2020-12-04 | 학습기반 데이터 처리 시스템 및 모델 갱신 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200116279A true KR20200116279A (ko) | 2020-10-12 |
KR102200809B1 KR102200809B1 (ko) | 2021-01-12 |
Family
ID=72606309
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190037865A KR102200809B1 (ko) | 2019-04-01 | 2019-04-01 | 학습기반 데이터 처리 시스템 및 모델 갱신 방법 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11556760B2 (ko) |
KR (1) | KR102200809B1 (ko) |
CN (1) | CN111798001A (ko) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102200809B1 (ko) * | 2019-04-01 | 2021-01-12 | 주식회사 엘렉시 | 학습기반 데이터 처리 시스템 및 모델 갱신 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140112839A (ko) * | 2013-03-14 | 2014-09-24 | 삼성전자주식회사 | 연역적 추론과 귀납적 추론을 결합한 상황 인지 장치 및 방법 |
US20150019214A1 (en) * | 2013-07-10 | 2015-01-15 | Tencent Technology (Shenzhen) Company Limited | Method and device for parallel processing in model training |
KR20170061016A (ko) * | 2015-11-25 | 2017-06-02 | 삼성전자주식회사 | 데이터 인식 모델 구축 장치 및 방법과 데이터 인식 장치 |
KR20180076753A (ko) * | 2016-12-28 | 2018-07-06 | 주식회사 엘렉시 | 이상패턴 감지 시스템 및 방법 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8805861B2 (en) * | 2008-12-09 | 2014-08-12 | Google Inc. | Methods and systems to train models to extract and integrate information from data sources |
KR102288280B1 (ko) * | 2014-11-05 | 2021-08-10 | 삼성전자주식회사 | 영상 학습 모델을 이용한 영상 생성 방법 및 장치 |
US10783561B2 (en) * | 2017-01-31 | 2020-09-22 | Walmart Apollo, Llc | Systems and methods for optimizing targeted advertising through social media interactions |
US11049018B2 (en) * | 2017-06-23 | 2021-06-29 | Nvidia Corporation | Transforming convolutional neural networks for visual sequence learning |
US20190043193A1 (en) * | 2017-08-01 | 2019-02-07 | Retina-Ai Llc | Systems and Methods Using Weighted-Ensemble Supervised-Learning for Automatic Detection of Retinal Disease from Tomograms |
US10963737B2 (en) * | 2017-08-01 | 2021-03-30 | Retina-Al Health, Inc. | Systems and methods using weighted-ensemble supervised-learning for automatic detection of ophthalmic disease from images |
WO2019150813A1 (ja) * | 2018-01-30 | 2019-08-08 | 富士フイルム株式会社 | データ処理装置及び方法、認識装置、学習データ保存装置、機械学習装置並びにプログラム |
US11429823B1 (en) * | 2018-03-15 | 2022-08-30 | Ca, Inc. | Systems and methods for dynamically augmenting machine learning models based on contextual factors associated with execution environments |
US10824721B2 (en) * | 2018-05-22 | 2020-11-03 | International Business Machines Corporation | Detecting and delaying effect of machine learning model attacks |
US11531934B2 (en) * | 2018-05-31 | 2022-12-20 | Kyndryl, Inc. | Machine learning (ML) modeling by DNA computing |
US11468291B2 (en) * | 2018-09-28 | 2022-10-11 | Nxp B.V. | Method for protecting a machine learning ensemble from copying |
TW202018727A (zh) * | 2018-11-09 | 2020-05-16 | 財團法人工業技術研究院 | 整體式學習預測方法與系統 |
US11182707B2 (en) * | 2018-11-19 | 2021-11-23 | Rimini Street, Inc. | Method and system for providing a multi-dimensional human resource allocation adviser |
US11410056B1 (en) * | 2018-11-20 | 2022-08-09 | American Airlines, Inc. | Predictive sensor system for aircraft engines with graphical user interface |
US11010237B2 (en) * | 2019-02-08 | 2021-05-18 | Accenture Global Solutions Limited | Method and system for detecting and preventing an imminent failure in a target system |
US11106789B2 (en) * | 2019-03-05 | 2021-08-31 | Microsoft Technology Licensing, Llc | Dynamic cybersecurity detection of sequence anomalies |
EP3948707A1 (en) * | 2019-03-26 | 2022-02-09 | HRL Laboratories, LLC | Systems and methods for forecast alerts with programmable human-machine hybrid ensemble learning |
KR102200809B1 (ko) * | 2019-04-01 | 2021-01-12 | 주식회사 엘렉시 | 학습기반 데이터 처리 시스템 및 모델 갱신 방법 |
US20200334524A1 (en) * | 2019-04-17 | 2020-10-22 | Here Global B.V. | Edge learning |
-
2019
- 2019-04-01 KR KR1020190037865A patent/KR102200809B1/ko active IP Right Grant
- 2019-11-08 US US16/677,694 patent/US11556760B2/en active Active
- 2019-11-13 CN CN201911105993.8A patent/CN111798001A/zh not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140112839A (ko) * | 2013-03-14 | 2014-09-24 | 삼성전자주식회사 | 연역적 추론과 귀납적 추론을 결합한 상황 인지 장치 및 방법 |
US20150019214A1 (en) * | 2013-07-10 | 2015-01-15 | Tencent Technology (Shenzhen) Company Limited | Method and device for parallel processing in model training |
KR20170061016A (ko) * | 2015-11-25 | 2017-06-02 | 삼성전자주식회사 | 데이터 인식 모델 구축 장치 및 방법과 데이터 인식 장치 |
KR20180076753A (ko) * | 2016-12-28 | 2018-07-06 | 주식회사 엘렉시 | 이상패턴 감지 시스템 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
US11556760B2 (en) | 2023-01-17 |
KR102200809B1 (ko) | 2021-01-12 |
US20200311516A1 (en) | 2020-10-01 |
CN111798001A (zh) | 2020-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10963783B2 (en) | Technologies for optimized machine learning training | |
US10289471B2 (en) | Ranking causal anomalies via temporal and dynamical analysis on vanishing correlations | |
Pratama et al. | Parsimonious random vector functional link network for data streams | |
US20200193075A1 (en) | System and method for constructing a mathematical model of a system in an artificial intelligence environment | |
KR20200022739A (ko) | 데이터 증강에 기초한 인식 모델 트레이닝 방법 및 장치, 이미지 인식 방법 및 장치 | |
JP6892424B2 (ja) | ハイパーパラメータチューニング方法、装置及びプログラム | |
CN110942142B (zh) | 神经网络的训练及人脸检测方法、装置、设备和存储介质 | |
CN113011529A (zh) | 文本分类模型的训练方法、装置、设备及可读存储介质 | |
US20180293486A1 (en) | Conditional graph execution based on prior simplified graph execution | |
Nápoles et al. | Recurrence-aware long-term cognitive network for explainable pattern classification | |
Xing et al. | Predicting evolving chaotic time series with fuzzy neural networks | |
CN116644804A (zh) | 分布式训练系统、神经网络模型训练方法、设备和介质 | |
KR102200809B1 (ko) | 학습기반 데이터 처리 시스템 및 모델 갱신 방법 | |
Tembine | Mean field stochastic games: Convergence, Q/H-learning and optimality | |
KR102222072B1 (ko) | 학습기반 데이터 처리 시스템 및 모델 갱신 방법 | |
Downey et al. | Practical learning of predictive state representations | |
CN112686375A (zh) | 一种神经网络模型的生成方法及装置 | |
CN117743980A (zh) | 配网拓扑图的支路连接状态识别方法、装置、设备及介质 | |
JP2016018323A (ja) | パラメータ推定方法、装置、及びプログラム | |
Di Nuovo et al. | A study on evolutionary multi-objective optimization with fuzzy approximation for computational expensive problems | |
CN114707414A (zh) | 一种机器人健康状态评估方法、装置、设备及存储介质 | |
CN113688191A (zh) | 特征数据生成方法、电子设备、存储介质及程序产品 | |
Palomo et al. | A new self-organizing neural gas model based on Bregman divergences | |
JP2020198135A (ja) | ハイパーパラメータチューニング方法、装置及びプログラム | |
Zhao et al. | Bidirectional Deep Variational RNN for Refining Anomaly Detection of Multivariate Time Series |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |