KR20220083630A - Deep learning using embedding vectors of heterogeneous data-sets in multi-distributed database environments - Google Patents

Deep learning using embedding vectors of heterogeneous data-sets in multi-distributed database environments Download PDF

Info

Publication number
KR20220083630A
KR20220083630A KR1020210178067A KR20210178067A KR20220083630A KR 20220083630 A KR20220083630 A KR 20220083630A KR 1020210178067 A KR1020210178067 A KR 1020210178067A KR 20210178067 A KR20210178067 A KR 20210178067A KR 20220083630 A KR20220083630 A KR 20220083630A
Authority
KR
South Korea
Prior art keywords
deep learning
learning
data
model
embedding vector
Prior art date
Application number
KR1020210178067A
Other languages
Korean (ko)
Inventor
윤찬현
이창하
김성환
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Publication of KR20220083630A publication Critical patent/KR20220083630A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/27Replication, distribution or synchronisation of data between databases or within a distributed database system; Distributed database system architectures therefor
    • G06F16/275Synchronous replication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/18File system types
    • G06F16/182Distributed file systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • G06F16/235Update request formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Machine Translation (AREA)

Abstract

일 실시예에 따르면, 다중 분산 데이터베이스 환경에서 딥 러닝 학습 장치가 수행하는 딥 러닝 학습 방법은, 다중 분산 데이터베이스의 이종 데이터세트를 시계열 기준으로 병합하여 모델 학습을 위한 입력 스트림을 생성하는 단계와, 상기 입력 스트림에 대한 임베딩 벡터를 생성하는 단계와, 상기 임베딩 벡터를 딥 러닝 모델의 학습과 기학습된 딥 러닝 모델을 통한 추론 중 적어도 하나에 적응적으로 반영하는 단계를 포함한다.According to an embodiment, a deep learning learning method performed by a deep learning learning apparatus in a multi-distributed database environment includes the steps of merging heterogeneous datasets of a multi-distributed database on a time series basis to generate an input stream for model training; Generating an embedding vector for an input stream, and adaptively reflecting the embedding vector to at least one of learning of a deep learning model and inference through a pre-learned deep learning model.

Description

다중 분산 데이터베이스 환경에서 이종 데이터세트의 임베딩 벡터를 이용한 딥 러닝 학습{DEEP LEARNING USING EMBEDDING VECTORS OF HETEROGENEOUS DATA-SETS IN MULTI-DISTRIBUTED DATABASE ENVIRONMENTS}DEEP LEARNING USING EMBEDDING VECTORS OF HETEROGENEOUS DATA-SETS IN MULTI-DISTRIBUTED DATABASE ENVIRONMENTS}

본 발명은 다중 분산 데이터베이스 환경에서 이종 데이터세트의 임베딩 벡터를 이용한 딥 러닝 학습에 관한 것이다.The present invention relates to deep learning learning using embedding vectors of heterogeneous datasets in a multi-distributed database environment.

최근 들어, 정보기술이 발전하면서 데이터 규모의 폭발적인 증가, 데이터 종류의 다양화 및 데이터 주기가 빨라지는 빅 데이터가 등장함에 따라, 빅 데이터 활용을 통한 새로운 가치창출의 중요성이 커지고 있다.In recent years, with the development of information technology, the explosive increase in data size, diversification of data types, and the emergence of big data with faster data cycles, the importance of creating new values through the use of big data is increasing.

이에 따라, 데이터가 새로운 형태의 자산으로 주목받으면서 데이터 유통에 기반한 새로운 생태계인 데이터 경제(data economy)라는 개념이 등장하였고, 오픈 데이터 생태계는 데이터를 공유하고 활용할 수 있도록 협업하는 과정에서 다양한 도메인(금융, 의료, 환경, 에너지 등) 데이터를 생산 및 공유하는 공급자, 공유 데이터를 수집 및 활용하여 AI 학습을 통한 데이터 서비스를 제공하는 수요자, 공유 인프라를 제공 및 관리하는 관리자 등 서로 다른 역할을 담당하는 구성원으로 이루어진다.Accordingly, the concept of data economy, a new ecosystem based on data distribution, has emerged as data has been attracting attention as a new type of asset. , medical, environmental, energy, etc.) data producers and providers, consumers who collect and utilize shared data to provide data services through AI learning, and members who play different roles, such as managers who provide and manage shared infrastructure is made of

오픈 데이터 생태계를 기술적으로 지원하기 위해 데이터 공유 관리 기능의 데이터 동기화 기술이 발전하였고, 이는 공급자 데이터베이스의 데이터세트를 수요자 데이터베이스에 복제하거나, 데이터베이스 변화 감지를 통해 데이터세트 업데이트에 따른 수요자 데이터베이스의 데이터세트에 대한 실시간 동기화 기능을 통해 오픈 데이터의 유통을 지원한다.In order to technically support the open data ecosystem, the data synchronization technology of the data sharing management function has been developed, which duplicates the data set of the supplier database to the consumer database, or the data set of the consumer database according to the data set update through database change detection. It supports the distribution of open data through the real-time synchronization function.

이러한 오픈 데이터 생태계 환경에서 데이터 동기화 기술을 통해 최종적으로 데이터 수요자는 공공, 민간 분야의 에너지, 환경, 의료, 문화 등 서로 다른 도메인 데이터 중, 필요한 데이터를 데이터 공급자로부터 실시간으로 전송받아 데이터베이스 저장 및 해당 데이터세트를 통해 딥 러닝 기반의 인공신경망 모델 학습을 진행하고, 모델의 성능이 검증 될 경우 서비스를 제공할 수 있다.In this open data ecosystem environment, through data synchronization technology, data consumers ultimately receive the necessary data among different domain data such as public and private energy, environment, medical care, and culture from the data provider in real time, store the data in the database, and store the data. Through the set, deep learning-based artificial neural network model training can be performed, and services can be provided when the model's performance is verified.

일반적인 딥 러닝 기반 인공신경망 모델은 생활/금융/공학 등 특정 도메인에 한정되지 않고 다양한 문제를 해결할 수 있도록 고안되어, 이미지 및 텍스트 분류나 객체 검출, 음성어 인식, 자연어 처리 등의 광범위한 목적을 위해 학습하여 사용되며, 보통 학습 대상이 되는 데이터는 데이터베이스에 저장된 방대한 양의 변하지 않는 데이터세트에 대해 학습하는 경우가 대부분이다.General deep learning-based artificial neural network models are designed to solve various problems without being limited to specific domains such as life/finance/engineering, and are trained for a wide range of purposes such as image and text classification, object detection, speech recognition, and natural language processing. In most cases, the data to be learned is learned from a large amount of unchanging datasets stored in a database.

하지만, 데이터세트가 실시간으로 업데이트되는 오픈 데이터 생태계 환경에서의 학습 대상 데이터가 시계열 특성을 가진 데이터일 경우, 기존 데이터세트에 대해 학습한 딥 러닝 모델을 이용해 새롭게 추가된 데이터를 추론하면 모델의 정확도가 낮아지며, 실시간 변화 데이터 특성을 반영하기 위해 모델을 다시 학습해야 한다.However, if the learning target data in the open data ecosystem environment where the dataset is updated in real time is data with time series characteristics, the accuracy of the model will be improved if the newly added data is inferred using the deep learning model trained on the existing dataset. lower, and the model must be retrained to reflect real-time changing data characteristics.

실시간 변화 데이터 특성을 위한 학습 기반 모델 중 일반적인 방법으로는 새로 추가된 데이터세트를 활용해 재학습 및 모델 업데이트를 진행하는 증분 학습(incremental learning) 방법이 있으며, 증분 학습의 가장 큰 목표는 실시간 변화를 가지는 데이터 특성으로부터 굳건하고 유연한 딥 러닝 모델을 형성하도록 하는 것에 있다.Among the learning-based models for real-time change data characteristics, a common method is the incremental learning method in which retraining and model update are performed using a newly added dataset. Its purpose is to form a robust and flexible deep learning model from data characteristics.

또한, 최근 연구에서는 새로운 데이터나 클래스를 학습하도록 하는 효과적인 기술들이 연구되었는데, 정규화에 기초한 경사치(gradient)를 이용할 경우, 데이터가 증가하는 환경에서 기존 데이터와 새로운 데이터를 학습시키는 데 좋은 성능이 나타나는 것을 보였으며, 언어 변화 환경과 같이 시간, 순서에 따라 의미가 크게 변하는 특성을 가진 시계열 데이터에 위의 방법을 적용하기 위해서는 대표 임베딩 벡터를 추출하는 방법이 존재한다.In addition, in recent studies, effective techniques for learning new data or classes have been studied. When a gradient based on regularization is used, good performance is shown in learning existing data and new data in an environment in which data is increased. In order to apply the above method to time-series data, which has a characteristic that the meaning greatly changes according to time and sequence, such as a language change environment, there is a method of extracting a representative embedding vector.

임베딩(embedding)이란 특정 데이터의 의미를 가지는 다차원의 벡터로 표현하는 것을 의미하며, 대상의 속성을 다차원의 벡터로 표현하는 방식인 특성 표현(feature representation) 중 밀집 표현(dense representation, 또는 분산 표현(distributed representation))에 해당하는 기법이다. 임베딩 기법은 보통 자연어 처리를 위해 자주 사용되며, 해당 속성이 가질 수 있는 모든 경우의 수만큼의 각각의 독립적인 차원으로 표현하는 희소 표현(sparse representation(one-hot encoding)) 기법과는 달리, 사용자가 정한 개수의 차원으로 데이터의 속성을 표현할 수 있으며, 각각의 속성은 독립적인 차원으로 나타내지 않는다.Embedding means expressing a multi-dimensional vector having the meaning of specific data, and among the feature representations, which is a method of expressing the properties of an object as a multi-dimensional vector, a dense representation or a distributed representation ( distributed representation)). The embedding technique is often used for natural language processing, and unlike the sparse representation (one-hot encoding) technique, which expresses as many independent dimensions as the number of all possible instances of the property, the user Data properties can be expressed with an assumed number of dimensions, and each property is not expressed as an independent dimension.

(문헌 1) R. Polikar, L. Upda, S. S. Upda, and V. Honavar, "Learn++: An incremental learning algorithm for supervised neural networks," IEEE transactions on systems, man, and cybernetics, part C (applications and reviews), vol. 31, no. 4, pp. 497-508, 2001.(Document 1) R. Polikar, L. Upda, S. S. Upda, and V. Honavar, "Learn++: An incremental learning algorithm for supervised neural networks," IEEE transactions on systems, man, and cybernetics, part C (applications and reviews) , vol. 31, no. 4, pp. 497-508, 2001. (문헌 2) O. Levy and Y. Goldberg, "Neural word embedding as implicit matrix factorization," in Advances in neural information processing systems, 2014, pp. 2177-2185.(Document 2) O. Levy and Y. Goldberg, "Neural word embedding as implicit matrix factorization," in Advances in neural information processing systems, 2014, pp. 2177-2185. (문헌 3) Y.-Y. Chang, F.-Y. Sun, Y.-H. Wu, and S.-D. Lin, "A memory-network based solution for multivariate time-series forecasting," arXiv preprint arXiv:1809.02105, 2018.(Document 3) Y.-Y. Chang, F.-Y. Sun, Y.-H. Wu, and S.-D. Lin, “A memory-network based solution for multivariate time-series forecasting,” arXiv preprint arXiv:1809.02105, 2018.

본 발명의 실시예는 다중 분산 데이터베이스 환경에서 이종 데이터세트를 시계열 기준으로 병합해 생성한 입력 스트림에 대해 임베딩 벡터를 생성한 후에 적응적으로 모델 학습 또는 모델 추론에 반영하는 딥 러닝 학습 장치 및 방법을 제공한다.An embodiment of the present invention provides a deep learning learning apparatus and method that is adaptively reflected in model learning or model inference after generating an embedding vector for an input stream generated by merging heterogeneous datasets on a time series basis in a multi-distributed database environment. to provide.

본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved of the present invention are not limited to those mentioned above, and other problems to be solved that are not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description.

제 1 관점에 따른 다중 분산 데이터베이스 환경에서 딥 러닝 학습 장치가 수행하는 딥 러닝 학습 방법은, 다중 분산 데이터베이스의 이종 데이터세트를 시계열 기준으로 병합하여 모델 학습을 위한 입력 스트림을 생성하는 단계와, 상기 입력 스트림에 대한 임베딩 벡터를 생성하는 단계와, 상기 임베딩 벡터를 딥 러닝 모델의 학습과 기학습된 딥 러닝 모델을 통한 추론 중 적어도 하나에 적응적으로 반영하는 단계를 포함한다.A deep learning learning method performed by a deep learning learning apparatus in a multi-distributed database environment according to the first aspect includes the steps of merging heterogeneous datasets of a multi-distributed database on a time series basis to generate an input stream for model training; Generating an embedding vector for the stream, and adaptively reflecting the embedding vector in at least one of learning of a deep learning model and inference through a pre-learned deep learning model.

제 2 관점에 따른 딥 러닝 학습 장치는, 다중 분산 데이터베이스의 이종 데이터세트를 입력 받는 입력부와, 상기 이종 데이터세트를 이용한 딥 러닝 모델의 학습 또는 추론을 수행하는 프로세서부를 포함하고, 상기 프로세서부는, 상기 이종 데이터세트를 시계열 기준으로 병합하여 모델 학습을 위한 입력 스트림을 생성하고, 상기 입력 스트림에 대한 임베딩 벡터를 생성하며, 상기 임베딩 벡터를 상기 딥 러닝 모델의 학습과 기학습된 딥 러닝 모델을 통한 추론 중 적어도 하나에 적응적으로 반영한다.A deep learning learning apparatus according to a second aspect includes an input unit that receives a heterogeneous dataset of a multi-distributed database, and a processor unit that performs learning or inference of a deep learning model using the heterogeneous dataset, wherein the processor unit comprises: By merging heterogeneous datasets on a time series basis, an input stream for model training is generated, an embedding vector is generated for the input stream, and the embedding vector is used for learning of the deep learning model and inferring through a pre-trained deep learning model. adaptively reflected in at least one of

제 3 관점에 따른 컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체는, 상기 컴퓨터 프로그램이, 프로세서에 의해 실행되면, 다중 분산 데이터베이스의 이종 데이터세트를 시계열 기준으로 병합하여 모델 학습을 위한 입력 스트림을 생성하는 단계와, 상기 입력 스트림에 대한 임베딩 벡터를 생성하는 단계와, 상기 임베딩 벡터를 딥 러닝 모델의 학습과 기학습된 딥 러닝 모델을 통한 추론 중 적어도 하나에 적응적으로 반영하는 단계를 포함하는 딥 러닝 학습 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 판독 가능한 기록매체.The computer-readable recording medium storing the computer program according to the third aspect, when the computer program is executed by a processor, merges heterogeneous datasets of a multi-distributed database on a time-series basis to generate an input stream for model training Deep comprising the steps of: generating an embedding vector for the input stream; and adaptively reflecting the embedding vector in at least one of learning of a deep learning model and inference through a pre-learned deep learning model. A computer-readable recording medium comprising instructions for causing the processor to perform a learning learning method.

제 4 관점에 따른 컴퓨터 판독 가능 기록매체에 저장되어 있는 컴퓨터 프로그램은, 상기 컴퓨터 프로그램이, 프로세서에 의해 실행되면, 다중 분산 데이터베이스의 이종 데이터세트를 시계열 기준으로 병합하여 모델 학습을 위한 입력 스트림을 생성하는 단계와, 상기 입력 스트림에 대한 임베딩 벡터를 생성하는 단계와, 상기 임베딩 벡터를 딥 러닝 모델의 학습과 기학습된 딥 러닝 모델을 통한 추론 중 적어도 하나에 적응적으로 반영하는 단계를 포함하는 딥 러닝 학습 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함한다.The computer program stored in the computer-readable recording medium according to the fourth aspect, when the computer program is executed by a processor, merges heterogeneous datasets of a multi-distributed database on a time-series basis to generate an input stream for model training Deep comprising the steps of: generating an embedding vector for the input stream; and adaptively reflecting the embedding vector in at least one of learning of a deep learning model and inference through a pre-learned deep learning model. and instructions for causing the processor to perform a learning learning method.

본 발명의 실시예에 의하면, 다중 분산 데이터베이스 환경에서 이종 데이터세트의 임베딩 벡터를 이용한 딥 러닝 학습 방법은 오픈 데이터 생태계에서 추구하는 실시간 공유 데이터의 유통과 딥 러닝을 통한 데이터 서비스 활용에 있어서, 시간 변화에 따른 시계열 데이터 특성을 추가 학습하는 증분 학습 방법을 적용하여 실시간으로 업데이트되는 데이터세트의 정보도 추가로 학습하여 빠르게 학습할 수 있다.According to an embodiment of the present invention, a deep learning learning method using an embedding vector of heterogeneous datasets in a multi-distributed database environment is a time change in the distribution of real-time shared data and data service utilization through deep learning pursued in an open data ecosystem. By applying an incremental learning method that additionally learns time series data characteristics according to

또한, 다중의 분산 데이터베이스로부터 실시간으로 업데이트되는 이종 데이터세트가 상이한 도착률을 가지며 딥 러닝 학습의 입력으로 주어질 때, 데이터를 임베딩을 통해 차원을 축소하여 벡터의 형태로 대푯값을 구성하여 추후 새로운 데이터에 대해 정규화 된 기울기를 구성하여 재학습을 하고, 동시에 추론 요청이 있을 때 해당 임베딩 벡터를 통해 현재 추론 데이터에 밀접한 데이터를 선행으로 재학습하여 추론 정확도를 높일 수 있다.In addition, when heterogeneous datasets updated in real time from multiple distributed databases have different arrival rates and are given as input for deep learning learning, the dimensions are reduced through embedding the data to form a representative value in the form of a vector, and for new data later Re-learning is performed by composing a normalized gradient, and when there is an inference request, the inference accuracy can be improved by re-learning data closely related to the current inference data through the embedding vector in advance.

도 1은 본 발명의 실시예에 따른 딥 러닝 학습 장치 및 방법을 적용할 수 있는 다중 분산 데이터베이스 환경을 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 딥 러닝 학습 장치의 구성도이다.
도 3은 본 발명의 실시예에 따른 딥 러닝 학습 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 실시예에 따른 다중 분산 데이터허브로부터 발생하는 데이터세트 업데이트 스트림으로부터 딥 러닝 스케줄링 방법을 설명하기 위한 예시도이다.
도 5는 본 발명의 실시예에 다른 딥러닝 모델 학습에서 학습 태스크 데이터 스트림을 기반으로 가중 경사치 및 임베딩 벡터를 생성하여 예측 스트림을 생성하는 과정을 설명하기 위한 예시도이다.
1 is a diagram illustrating a multi-distributed database environment to which a deep learning learning apparatus and method according to an embodiment of the present invention can be applied.
2 is a block diagram of a deep learning learning apparatus according to an embodiment of the present invention.
3 is a flowchart illustrating a deep learning learning method according to an embodiment of the present invention.
4 is an exemplary diagram for explaining a deep learning scheduling method from a dataset update stream generated from a multi-distributed data hub according to an embodiment of the present invention.
5 is an exemplary diagram for explaining a process of generating a prediction stream by generating a weighted gradient and an embedding vector based on a learning task data stream in deep learning model learning according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 범주는 청구항에 의해 정의될 뿐이다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various forms, and only these embodiments allow the disclosure of the present invention to be complete, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully inform the person of the scope of the invention, and the scope of the invention is only defined by the claims.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명은 본 발명의 실시예들을 설명함에 있어 실제로 필요한 경우 외에는 생략될 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, detailed descriptions of well-known functions or configurations will be omitted except when it is actually necessary to describe the embodiments of the present invention. In addition, the terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the content throughout this specification.

본 명세서에서 단수의 표현은 문맥상 명백하게 다름을 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, 포함하다’ 또는 ‘구성하다’ 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this specification, the singular expression includes the plural expression unless the context clearly dictates otherwise. In this application, terms such as 'comprise' or 'comprise' are intended to designate that a feature, number, step, operation, component, part, or a combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

또한, 본 발명의 실시 예에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적인 연결뿐 아니라, 다른 매체를 통한 간접적인 연결의 경우도 포함한다. 또한 어떤 부분이 어떤 구성 요소를 포함한다는 의미는, 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있다는 것을 의미한다.Also, in an embodiment of the present invention, when it is said that a part is connected to another part, this includes not only direct connection but also indirect connection through another medium. In addition, the meaning that a certain part includes a certain component means that other components may be further included, rather than excluding other components, unless specifically stated to the contrary.

다중의 분산 데이터베이스로부터 입력되는 스트림 데이터를 머신러닝 혹은 딥 러닝 기법을 통하여 시계열 처리를 수행할 시(regressor or predictor), 일반적으로 과거에 발생한 정보들을 일괄적으로 수집, 데이터세트 정형화, 저장한 후 해당 데이터세트에 대해 학습을 수행한다. 하지만 시변 특성을 가지는 비정상(non-stationary)확률 과정을 따르는 데이터가 입력으로 주어지는 경우에, 변화하는 특성으로 인해 학습과 추론 사이의 지연 시간에 비례하여 추론 오류가 점차 커지는 문제가 발생한다. 실시간 변화 데이터 특성을 위한 학습 기반의 모델들을 위한 가장 흔한 방법은 새로운 데이터세트를 가지고 재훈련 및 모델 업데이트를 진행하는 것이다. 종래 기술에서는 실시간으로 변화하는 데이터의 특성을 학습하기 위하여 점진 학습(incremental learning)을 통해 실시간으로 입력되는 데이터에 대한 재학습을 통하여 해당 문제를 해결하고자 하였다. 점진 학습은 전체 데이터세트에 대해 한번만 학습시키는 것이 아닌 들어오는 새로운 데이터 성질을 가지는 스트림 데이터를 모델에 점진적으로 계속해서 학습시키는 온라인 학습 방법이다. 하지만 과도하게 최신의 데이터의 특성을 학습함에 따라 데이터의 분포도가 비교적 크게 변하지 않는 상황에서만 효과적이고, 데이터 분포도가 크게 변하는 상황에서는 학습 불안정성과 일반화 오차가 증가하여 학습 수렴 속도가 감소하는 문제가 있으며 노이즈에 취약하다. 즉 데이터베이스로부터의 시계열 분포도 변화 정도에 따라 학습 수렴 속도, 정확도 성능이 큰 영향을 받을 수 있다.When time series processing of stream data input from multiple distributed databases is performed through machine learning or deep learning techniques (regressor or predictor), information that has occurred in the past is generally collectively collected, data set formatted, and stored, and then the corresponding Training is performed on the dataset. However, when data following a non-stationary probability process having a time-varying characteristic is given as an input, a problem arises in that an inference error gradually increases in proportion to the delay time between learning and inference due to the changing characteristic. The most common method for learning-based models for real-time changing data characteristics is to retrain and update the model with a new dataset. In the prior art, in order to learn the characteristics of data that change in real time, it was attempted to solve the problem through re-learning of data input in real time through incremental learning. Incremental learning is an online learning method that gradually and continuously trains the model with stream data with new data properties, rather than training the entire dataset once. However, it is effective only when the distribution of data does not change significantly due to excessively learning the characteristics of the latest data. vulnerable to That is, the learning convergence speed and accuracy performance may be greatly affected by the degree of change in the time series distribution from the database.

또한 다중의 분산 데이터베이스로부터 입력되는 시계열 데이터가 각기 다른 도착률(arrival rate)을 가지고 입력 될 시, 편향된 데이터 분포도(skewed data distribution)로 인한 입력 데이터의 변동을 발생하게 하여 학습의 정확도가 감소하게 되는 문제가 있다. 다중의 랜덤 프로세스로부터 입력되는 데이터를 시간 순으로 정렬하여 딥 러닝 모델의 입력으로 취합될 시 인접한 데이터 간의 상이한 정도가 원본의 데이터세트 보다 크게 증가한다. 부분적 데이터를 학습하는 점진 학습의 특성으로 인해서 최근의 시변 특성에 과적합(over-fitting)하는 경우에, 다중 분산 데이터베이스 환경에서는 성능과 안정도는 더욱 감소하게 되는 문제점이 있다. 종래 기술에서는 이미 학습시킨 데이터를 소량 저장해두었다가, 실시간 학습 시 정규화에 기초한 경사법을 통해 기존의 학습하였던 모델 최적화 과정에 사용될 기울기를 반영해 기존 데이터와 새로운 데이터를 학습시키는 데 좋은 성능이 나타나는 것을 보였다. 종래 기술은 분류 문제에 주로 적용하였지만, 학습과 추론이 동시에 일어나는 환경을 고려하지 않았다.Also, when time series data input from multiple distributed databases is input with different arrival rates, it causes fluctuations in the input data due to skewed data distribution, which reduces the learning accuracy. there is When data input from multiple random processes is chronologically sorted and collected as an input of a deep learning model, the degree of difference between adjacent data increases significantly compared to the original dataset. In the case of over-fitting to the recent time-varying characteristics due to the characteristic of gradual learning of partial data, there is a problem in that performance and stability are further reduced in a multi-distributed database environment. In the prior art, it was shown that a small amount of already learned data is stored, and good performance is shown in learning the existing data and new data by reflecting the gradient to be used in the previously learned model optimization process through the gradient method based on regularization during real-time learning. . The prior art was mainly applied to the classification problem, but it did not consider the environment in which learning and reasoning occur at the same time.

본 발명에서는 다중 분산 데이터베이스로부터 입력되는 복합 데이터세트에 대한 시계열의 학습과 추론이 동시에 일어나는 환경에서 데이터 시변 특성 변화 정도에 적응적이면서도 다중 분산 데이터베이스 입력에 대해서도 단기 입력에 대해 과적합 되지 않는 실시간 학습 및 추론 모델을 제안한다.In the present invention, real-time learning that is adaptive to the degree of data time-varying characteristic change in an environment where time series learning and inference for a complex dataset input from a multi-distributed database occur at the same time, but is not overfitted for short-term input even for multi-distributed database input; We propose an inference model.

본 발명에서는 종래 기술의 문제점을 해결하기 위하여 다중 분산 데이터베이스로부터 입력되는 복합 데이터세트에 대한 시계열의 학습과 추론이 동시에 일어나는 환경을 고려하여 데이터의 임베딩한 벡터를 통해 크게 변하는 편향된 데이터 분포도에 대해 정규화 기반 경사법을 통해 이전에 학습한 정보를 현재 학습하려는 정보에 반영할 때 벡터의 값을 패턴 기반으로 효과적으로 반영하는 방법과, 임베딩 벡터를 통해 현재 추론하고자 하는 데이터 특성에 적합한 모델 재학습 기반의 온라인 추론 방법을 포함한다.In the present invention, in order to solve the problems of the prior art, in consideration of an environment in which time series learning and inference for a complex dataset input from a multi-distributed database occur at the same time, a normalization-based basis for a biased data distribution that changes greatly through an embedded vector of data A method of effectively reflecting the value of a vector based on a pattern when the previously learned information through the gradient method is reflected in the information currently being learned, and an online inference based on model re-learning that is suitable for the data characteristics to be inferred through an embedding vector including methods.

도 1은 본 발명의 실시예에 따른 딥 러닝 학습 장치 및 방법을 적용할 수 있는 다중 분산 데이터베이스 환경을 나타낸 도면이다. 도 1에 나타낸 바와 같이 복수의 데이터베이스가 네트워크 상에 분산 배치된 다중 분산 데이터베이스 환경에 본 발명의 실시예에 따른 딥 러닝 학습 장치 및 방법을 적용할 수 있다.1 is a diagram illustrating a multi-distributed database environment to which a deep learning learning apparatus and method according to an embodiment of the present invention can be applied. As shown in FIG. 1 , the deep learning learning apparatus and method according to an embodiment of the present invention can be applied to a multi-distributed database environment in which a plurality of databases are distributedly arranged on a network.

도 2는 본 발명의 실시예에 따른 딥 러닝 학습 장치의 구성도이다.2 is a block diagram of a deep learning learning apparatus according to an embodiment of the present invention.

도 2를 참조하면, 실시예에 따른 딥 러닝 학습 장치(100)는 입력부(110) 및 프로세서부(120)를 포함한다. 그리고, 딥 러닝 학습 장치(100)는 저장부(130) 및/또는 출력부(140)를 더 포함할 수 있다.Referring to FIG. 2 , the deep learning learning apparatus 100 according to the embodiment includes an input unit 110 and a processor unit 120 . In addition, the deep learning learning apparatus 100 may further include a storage unit 130 and/or an output unit 140 .

입력부(110)는 다중 분산 데이터베이스의 이종 데이터세트를 입력 받는다. 그리고, 입력부(110)는 데이터 추론을 요청받을 수 있다. 이러한 입력부(110)는 다중 분산 데이터베이스에 통신망을 통해 접속되는 통신모듈을 포함할 수 있다. 또는 입력부(110)는 다중 분산 데이터베이스에 통신망을 통해 접속된 별도의 통신모듈에 연결된 인터페이스를 포함할 수 있다.The input unit 110 receives a heterogeneous dataset of a multi-distributed database. In addition, the input unit 110 may be requested to infer data. The input unit 110 may include a communication module connected to the multi-distributed database through a communication network. Alternatively, the input unit 110 may include an interface connected to a separate communication module connected to the multi-distributed database through a communication network.

프로세서부(120)는 이종 데이터세트를 이용한 딥 러닝 모델의 학습 또는 추론을 수행한다. 여기서, 프로세서부(120)는 이종 데이터세트를 시계열 기준으로 병합하여 모델 학습을 위한 입력 스트림을 생성하고, 입력 스트림에 대한 임베딩 벡터를 생성하며, 임베딩 벡터를 딥 러닝 모델의 학습과 기학습된 딥 러닝 모델을 통한 추론 중 적어도 하나에 적응적으로 반영한다.The processor unit 120 performs learning or inference of a deep learning model using a heterogeneous dataset. Here, the processor unit 120 generates an input stream for model learning by merging heterogeneous datasets on a time-series basis, generates an embedding vector for the input stream, and uses the embedding vector to learn the deep learning model and pre-learned deep. It is adaptively reflected in at least one of the inferences through the learning model.

예를 들어, 프로세서부(120)는 임베딩 벡터를 통해 기울기를 계산할 수 있고, 기울기를 이용하여 딥 러닝 모델의 파라미터를 학습시킬 수 있다. 예컨대, 프로세서부(120)는 기울기를 계산할 때 패턴 기반의 정규화를 적용해 기울기를 계산할 수 있고, 정규화를 적용한 기울기를 이용하여 딥 러닝 모델의 파라미터를 학습시킬 수 있다.For example, the processor unit 120 may calculate a gradient through the embedding vector, and may learn a parameter of the deep learning model using the gradient. For example, when calculating the gradient, the processor 120 may calculate the gradient by applying pattern-based regularization, and may learn the parameters of the deep learning model by using the gradient to which the normalization is applied.

예를 들어, 프로세서부(120)는 임베딩 벡터를 기반으로 데이터 특성이 추론 처리 요구사항에 맞는 데이터를 선별할 수 있고, 선별된 데이터에 대해 기학습된 딥 러닝 모델의 파라미터를 재학습시킬 수 있으며, 재학습시킨 딥 러닝 모델을 통해 데이터 추론을 수행할 수 있다.For example, the processor unit 120 may select data whose data characteristics meet the inference processing requirements based on the embedding vector, and may re-learn the parameters of the deep learning model previously learned on the selected data, , data inference can be performed through the retrained deep learning model.

저장부(130)에는 프로세서부(120)가 본 발명의 실시예에 따른 딥 러닝 학습 방법을 수행할 수 있도록 하기 위한 명령어를 포함하는 컴퓨터 프로그램이 저장될 수 있다. 그리고, 저장부(130)는 프로세서부(120)에 의한 각종 처리 결과를 저장할 수 있다.The storage unit 130 may store a computer program including instructions for enabling the processor unit 120 to perform the deep learning learning method according to an embodiment of the present invention. In addition, the storage unit 130 may store various processing results by the processor unit 120 .

출력부(140)는 프로세서부(120)에 의한 각종 처리 결과를 출력할 수 있다. 예를 들어, 출력부(140)는 다중 분산 데이터베이스에 통신망을 통해 접속되는 통신모듈을 포함할 수 있다. 또는 출력부(140)는 다중 분산 데이터베이스에 통신망을 통해 접속된 별도의 통신모듈에 연결된 인터페이스를 포함할 수 있다.The output unit 140 may output various processing results by the processor unit 120 . For example, the output unit 140 may include a communication module connected to the multi-distributed database through a communication network. Alternatively, the output unit 140 may include an interface connected to a separate communication module connected to the multi-distributed database through a communication network.

도 3은 본 발명의 실시예에 따른 딥 러닝 학습 방법을 설명하기 위한 흐름도이다. 이러한 도 3은 딥 러닝 학습 방법에 대해 아래에서 자세히 살펴볼 때에 참조하기로 한다.3 is a flowchart illustrating a deep learning learning method according to an embodiment of the present invention. 3 will be referred to when looking in detail below for a deep learning learning method.

도 4는 본 발명의 실시예에 따른 다중 분산 데이터허브로부터 발생하는 데이터세트 업데이트 스트림으로부터 딥 러닝 스케줄링 방법을 설명하기 위한 예시도이다. 도 4에 나타낸 바와 같이, 다중 데이터베이스로부터 발생한 업데이트는 데이터 발생이나 전송 편차 등에 의해 상이한 도착률을 가질 수 있음을 보인다. 빅데이터 학습 시스템은 온라인 업데이트 데이터로부터 도착률에 의해 발생하는 편차를 제거하기 위해 데이터셋 스트림으로부터 임베딩 벡터를 생성하고, 생성된 임베딩 벡터를 통해 패턴 기반의 기울기 정교화(Gradient Optimization)를 수행, 이후 임베딩 벡터를 통한 온라인 추론 과정을 통해 업데이트된 데이터세트를 딥 러닝 서비스 모델에 학습시킨다.4 is an exemplary diagram for explaining a deep learning scheduling method from a dataset update stream generated from a multi-distributed data hub according to an embodiment of the present invention. As shown in FIG. 4 , it is shown that updates generated from multiple databases may have different arrival rates due to data generation or transmission deviation. The big data learning system generates an embedding vector from the dataset stream to remove the deviation caused by the arrival rate from the online update data, and performs pattern-based gradient optimization through the generated embedding vector, and then the embedding vector The updated dataset is trained on the deep learning service model through the online inference process through

도 5는 본 발명의 실시예에 다른 딥러닝 모델 학습에서 학습 태스크 데이터 스트림을 기반으로 가중 경사치 및 임베딩 벡터를 생성하여 예측 스트림을 생성하는 과정을 설명하기 위한 예시도이다. 다중 분산 데이터베이스로부터 상이한 도착률을 가지는 입력 스트림이 딥러닝 학습의 입력으로 주어질 때, 데이터를 임베딩을 통해 차원을 축소하여 벡터의 형태로 대푯값을 구성하여 추후 새로운 데이터에 대해 정규화 된 기울기를 구성하여 재학습을 하고, 동시에 추론 요청이 있을 때 해당 임베딩 벡터를 통해 현재 추론 데이터에 밀접한 데이터를 선행으로 모델 재학습을 수행하는 절차를 보여준다.5 is an exemplary diagram for explaining a process of generating a prediction stream by generating a weighted gradient and an embedding vector based on a learning task data stream in deep learning model learning according to an embodiment of the present invention. When an input stream with different arrival rates from a multi-distributed database is given as an input for deep learning learning, the dimensions are reduced through embedding data to form a representative value in the form of a vector, and then a normalized gradient is constructed for new data and re-learning and at the same time when there is an inference request, it shows the procedure for performing model re-learning by precedenting the data closely related to the current inference data through the embedding vector.

이하, 도 1 내지 도 5를 참조하여 본 발명의 실시예에 따른 딥 러닝 학습 장치(100)가 딥 러닝 학습을 수행하는 과정과 학습된 딥 러닝 모델을 통해 데이터 추론을 수행하는 과정에 대해 살펴보기로 한다.Hereinafter, a process of performing deep learning learning by the deep learning learning apparatus 100 according to an embodiment of the present invention with reference to FIGS. 1 to 5 and a process of performing data inference through the learned deep learning model. do it with

본 발명의 이종 데이터세트에 대한 임베딩 벡터 적용을 통한 딥 러닝 학습 알고리즘은 시계열 학습, 추론이 동시에 발생하는 모델을 고려하여, 학습의 안정성을 높일 수 있는 대표 임베딩 값들을 벡터로 도출하여 학습과 추론에 적응적으로 반영하는 기법을 제안한다. 다중의 학습 데이터세트

Figure pat00001
의 입력(S210)과 함께 추론 요청
Figure pat00002
가 딥 러닝 학습 모델에 주어질 때(S240), 학습 및/또는 추론 알고리즘이 동작한다. 학습 데이터세트에서 취합 된 학습 입력 데이터
Figure pat00003
의 연속 된 값으로부터 임베딩함수를 통해 스칼라(Scalar) 값을 도출하고, 분포도가 높은 입력의 대표 벡터값인 임베딩 벡터를 도출한다(S220, S230). 학습 시에는 임베딩 벡터를 통한 기울기를 계산한 후(S250), 계산된 기울기를 이용하여 딥 러닝 모델의 파라미티를 학습한다(S260. 추론 요청이 들어올 경우에는 임베딩 벡터를 기반으로 최적의 데이터를 선별한 후(S270), 딥러닝 모델을 재학습을 수행하고(S280), 재학습된 딥 러닝 모델에 대해 추론하는 과정을 수행한다(S290).The deep learning learning algorithm by applying an embedding vector to a heterogeneous dataset of the present invention considers a model in which time series learning and inference occur simultaneously, and derives representative embedding values that can increase the stability of learning as a vector for learning and inference We propose a method of adaptively reflecting. Multiple training datasets
Figure pat00001
Inference request with the input (S210) of
Figure pat00002
When is given to the deep learning learning model ( S240 ), a learning and/or inference algorithm operates. Training input data collected from training dataset
Figure pat00003
A scalar value is derived through an embedding function from the continuous values of , and an embedding vector that is a representative vector value of an input with a high distribution is derived (S220, S230). In training, after calculating the gradient through the embedding vector (S250), the parameters of the deep learning model are learned using the calculated gradient (S260. When an inference request is received, optimal data is selected based on the embedding vector) After (S270), re-learning the deep learning model is performed (S280), and a process of inferring on the re-trained deep learning model is performed (S290).

실시간으로 업데이트 되는 딥러닝 학습 모델에 대해, i번째 입력되는 데이터세트는 입력

Figure pat00004
과 타겟
Figure pat00005
으로 이루어지며 n는 데이터 인스턴스의 수, p은 데이터의 차원이다. 학습을 위해 입력되는 데이터세트는 각기 다른 분산 데이터베이스 원천(
Figure pat00006
)으로부터 제공된 데이터로 도착한 순서를 가지고 정렬을 하면 다음의 수학식 1과 같은 학습 데이터세트로 구성할 수 있다.For a deep learning learning model that is updated in real time, the i-th input dataset is the input
Figure pat00004
and target
Figure pat00005
, where n is the number of data instances and p is the dimension of the data. The dataset input for training is from different distributed database sources (
Figure pat00006
) and sorting in the order of arrival with the data provided from ), it can be composed of a training dataset as shown in Equation 1 below.

[수학식 1][Equation 1]

Figure pat00007
Figure pat00007

또한 동시에 각기 다른 분산 데이터베이스 원천(

Figure pat00008
)으로부터 도착하는 추론 요청은 i번째의 학습이 수행 된 후, 다음 입력 i+1에 대하여 입력 X에 대한 추론 값을 찾는 것을 목적으로 하며, 추론 요청은 다음의 수학식 2와 같이 표현할 수 있다.At the same time, different distributed database sources (
Figure pat00008
), the purpose of the inference request is to find an inference value for the input X with respect to the next input i+1 after the i-th learning is performed, and the inference request can be expressed as Equation 2 below.

[수학식 2][Equation 2]

Figure pat00009
Figure pat00009

학습 데이터세트에서 취합 된 학습 입력 데이터

Figure pat00010
의 k번째 값에 대해서 고차원의
Figure pat00011
를 적은 차원, 혹은 Scalar의 값으로 변환하는 임베딩을 적용한다 (
Figure pat00012
.
Figure pat00013
,
Figure pat00014
). 임베딩을 적용하기 위한 방법으로는 자연어 처리에서 워드 임베딩, 시계열 데이터에 대한 코사인 유사도, 다차원 데이터에 대한 차원 감소 기법을 사용할 수 있다 (Auto Encoder, PCA 등).Training input data collected from training dataset
Figure pat00010
For the k-th value of
Figure pat00011
Apply an embedding that transforms , into a smaller dimension or a value of Scalar
Figure pat00012
.
Figure pat00013
,
Figure pat00014
). As a method for applying embedding, word embedding in natural language processing, cosine similarity for time series data, and dimensionality reduction for multidimensional data can be used (Auto Encoder, PCA, etc.).

[수학식 3][Equation 3]

Figure pat00015
Figure pat00015

본 발명에서는 실용예로써 시계열 데이터에 대한 코사인 유사도 방법을 보인다. 모든 축으로부터 같은 거리에 있는

Figure pat00016
벡터 기준으로 p차원의 데이터와 코사인 연산을 통해 두 벡터의 유사도를 구할 수 있으며, 기준 벡터를 기준으로 떨어진 정도를 정량화하여 값의 대표 특성으로 분석할 수 있다.The present invention shows a cosine similarity method for time series data as a practical example. equidistant from all axes
Figure pat00016
The degree of similarity between two vectors can be obtained through cosine operation with p-dimensional data based on the vector, and the degree of separation from the reference vector can be quantified and analyzed as a representative characteristic of the value.

[수학식 4][Equation 4]

Figure pat00017
Figure pat00017

임베딩 벡터

Figure pat00018
는 i번째 까지의 학습 과정에서 입력된 데이터를 편향되지 않는 고른 분포를 가지도록 유지하는 임베딩 값을 기준으로 분류한 대표 벡터로써 기존의
Figure pat00019
Figure pat00020
를 통해 구성된다. 이를 위하여 먼저는 두 벡터를 합치기 위해 벡터의 합성을 수행한다.embedding vector
Figure pat00018
is a representative vector classified based on the embedding value that maintains an unbiased, even distribution of the input data in the learning process up to the i-th.
Figure pat00019
class
Figure pat00020
is composed through To do this, first, vector synthesis is performed to combine two vectors.

[수학식 5][Equation 5]

Figure pat00021
Figure pat00021

유한개의 대푯값을 구하기 위해

Figure pat00022
의 최대 크기인 h를 넘지 않도록 (
Figure pat00023
)하는 값을 구간별로 찾는다. 임베딩의 값이 작은 (코사인 거리가
Figure pat00024
에 가까운) 순서부터 큰 순서로 올라가면서 반복적으로 대표 입력값을 다음과 같이 탐색한다. 해당 임베딩 범주의 j 번째 구간에 들어가는 입력값들을 다음과 같이 분류할 수 있다.To find a finite number of representative values
Figure pat00022
so as not to exceed h, the maximum size of (
Figure pat00023
) for each section. If the value of the embedding is small (the cosine distance
Figure pat00024
) and iteratively searches the representative input values as follows, ascending from the largest to the largest. Input values entering the j-th section of the corresponding embedding category can be classified as follows.

[수학식 6][Equation 6]

Figure pat00025
Figure pat00025

이 때, 해당 구간의 값들 중 랜덤하게 선택하여 대푯값을 선정할 수 있다.

Figure pat00026
중에서 랜덤으로 하나의 값을 선택하는 함수를
Figure pat00027
이라고 하고 해당 값이 원래의 집합
Figure pat00028
에서의 인덱스를 찾아내는 함수를
Figure pat00029
라고 하였을 때, 임베딩 벡터는 다음과 같이 구할 수 있다.In this case, a representative value may be selected by randomly selecting among the values of the corresponding section.
Figure pat00026
A function that randomly selects a value from among
Figure pat00027
, and the corresponding value is the original set
Figure pat00028
function to find the index in
Figure pat00029
, the embedding vector can be obtained as follows.

[수학식 7][Equation 7]

Figure pat00030
Figure pat00030

임베딩 벡터를 구성한 후, 학습에서 해당 벡터를 이용해 정규화를 적용한 기울기를 적용하는 방법에 대해 기술한다. 현재 작업에 대한 기울기는 다음과 같이 계산한다.After constructing the embedding vector, we describe how to apply the gradient to which normalization is applied using the vector in learning. The slope for the current task is calculated as

[수학식 8][Equation 8]

Figure pat00031
Figure pat00031

또한 임베딩 벡터에 대한 기울기는 다음과 같이 계산한다. 이 때,

Figure pat00032
Figure pat00033
에 대한 타겟값으로 [수학식 7]를 계산할 때
Figure pat00034
에 대해서 구한 항목이다. Also, the gradient for the embedding vector is calculated as follows. At this time,
Figure pat00032
Is
Figure pat00033
When calculating [Equation 7] as a target value for
Figure pat00034
It is an item saved for

[수학식 9][Equation 9]

Figure pat00035
Figure pat00035

이 때, 정규화 된 기울기는 다음과 같이 계산 할 수 있다.In this case, the normalized slope can be calculated as follows.

[수학식 10][Equation 10]

Figure pat00036
Figure pat00036

정규화 된 기울기를 이용하여 딥러닝 모델의 파라메터를 학습하기 위한 실시예로 Adam Optimizer를 통한 파라메터 업데이트 과정을 기술한다. 먼저 최적화기(optimizer)의 이전 최적화과정 (i-1)의 일차모멘텀

Figure pat00037
과 현재 기울기
Figure pat00038
를 사용자에 의해 정의된 하이퍼파라미터
Figure pat00039
비율로 새로운 일차모멘텀
Figure pat00040
를 업데이트한다.As an example for learning the parameters of a deep learning model using a normalized gradient, the parameter update process through the Adam Optimizer will be described. First, the first-order momentum of the previous optimization process (i-1) of the optimizer
Figure pat00037
and current slope
Figure pat00038
is a hyperparameter defined by the user.
Figure pat00039
New Primary Momentum in Ratio
Figure pat00040
update

[수학식 11][Equation 11]

Figure pat00041
Figure pat00041

이차모멘텀은 사용자에 의해 정의된

Figure pat00042
의 비율로 이전 최적화과정 (i-1)의 이차모멘텀
Figure pat00043
과 현재 기울기 제곱인
Figure pat00044
에서 새로운 이차모멘텀
Figure pat00045
를 업데이트한다.Secondary momentum is defined by the user.
Figure pat00042
Secondary momentum of the previous optimization process (i-1) as the ratio of
Figure pat00043
and the current slope squared
Figure pat00044
new secondary momentum in
Figure pat00045
update

[수학식 12][Equation 12]

Figure pat00046
Figure pat00046

Adam optimizer는 여러 번의

Figure pat00047
비율로 업데이트로 인해
Figure pat00048
만큼 bias생긴 momentum의 영향을 줄이기 위해 [수학식 13]과 [수학식 14] 과정처럼 현재 모멘텀들,
Figure pat00049
Figure pat00050
, 에서
Figure pat00051
를 나누는 보정 과정을 거침The Adam optimizer runs multiple times
Figure pat00047
due to update in percentage
Figure pat00048
In order to reduce the influence of momentum generated by bias as much as [Equation 13] and [Equation 14], the current momentums,
Figure pat00049
class
Figure pat00050
, at
Figure pat00051
go through a calibration process that divides

[수학식 13][Equation 13]

Figure pat00052
Figure pat00052

[수학식 14][Equation 14]

Figure pat00053
Figure pat00053

최종 업데이트는 상기 값들로 일정한 기울기 변화량을 반영하기 위해 비율 만큼의 [수학식 13]의 값을 [수학식 14]의 값으로 나눈 값을 빼는 방법으로 현재 파라미터

Figure pat00054
를 업데이트하고 있다.The final update is a method of subtracting the value obtained by dividing the value of [Equation 13] by the value of [Equation 14] as much as a ratio in order to reflect a constant slope change amount with the above values.
Figure pat00054
is updating

[수학식 15][Equation 15]

Figure pat00055
Figure pat00055

입력된 i번째 데이터세트에 대한 딥러닝 파라미터 업데이트를 통해

Figure pat00056
를 구했을 때, 동시에 입력되는
Figure pat00057
에 대한 추론 성능을 극대화하기 위해서는 정규화로 인한 최신의 데이터 특성을 딥러닝 네트워크로 다시 재학습 시킬 수 있다. 이를 위하여 임베딩 벡터
Figure pat00058
로부터 추론 입력
Figure pat00059
에 대한 임베딩 벡터로부터의 저장 기억 복구를 위해
Figure pat00060
와 가장 유사한 과거의 데이터 입력을 쿼리한다.Through updating the deep learning parameters for the input i-th dataset
Figure pat00056
, which is input at the same time
Figure pat00057
In order to maximize the inference performance for , the latest data characteristics due to regularization can be re-trained with a deep learning network. For this, the embedding vector
Figure pat00058
input inference from
Figure pat00059
To recover the save memory from the embedding vector for
Figure pat00060
Query the historical data input most similar to

[수학식 16][Equation 16]

Figure pat00061
Figure pat00061

해당

Figure pat00062
를 통하여 딥러닝 모델의 파라메터를 정규화 하지 않은 상태의 재학습함을 통하여 개선 된 파라메터
Figure pat00063
값을 구한다. 최종적으로 개선된 딥러닝 모델 파라메터를 통해 추론을 진행한다. 해당 과정은 추론 데이터에 대해 반복적으로 진행할 수 있다.corresponding
Figure pat00062
The parameters improved through re-learning without normalizing the parameters of the deep learning model through
Figure pat00063
get the value Finally, inference proceeds through the improved deep learning model parameters. The process may be iteratively performed on the inference data.

[수학식 17][Equation 17]

Figure pat00064
Figure pat00064

본 발명은 다중 분산 데이터베이스로부터 입력되는 이종 복합 데이터세트에 대한 시계열의 학습과 추론이 동시에 일어나는 환경을 고려하여 데이터의 임베딩 벡터를 통해 크게 변하는 편향된 데이터 분포도에 대해 정규화 기반 경사법을 통해 이전에 학습한 정보를 현재 학습하려는 정보에 반영할 때 벡터의 값을 패턴 기반으로 효과적으로 반영하는 방법과, 임베딩 벡터를 통해 현재 추론하고자 하는 데이터 특성에 적합한 모델 재학습 기반의 온라인 추론 방법을 포함에 관한 것으로, 다중의 분산 데이터베이스 입력 스트림으로부터의 임베딩 벡터 생성 단계, 임베딩 벡터를 통한 패턴 기반의 기울기 정교화 단계, 임베딩 벡터를 통한 온라인 추론 단계 등을 포함할 수 있다. 이로써, 상이한 도착률로 업데이트되는 이종 복합 데이터세트의 시간 변화 데이터 특성을 반영하여 모델을 업데이트할 수 있고, 추론 정확도를 높일 수 있다.The present invention has previously learned through a normalization-based gradient method for a biased data distribution that changes greatly through an embedding vector of data in consideration of an environment in which time series learning and inference for a heterogeneous complex dataset input from a multi-distributed database occur simultaneously. It relates to the inclusion of a method of effectively reflecting the value of a vector based on a pattern when the information is reflected in the information to be currently learned, and an online inference method based on model re-learning suitable for the data characteristics to be inferred through an embedding vector. It may include a step of generating an embedding vector from a distributed database input stream of Accordingly, the model can be updated by reflecting the time-varying data characteristics of heterogeneous complex datasets updated with different arrival rates, and inference accuracy can be increased.

한편, 전술한 실시예에 따른 딥 러닝 학습 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 프로그램된 컴퓨터 프로그램을 기록하는 컴퓨터 판독가능한 기록매체에서 구현될 수 있다.On the other hand, each step included in the deep learning learning method according to the above-described embodiment may be implemented in a computer-readable recording medium for recording a computer program programmed to perform these steps.

또한, 전술한 실시예에 따른 딥 러닝 학습 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 프로그램된, 컴퓨터 판독가능한 기록매체에 저장된 컴퓨터 프로그램의 형태로 구현될 수 있다.In addition, each step included in the deep learning learning method according to the above-described embodiment may be implemented in the form of a computer program stored in a computer-readable recording medium programmed to perform these steps.

본 발명에 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 기록매체에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 기록매체에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다. Combinations of each block in the block diagram attached to the present invention and each step in the flowchart may be performed by computer program instructions. These computer program instructions may be embodied in a processor of a general-purpose computer, special purpose computer, or other programmable data processing equipment, such that the instructions executed by the processor of the computer or other programmable data processing equipment may be configured in the respective blocks of the block diagram or of the flowchart. Each step creates a means for performing the described functions. These computer program instructions may also be stored in a computer-usable or computer-readable medium that may direct a computer or other programmable data processing equipment to implement a function in a particular manner, and thus the computer-usable or computer-readable medium. The instructions stored in the recording medium are also possible to produce an item of manufacture including instruction means for performing the functions described in each block of the block diagram or each step of the flowchart. The computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operational steps are performed on the computer or other programmable data processing equipment to create a computer-executed process to create a computer or other programmable data processing equipment. It is also possible that instructions for performing the processing equipment provide steps for carrying out the functions described in each block of the block diagram and each step of the flowchart.

또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Further, each block or each step may represent a module, segment, or portion of code comprising one or more executable instructions for executing specified logical function(s). It should also be noted that in some alternative embodiments it is also possible for the functions recited in blocks or steps to occur out of order. For example, it is possible that two blocks or steps shown one after another may in fact be performed substantially simultaneously, or that the blocks or steps may sometimes be performed in the reverse order according to the corresponding function.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical spirit of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the equivalent scope should be construed as being included in the scope of the present invention.

100: 딥 러닝 학습 장치
110: 입력부
120: 프로세서부
100: deep learning learning device
110: input unit
120: processor unit

Claims (10)

다중 분산 데이터베이스 환경에서 딥 러닝 학습 장치가 수행하는 딥 러닝 학습 방법으로서,
다중 분산 데이터베이스의 이종 데이터세트를 시계열 기준으로 병합하여 모델 학습을 위한 입력 스트림을 생성하는 단계와,
상기 입력 스트림에 대한 임베딩 벡터를 생성하는 단계와,
상기 임베딩 벡터를 딥 러닝 모델의 학습과 기학습된 딥 러닝 모델을 통한 추론 중 적어도 하나에 적응적으로 반영하는 단계를 포함하는
딥 러닝 학습 방법.
A deep learning learning method performed by a deep learning learning device in a multi-distributed database environment, comprising:
Generating an input stream for model training by merging heterogeneous datasets from a multi-distributed database on a time-series basis;
generating an embedding vector for the input stream;
Comprising the step of adaptively reflecting the embedding vector to at least one of learning of a deep learning model and inference through a pre-learned deep learning model
How to learn deep learning.
제 1 항에 있어서,
상기 반영하는 단계는,
상기 임베딩 벡터를 통해 기울기를 계산하는 단계와,
상기 기울기를 이용하여 딥 러닝 모델의 파라미터를 학습시키는 단계를 포함하는
딥 러닝 학습 방법.
The method of claim 1,
The reflecting step is
calculating a gradient through the embedding vector;
Using the gradient to learn the parameters of the deep learning model comprising the step of
How to learn deep learning.
제 2 항에 있어서,
상기 계산하는 단계에서 패턴 기반의 정규화를 적용해 상기 기울기를 계산하고, 상기 학습시키는 단계에서 상기 정규화를 적용한 기울기를 이용하는
딥 러닝 학습 방법.
3. The method of claim 2,
In the calculating step, pattern-based normalization is applied to calculate the slope, and in the learning step, the slope to which the normalization is applied is used.
How to learn deep learning.
제 1 항에 있어서,
상기 반영하는 단계는,
상기 임베딩 벡터를 기반으로 데이터 특성이 추론 처리 요구사항에 맞는 데이터를 선별하는 단계와,
상기 선별된 데이터에 대해 상기 기학습된 딥 러닝 모델의 파라미터를 재학습시키는 단계와,
상기 재학습시킨 딥 러닝 모델을 통해 데이터 추론을 수행하는 단계를 포함하는
딥 러닝 학습 방법.
The method of claim 1,
The reflecting step is
selecting data whose data characteristics meet the inference processing requirements based on the embedding vector;
re-learning the parameters of the previously learned deep learning model with respect to the selected data;
Comprising the step of performing data inference through the retrained deep learning model
How to learn deep learning.
다중 분산 데이터베이스의 이종 데이터세트를 입력 받는 입력부와,
상기 이종 데이터세트를 이용한 딥 러닝 모델의 학습 또는 추론을 수행하는 프로세서부를 포함하고,
상기 프로세서부는,
상기 이종 데이터세트를 시계열 기준으로 병합하여 모델 학습을 위한 입력 스트림을 생성하고, 상기 입력 스트림에 대한 임베딩 벡터를 생성하며, 상기 임베딩 벡터를 상기 딥 러닝 모델의 학습과 기학습된 딥 러닝 모델을 통한 추론 중 적어도 하나에 적응적으로 반영하는
딥 러닝 학습 장치.
an input unit for receiving heterogeneous datasets from a multi-distributed database;
A processor unit that performs learning or inference of a deep learning model using the heterogeneous dataset,
The processor unit,
Merge the heterogeneous datasets on a time series basis to generate an input stream for model training, generate an embedding vector for the input stream, and use the embedding vector to learn the deep learning model and pre-trained deep learning model through adaptively reflecting at least one of the inferences
Deep learning learning device.
제 5 항에 있어서,
상기 프로세서부는,
상기 임베딩 벡터를 통해 기울기를 계산하고, 상기 기울기를 이용하여 딥 러닝 모델의 파라미터를 학습시키는
딥 러닝 학습 장치.
6. The method of claim 5,
The processor unit,
Calculate the gradient through the embedding vector, and learn the parameters of the deep learning model using the gradient
Deep learning learning device.
제 6 항에 있어서,
상기 프로세서부는,
상기 기울기를 계산할 때 패턴 기반의 정규화를 적용해 상기 기울기를 계산하고, 상기 정규화를 적용한 기울기를 이용하여 상기 딥 러닝 모델의 파라미터를 학습시키는
딥 러닝 학습 장치.
7. The method of claim 6,
The processor unit,
When calculating the gradient, the gradient is calculated by applying pattern-based regularization, and the parameters of the deep learning model are learned using the gradient to which the normalization is applied.
Deep learning learning device.
제 5 항에 있어서,
상기 프로세서부는,
상기 임베딩 벡터를 기반으로 데이터 특성이 추론 처리 요구사항에 맞는 데이터를 선별하고, 상기 선별된 데이터에 대해 상기 기학습된 딥 러닝 모델의 파라미터를 재학습시키며, 상기 재학습시킨 딥 러닝 모델을 통해 데이터 추론을 수행하는
딥 러닝 학습 장치.
6. The method of claim 5,
The processor unit,
Based on the embedding vector, data characteristics that meet the inference processing requirements are selected, the parameters of the pre-trained deep learning model are re-learned on the selected data, and data through the re-trained deep learning model making inferences
Deep learning learning device.
컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체로서,
상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,
다중 분산 데이터베이스의 이종 데이터세트를 시계열 기준으로 병합하여 모델 학습을 위한 입력 스트림을 생성하는 단계와, 상기 입력 스트림에 대한 임베딩 벡터를 생성하는 단계와, 상기 임베딩 벡터를 딥 러닝 모델의 학습과 기학습된 딥 러닝 모델을 통한 추론 중 적어도 하나에 적응적으로 반영하는 단계를 포함하는 딥 러닝 학습 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 판독 가능한 기록매체.
As a computer-readable recording medium storing a computer program,
The computer program, when executed by a processor,
Generating an input stream for model training by merging heterogeneous datasets of a multi-distributed database on a time-series basis, generating an embedding vector for the input stream, and learning and prior learning of a deep learning model using the embedding vector A computer-readable recording medium comprising instructions for causing the processor to perform a deep learning learning method comprising the step of adaptively reflecting at least one of inferences through the deep learning model.
컴퓨터 판독 가능 기록매체에 저장되어 있는 컴퓨터 프로그램으로서,
상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,
다중 분산 데이터베이스의 이종 데이터세트를 시계열 기준으로 병합하여 모델 학습을 위한 입력 스트림을 생성하는 단계와, 상기 입력 스트림에 대한 임베딩 벡터를 생성하는 단계와, 상기 임베딩 벡터를 딥 러닝 모델의 학습과 기학습된 딥 러닝 모델을 통한 추론 중 적어도 하나에 적응적으로 반영하는 단계를 포함하는 딥 러닝 학습 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 프로그램.
As a computer program stored in a computer-readable recording medium,
The computer program, when executed by a processor,
Generating an input stream for model training by merging heterogeneous datasets of a multi-distributed database on a time-series basis, generating an embedding vector for the input stream, and learning and prior learning of a deep learning model using the embedding vector A computer program comprising instructions for causing the processor to perform a deep learning learning method comprising the step of adaptively reflecting at least one of inferences through the deep learning model.
KR1020210178067A 2020-12-11 2021-12-13 Deep learning using embedding vectors of heterogeneous data-sets in multi-distributed database environments KR20220083630A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200173719 2020-12-11
KR1020200173719 2020-12-11

Publications (1)

Publication Number Publication Date
KR20220083630A true KR20220083630A (en) 2022-06-20

Family

ID=82249991

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210178067A KR20220083630A (en) 2020-12-11 2021-12-13 Deep learning using embedding vectors of heterogeneous data-sets in multi-distributed database environments

Country Status (1)

Country Link
KR (1) KR20220083630A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102567566B1 (en) * 2022-11-30 2023-08-21 한국전자기술연구원 Apparatus and method for reducing data bias based on vector space embedding

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
(문헌 1) R. Polikar, L. Upda, S. S. Upda, and V. Honavar, "Learn++: An incremental learning algorithm for supervised neural networks," IEEE transactions on systems, man, and cybernetics, part C (applications and reviews), vol. 31, no. 4, pp. 497-508, 2001.
(문헌 2) O. Levy and Y. Goldberg, "Neural word embedding as implicit matrix factorization," in Advances in neural information processing systems, 2014, pp. 2177-2185.
(문헌 3) Y.-Y. Chang, F.-Y. Sun, Y.-H. Wu, and S.-D. Lin, "A memory-network based solution for multivariate time-series forecasting," arXiv preprint arXiv:1809.02105, 2018.

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102567566B1 (en) * 2022-11-30 2023-08-21 한국전자기술연구원 Apparatus and method for reducing data bias based on vector space embedding

Similar Documents

Publication Publication Date Title
CN110413785B (en) Text automatic classification method based on BERT and feature fusion
WO2022037256A1 (en) Text sentence processing method and device, computer device and storage medium
Mehdiyev et al. A novel business process prediction model using a deep learning method
US20210012199A1 (en) Address information feature extraction method based on deep neural network model
CN110263227B (en) Group partner discovery method and system based on graph neural network
Mishra et al. Deep machine learning and neural networks: An overview
KR20190098106A (en) Batch normalization layer training method
Carreira-Perpinán Model compression as constrained optimization, with application to neural nets. Part I: General framework
Maaløe et al. Semi-supervised generation with cluster-aware generative models
CN111612134A (en) Neural network structure searching method and device, electronic equipment and storage medium
KR102465571B1 (en) Techniques for performing subject word classification of document data
US11721325B1 (en) Method for generating learning data for speech recognition error detection
Al-Jebrni et al. Predicting the next process event using convolutional neural networks
US20190228297A1 (en) Artificial Intelligence Modelling Engine
KR102588332B1 (en) Method for generating storyboard based on script text
Soyalp et al. Improving text classification with transformer
Szadkowski et al. Continually trained life-long classification
KR20220083630A (en) Deep learning using embedding vectors of heterogeneous data-sets in multi-distributed database environments
US20230350928A1 (en) Systems and methods for implementing a virtual agent performing context and query transformations using unsupervised machine learning models
US20240037335A1 (en) Methods, systems, and media for bi-modal generation of natural languages and neural architectures
US11550831B1 (en) Systems and methods for generation and deployment of a human-personified virtual agent using pre-trained machine learning-based language models and a video response corpus
Tian et al. Text classification model based on BERT-capsule with integrated deep learning
Al-Baity et al. Towards effective service discovery using feature selection and supervised learning algorithms
Anantha et al. Learning to rank intents in voice assistants
Kreyssig Deep learning for user simulation in a dialogue system