KR102156249B1 - Indexing system and method using variational recurrent autoencoding - Google Patents

Indexing system and method using variational recurrent autoencoding Download PDF

Info

Publication number
KR102156249B1
KR102156249B1 KR1020190032912A KR20190032912A KR102156249B1 KR 102156249 B1 KR102156249 B1 KR 102156249B1 KR 1020190032912 A KR1020190032912 A KR 1020190032912A KR 20190032912 A KR20190032912 A KR 20190032912A KR 102156249 B1 KR102156249 B1 KR 102156249B1
Authority
KR
South Korea
Prior art keywords
autoencoder
encoding
value
variable
cycle
Prior art date
Application number
KR1020190032912A
Other languages
Korean (ko)
Other versions
KR20200047272A (en
Inventor
박지은
이세리
Original Assignee
펄스나인 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 펄스나인 주식회사 filed Critical 펄스나인 주식회사
Publication of KR20200047272A publication Critical patent/KR20200047272A/en
Application granted granted Critical
Publication of KR102156249B1 publication Critical patent/KR102156249B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/12Accounting

Abstract

본 발명의 실시예에 따른 변분 순환 오토인코딩 (Variational Recurrent Autoencoding) 방식의 색인 시스템은, 미리 설정된 소정의 키워드 셋을 인코딩 및 디코딩하는 트레이닝 과정을 통해 잠재 변수의 값을 학습하고, 이에 기초하여 사용자의 음성 또는 문자 입력에 해당하는 키워드 셋을 인코딩함으로써 잠재 변수의 값을 산출하는 제1 변분 순환 오토인코더(Variational Recurrent Autoencoder); 미리 설정된 소정의 이미지를 인코딩 및 디코딩하는 트레이닝 과정을 통해 잠재 변수의 값을 학습하고, 이에 기초하여 사용자의 이미지 입력을 인코딩함으로써 잠재 변수의 값을 산출하는 제2 변분 순환 오토인코더; 상기 제1 변분 순환 오토인코더 및 상기 제2 변분 순환 오토인코더에서 학습된 잠재 변수의 값과, 상기 제1 변분 순환 오토인코더 또는 상기 제2 변분 순환 오토인코더에서 산출된 잠재 변수의 값을 비교한 결과에 기초하여 사용자로부터의 입력을 색인(index)하는 색인부를 포함하며, 상기 제1 변분 순환 오토인코더와 상기 제2 변분 순환 오토인코더에서 학습되는 잠재 변수의 값은 공유되는 것을 특징으로 한다.The index system of the variable recurrent autoencoding method according to an embodiment of the present invention learns the value of a latent variable through a training process of encoding and decoding a predetermined keyword set, and based on this A first variational recurrent autoencoder for calculating a value of a latent variable by encoding a keyword set corresponding to voice or text input; A second variable cycle autoencoder for calculating a value of a latent variable by learning a value of a latent variable through a training process of encoding and decoding a predetermined image, and encoding a user's image input based thereon; A result of comparing the value of the latent variable learned by the first and second differential autoencoder and the value of the latent variable calculated by the first variable cycle autoencoder or the second variable cycle autoencoder And an indexing unit for indexing an input from a user based on, and the values of the latent variables learned in the first and second cyclic autoencoders are shared.

Description

변분 순환 오토인코딩 방식의 자동 색인 시스템 및 방법{INDEXING SYSTEM AND METHOD USING VARIATIONAL RECURRENT AUTOENCODING}Automatic indexing system and method of variable cycle auto-encoding method {INDEXING SYSTEM AND METHOD USING VARIATIONAL RECURRENT AUTOENCODING}

본 발명은 변분 순환 오토인코딩 방식을 이용한 자동 색인 시스템 및 방법에 관한 것이다.The present invention relates to an automatic indexing system and method using a differential cycle auto-encoding method.

최근 다양한 서비스와 정보를 제공하는 지능형 정보 검색 시스템과 챗봇 서비스가 늘어나고 있다. 기존의 지능형 정보 검색 엔진은 질문에 대응하는 답변이 저장되어 있는 데이터베이스를 이용하며, 단어 빈도(Term Frequency)와 문서 역빈도(Inverse Document Frequency) 간 관계를 계산하여 입력된 질문과 가장 유사한 질문 및 이에 해당하는 답변을 찾아내는 방식을 이용한다. Recently, intelligent information search systems and chatbot services that provide various services and information are increasing. The existing intelligent information search engine uses a database that stores answers to questions, and calculates the relationship between the term frequency and the inverse document frequency, Use a method of finding the appropriate answer.

이와 관련하여, 공개특허공보 제-2018-0042763호는, 접속 채널을 통하여 입력된 완성 또는 미완성 문장의 형태인 사용자 질의를 수신하고 상기 사용자 질의에 대한 응답을 전송하는 통신 모듈; 상기 통신 모듈을 통하여 수신된 사용자 질의에 대한 구문 분석 및 형태소 분석을 수행하는 자연어 처리 엔진; 어학 사전 데이터베이스, 금융 지식 데이터베이스 및 금융 서비스 제공하기 위한 대화 시나리오 데이터베이스를 포함하는 데이터베이스; 상기 자연어 처리 엔진에 의해 분석된 구문 및 형태소에 근거하여 사용자 질의의 사전적 의미 및 문맥적 의미를 해석하고 상기 대화 시나리오 데이터베이스에 저장된 금융 서비스 제공 시나리오에 근거하여 상기 사용자 질의에 대한 응답을 생성하는 대화 처리 엔진을 포함하는 채팅형 금융 로봇을 제공한다.In this regard, Korean Patent Application Laid-Open No.-2018-0042763 provides a communication module for receiving a user query in the form of a completed or incomplete sentence input through an access channel and transmitting a response to the user query; A natural language processing engine that performs syntax analysis and morpheme analysis on user queries received through the communication module; A database including a language dictionary database, a financial knowledge database, and a conversation scenario database for providing financial services; A conversation that interprets the dictionary meaning and contextual meaning of the user query based on the syntax and morpheme analyzed by the natural language processing engine, and generates a response to the user query based on the financial service provision scenario stored in the conversation scenario database. It provides a chat-type financial robot including a processing engine.

그러나, 이는 답변(응답)을 직접적으로 찾아내는 것에 관한 것이며, 답변을 찾기 위해 질문을 색인하는 것에 관한 것은 아니다.However, this is about finding answers (responses) directly, not indexing questions to find answers.

본 발명은 입력된 질문이 자연어 또는 이미지인 경우, 변분 순환 인코더의 잠재 변수의 값을 이용하여 색인(분류)함으로써, 데이터베이스에서 답변을 찾는 것이 용이하도록 하는 변분 순환 오토인코딩(Variational Recurrent Autoencoding) 방식의 자동 색인 시스템 및 방법을 제공하고자 한다.In the present invention, when an input question is a natural language or an image, it is indexed (classified) using the value of a latent variable of a variable cyclic encoder, so that it is easy to find an answer in a database using a Variational Recurrent Autoencoding method. We would like to provide an automatic indexing system and method.

본 발명의 실시예에 따른 변분 순환 오토인코딩 방식의 색인 시스템은, 미리 설정된 소정의 키워드 셋을 인코딩 및 디코딩하는 트레이닝 과정을 통해 잠재 변수의 값을 학습하고, 이에 기초하여 사용자의 음성 또는 문자 입력에 해당하는 키워드 셋을 인코딩함으로써 잠재 변수의 값을 산출하는 제1 변분 순환 오토인코더(Variational Recurrent Autoencoder); 미리 설정된 소정의 이미지를 인코딩 및 디코딩하는 트레이닝 과정을 통해 잠재 변수의 값을 학습하고, 이에 기초하여 사용자의 이미지 입력을 인코딩함으로써 잠재 변수의 값을 산출하는 제2 변분 순환 오토인코더; 상기 제1 변분 순환 오토인코더 및 상기 제2 변분 순환 오토인코더에서 학습된 잠재 변수의 값과, 상기 제1 변분 순환 오토인코더 또는 상기 제2 변분 순환 오토인코더에서 산출된 잠재 변수의 값을 비교한 결과에 기초하여 사용자로부터의 입력을 색인(index)하는 색인부를 포함하며, 상기 제1 변분 순환 오토인코더와 상기 제2 변분 순환 오토인코더에서 학습되는 잠재 변수의 값은 공유된다.The index system of the variable cyclic auto-encoding method according to an embodiment of the present invention learns the value of a latent variable through a training process of encoding and decoding a preset predetermined keyword set, and based on this, the user's voice or text input A first variational recurrent autoencoder for calculating a value of a latent variable by encoding a corresponding keyword set; A second variable cycle autoencoder for calculating a value of a latent variable by learning a value of a latent variable through a training process of encoding and decoding a predetermined image, and encoding a user's image input based thereon; A result of comparing the value of the latent variable learned by the first and second differential autoencoder and the value of the latent variable calculated by the first variable cycle autoencoder or the second variable cycle autoencoder And an indexing unit for indexing an input from a user based on, and values of latent variables learned in the first and second cyclic autoencoders are shared.

상기 변분 순환 오토인코딩 방식의 색인 시스템은, 상기 사용자의 텍스트 또는 음성 입력의 형태소를 분석함으로써 상기 사용자의 텍스트 또는 음성 입력에 해당하는 키워드 셋을 생성하는 키워드 생성부를 더 포함할 수 있다.The index system of the differential cycle auto-encoding method may further include a keyword generator configured to generate a keyword set corresponding to the user's text or voice input by analyzing a morpheme of the user's text or voice input.

상기 제1 변분 순환 오토인코더는, 상기 미리 설정된 소정의 키워드 셋 또는 상기 사용자의 음성 또는 문자 입력에 해당하는 키워드 셋을 인코딩하는 제1 인코딩부; 및 상기 제1 인코딩부가 상기 미리 설정된 소정의 키워드 셋을 인코딩함으로써 생성된 잠재 변수의 값을 디코딩하는 제1 디코딩부를 포함할 수 있다.The first differential cycle autoencoder may include: a first encoding unit encoding the preset predetermined keyword set or a keyword set corresponding to the user's voice or text input; And a first decoding unit for decoding a value of a latent variable generated by the first encoding unit encoding the predetermined keyword set.

상기 제1 인코딩부는, 입력되는 키워드 셋을 구성하는 키워드의 개수와 동일한 개수의 LSTM(Long Short Term Memory)을 포함하고, 상기 키워드는 입력된 순서로 상기 LSTM에 각각 입력되고, 상기 LSTM은 체인 형식으로 연결될 수 있다.The first encoding unit includes a number of LSTMs (Long Short Term Memory) equal to the number of keywords constituting the input keyword set, and the keywords are respectively input to the LSTM in the order of input, and the LSTM is a chain format. Can be connected to.

상기 제2 변분 순환 오토인코더는, 상기 미리 설정된 소정의 이미지 또는 상기 사용자의 이미지 입력을 인코딩하는 제2 인코딩부; 및 상기 제2 인코딩부가 상기 미리 설정된 소정의 이미지를 인코딩함으로써 생성된 잠재 변수의 값을 디코딩하는 제2 디코딩부를 포함하고, 상기 제2 인코딩부 및 상기 제2 디코딩부는 CNN(Convolutional Neural Network)을 포함할 수 있다.The second differential cyclic autoencoder may include: a second encoding unit encoding the predetermined image or an image input of the user; And a second decoding unit for decoding a value of a latent variable generated by the second encoding unit encoding the predetermined image, and the second encoding unit and the second decoding unit include a convolutional neural network (CNN). can do.

상기 제1 변분 순환 오토인코더 또는 상기 제2 변분 순환 오토인코더에서 산출된 잠재 변수의 값을 이용하여, 상기 색인부의 색인을 업데이트하는 업데이트부를 더 포함할 수 있다.It may further include an update unit for updating the index of the index unit by using the value of the latent variable calculated by the first cyclical autoencoder or the second cyclical autoencoder.

상기 미리 설정된 소정의 키워드 셋은 세무에 관한 것이고, 상기 미리 설정된 소정의 이미지는 세무와 관련된 문서의 종류를 구분 가능한 이미지일 수 있다.The preset predetermined keyword set relates to tax affairs, and the predetermined predetermined image may be an image capable of distinguishing the type of document related to tax affairs.

본 발명의 실시예에 따른 변분 순환 오토인코딩 방식의 색인 방법은, 미리 설정된 소정의 키워드 셋을 제1 변분 순환 오토인코더를 이용하여 인코딩 및 디코딩하는 트레이닝 과정을 통해 잠재 변수의 값을 학습하고, 미리 설정된 소정의 이미지를 제2 변분 순환 오토인코더를 이용하여 인코딩 및 디코딩하는 트레이닝 과정을 통해 상기 제1 변분 순환 오토인코더에서 학습된 잠재 변수와 공유되는 잠재 변수의 값을 학습하는 단계; 상기 제1 변분 순환 오토인코더 또는 상기 제2 변분 순환 오토인코더를 이용하여 사용자의 입력에 해당하는 잠재 변수의 값을 산출하는 단계; 및 상기 학습된 잠재 변수의 값과 상기 산출된 잠재 변수의 값을 비교한 결과에 기초하여 사용자로부터의 입력을 색인하는 단계를 포함한다. In the indexing method of the variable cycle auto-encoding method according to an embodiment of the present invention, a value of a latent variable is learned through a training process of encoding and decoding a preset predetermined keyword set using a first variable cycle auto-encoder, and Learning a value of a latent variable shared with a latent variable learned in the first variable cycle autoencoder through a training process of encoding and decoding a set predetermined image using a second variable cycle autoencoder; Calculating a value of a latent variable corresponding to a user's input by using the first differential cycle autoencoder or the second differential cycle autoencoder; And indexing an input from a user based on a result of comparing the learned value of the latent variable with the calculated value of the latent variable.

상기 변분 순환 오토인코딩 방식의 색인 방법은, 사용자의 텍스트 또는 음성 입력의 형태소를 분석함으로써 상기 사용자의 텍스트 또는 음성 입력에 해당하는 키워드 셋을 생성하는 단계를 더 포함하고, 상기 산출하는 단계에서, 사용자의 입력이 텍스트 또는 음성일 때, 상기 제1 변분 순환 오토인코더를 이용하여 상기 생성된 키워드 셋에 해당하는 잠재 변수의 값을 산출할 수 있다.The indexing method of the differential cycle auto-encoding method further includes the step of generating a keyword set corresponding to the user's text or voice input by analyzing the morpheme of the user's text or voice input, and in the calculating step, the user When the input of is text or voice, the value of the latent variable corresponding to the generated keyword set may be calculated using the first differential cycle autoencoder.

상기 변분 순환 오토인코딩 방식의 색인 방법은, 상기 제1 변분 순환 오토인코더 또는 상기 제2 변분 순환 오토인코더에서 산출된 잠재 변수의 값을 이용하여, 상기 색인하는 단계에서 사용되는 색인을 업데이트하는 단계를 더 포함할 수 있다.The indexing method of the differential cycle auto-encoding method includes the step of updating an index used in the indexing step by using a value of a latent variable calculated by the first differential cycle autoencoder or the second differential cycle autoencoder. It may contain more.

상기 미리 설정된 소정의 키워드 셋은 세무에 관한 것이고, 상기 미리 설정된 소정의 이미지는 세무와 관련된 문서의 종류를 구분 가능한 이미지일 수 있다.The preset predetermined keyword set relates to tax affairs, and the predetermined predetermined image may be an image capable of distinguishing the type of document related to tax affairs.

사용자의 자연어 입력의 형태소를 분석함으로써 상기 사용자의 자연어 입력에 해당하는 키워드 셋을 생성하는 키워드 생성부;A keyword generator for generating a keyword set corresponding to the user's natural language input by analyzing a morpheme of the user's natural language input;

본 발명의 실시예에 따른 변분 순환 오토인코딩 방식의 색인 시스템은, 미리 설정된 소정의 키워드 셋을 인코딩 및 디코딩하는 트레이닝 과정을 통해 잠재 변수의 값을 학습하고, 이에 기초하여 상기 키워드 생성부에서 생성된 키워드 셋을 인코딩함으로써 잠재 변수의 값을 산출하는 변분 순환 오토인코더; 상기 변분 순환 오토인코더에서 학습된 잠재 변수의 값과, 상기 변분 순환 오토인코더에서 산출된 잠재 변수의 값을 비교한 결과에 기초하여 사용자로부터의 입력을 색인하는 색인부; 및 상기 변분 순환 오토인코더에서 산출된 잠재 변수의 값을 이용하여, 상기 색인부의 색인을 업데이트하는 업데이트부를 포함한다.The index system of the variable cyclic auto-encoding method according to an embodiment of the present invention learns a value of a latent variable through a training process of encoding and decoding a predetermined keyword set, and is generated by the keyword generator based on this. A variable cycle autoencoder that calculates a value of a latent variable by encoding a keyword set; An index unit for indexing an input from a user based on a result of comparing the value of the latent variable learned by the differential cycle autoencoder with the value of the latent variable calculated by the differential cycle autoencoder; And an update unit for updating the index of the index unit by using the value of the latent variable calculated by the differential cycle autoencoder.

본 발명의 실시예에 의하면, 변분 순환 오토인코딩 방식을 이용하여 입력된 질문을 색인하기 때문에, 정확도가 높은 색인이 가능하다. According to an embodiment of the present invention, since the input question is indexed using the variance cycle auto-encoding method, indexing with high accuracy is possible.

도 1은 본 발명의 실시예에 따른 변분 순환 오토인코딩 방식의 색인 시스템의 구성을 나타내는 도면이다.
도 2는 도 1의 형태소 분석기의 동작을 나타내는 도면이다.
도 3은 도 1의 변분 순환 오토인코더의 동작을 설명하기 위한 도면이다.
도 4는 도 3의 LSTM의 구조의 일 예를 나타내는 도면이다.
도 5는 본 발명의 다른 실시예에 따른 변분 순환 오토인코딩 방식의 색인 시스템의 구성을 나타내는 도면이다.
도 6은 도 5의 일부 구성의 동작을 설명하기 위한 도면이다.
도 7은 본 발명의 실시예에 따른 변분 순환 오토인코딩 방식의 전문분야 응답 서비스 시스템의 구성을 나타내는 도면이다.
도 8은 본 발명의 실시예에 따른 챗봇을 이용한 변분 순환 오토인코딩 방식의 전문분야 응답 서비스 방법을 나타내는 도면이다.
도 9는 본 발명의 실시예에 따른 변분 순환 오토인코딩 방식의 전문분야 응답 서비스 시스템 및 방법의 실험 결과를 나타내는 도면이다.
1 is a diagram showing the configuration of an index system of an auto-encoding method according to an exemplary embodiment of the present invention.
2 is a diagram showing the operation of the morpheme analyzer of FIG. 1.
FIG. 3 is a diagram for explaining the operation of the differential cycle autoencoder of FIG. 1.
4 is a diagram illustrating an example of the structure of the LSTM of FIG. 3.
5 is a diagram illustrating a configuration of an index system of an auto-encoding method according to a differential cycle according to another embodiment of the present invention.
6 is a diagram for describing an operation of some components of FIG. 5.
FIG. 7 is a diagram showing the configuration of a specialized field response service system using a differential cycle auto-encoding method according to an embodiment of the present invention.
FIG. 8 is a diagram illustrating a specialized field response service method using a variable cycle auto-encoding method using a chatbot according to an embodiment of the present invention.
9 is a diagram showing an experiment result of a specialized field response service system and method of a differential cycle auto-encoding method according to an embodiment of the present invention.

발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여, 본 명세서 및 청구범위에 사용된 용어나 단어는 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.Based on the principle that the inventor can appropriately define the concept of terms in order to describe his own invention in the best way, terms or words used in the present specification and claims are consistent with the technical idea of the present invention. It should be interpreted as meaning and concept.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다. 또한, 한 구성요소가 다른 구성요소에 "연결", "전송", "송신", "수신" 또는 "전달"된다고 할 때, 이는 직접적으로 연결, 전송, 송신, 수신 또는 전달되는 경우뿐만 아니라 다른 구성요소를 개재하여 간접적으로 연결, 전송, 송신, 수신 또는 전달되는 경우도 포함한다. 또한, 명세서에 기재된 "…부", "…기", "모듈", "장치" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when a part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary. In addition, when one component is said to be "connected", "transmitted", "transmitted", "received" or "transmitted" to another component, it is not only the case that is directly connected, transmitted, transmitted, received, or transmitted It also includes cases that are indirectly connected, transmitted, transmitted, received or transmitted through components. In addition, terms such as "...unit", "...group", "module", and "device" described in the specification mean units that process at least one function or operation, which is a combination of hardware or software or hardware and software. It can be implemented as

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

먼저, 도 1~도 4를 참조하여 본 발명의 실시예 1에 대하여 설명한다.First, a first embodiment of the present invention will be described with reference to FIGS. 1 to 4.

도 1은 본 발명의 실시예에 따른 변분 순환 오토인코딩 (Variational Recurrent Autoencoding) 방식의 색인 시스템(1)의 구성을 나타내는 도면이다.FIG. 1 is a diagram showing the configuration of an index system 1 of a variant recurrent autoencoding method according to an embodiment of the present invention.

도 1을 참조하면, 색인 시스템(1)은 자연어(natural language)를 입력받아, 이에 해당하는 응답을 데이터베이스에서 검색하기 위한 색인값을 생성하는 시스템이다. 색인 시스템(1)은 형태소 분석기(100), 변분 순환 오토인코더(200), 색인부(300) 및 업데이트부(400)를 포함한다.Referring to FIG. 1, the index system 1 is a system that receives natural language and generates an index value for searching a database for a response corresponding thereto. The index system 1 includes a morpheme analyzer 100, an autoencoder 200 for variance circulation, an index unit 300, and an update unit 400.

형태소 분석기(100)는 자연어의 형태소를 분석하여 자연어의 키워드 셋을 생성한다. 형태소 분석기(100)에 입력되는 자연어는 하나 이상의 단어로 이루어진 완성된 문장 또는 미완성된 문장일 수 있다. 자연어는 예를 들면 한국어 형태일 수 있다. 키워드 셋은 자연어 입력에서 특별한 의미를 갖지 않는 조사를 제외한 일반명사, 고유명사, 동사 등일 수 있다. 키워드 셋은 적어도 하나의 키워드를 포함한다.The morpheme analyzer 100 analyzes the morpheme of the natural language and generates a keyword set of the natural language. The natural language input to the morpheme analyzer 100 may be a completed sentence or an incomplete sentence composed of one or more words. The natural language may be in Korean form, for example. The keyword set may be a general noun, proper noun, verb, etc. excluding investigations that do not have special meaning in natural language input. The keyword set includes at least one keyword.

변분 순환 오토인코더(200)는 키워드 셋을 변분 순환 오토인코딩 방식으로 처리하여 잠재 변수를 생성한다. The variable cycle autoencoder 200 generates a latent variable by processing a keyword set in a variable cycle auto encoding method.

색인부(300)는 변분 순환 오토인코더(200)에서 생성된 잠재 변수의 값에 따라 키워드 셋을 색인한다. The index unit 300 indexes the keyword set according to the value of the latent variable generated by the variable cycle autoencoder 200.

업데이트부(400)는 변분 순환 오토인코더(200)에서 생성된 잠재 변수의 값을 이용하여 색인을 업데이트한다.The update unit 400 updates the index by using the value of the latent variable generated by the variance cycle autoencoder 200.

도 2는 도 1의 형태소 분석기(100)의 동작을 나타내는 도면이다. 형태소 분석기(100)는 자연어를 토크나이징(Tokenizing)함으로써 키워드 셋을 생성한다.2 is a diagram showing the operation of the morpheme analyzer 100 of FIG. 1. The morpheme analyzer 100 generates a keyword set by tokenizing natural language.

도 2를 참조하면, "올해는 법인세를"이라는 자연어가 입력되면, 키워드 셋으로서 {올해, 법인세}가 생성되는 것을 나타낸다. 본 실시예에서 키워드 셋 {올해, 법인세}는 "올해" 및 "법인세"라는 2개의 키워드로 구성된다. 예를 들어, 형태소 분석기(100)는 루씬(Lucene) 기반의 검색 엔진에서 사용되는 은전한닢이 이용될 수 있다.Referring to FIG. 2, when the natural language "This year is corporate tax" is input, it indicates that {this year, corporate tax} is generated as a set of keywords. In this embodiment, the keyword set {this year, corporate tax} is composed of two keywords "this year" and "corporate tax". For example, the morpheme analyzer 100 may be used in a Lucene-based search engine.

다음으로, 도 3을 참조하여 변분 순환 오토인코더(200)의 동작에 대해 설명한다.Next, the operation of the variable cycle autoencoder 200 will be described with reference to FIG. 3.

변분 순환 오토인코더는 비지도학습의 일종으로 차원 축소와 생성 모델에 많이 사용된다. 변분 순환 오토인코더의 핵심은 잠재 변수(Z)가 평균(μ)과 분산(σ)의 정규 분포(diagonal Gaussian)를 따르도록 학습하는 것이다. 후분포(Posterior) p(z|x)는 계산이 어렵기 때문에(Intractable), 변분 추론(Variational Inference)을 이용하여 q(z|x)와 p(z|x)를 근사시킨다. Kullback-Leibler Divergence를 이용하여 q(z|x)와 p(z|x)의 차이를 최소화하도록 다음과 같이 유도할 수 있다.The variable cycle autoencoder is a kind of unsupervised learning and is widely used in dimensional reduction and generation models. The key to the variable cycle autoencoder is to learn that the latent variable (Z) follows a normal distribution (diagonal Gaussian) of mean (μ) and variance (σ). Since the posterior distribution p(z|x) is difficult to calculate (Intractable), we approximate q(z|x) and p(z|x) using Variational Inference. Kullback-Leibler Divergence can be used to minimize the difference between q(z|x) and p(z|x) as follows.

Figure 112019029743256-pat00001
Figure 112019029743256-pat00001

위 식에서

Figure 112019029743256-pat00002
는 항상 0보다 크거나 같다.
Figure 112019029743256-pat00003
를 최대화하면
Figure 112019029743256-pat00004
가 최대가 되도록 하는 하한(Evidence Lower Bound)이며 목적함수(Objective Function)가 된다.In the above equation
Figure 112019029743256-pat00002
Is always greater than or equal to zero.
Figure 112019029743256-pat00003
Maximizing
Figure 112019029743256-pat00004
It is the Evidence Lower Bound that makes is the maximum and becomes the Objective Function.

Figure 112019029743256-pat00005
Figure 112019029743256-pat00005

도 3은 도 1의 변분 순환 오토인코더(200)의 동작을 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining the operation of the variable cycle autoencoder 200 of FIG. 1.

도 3을 참조하면, 변분 순환 오토인코더(200)는 키워드 셋을 구성하는 하나 이상의 키워드가 각각 입력되는 인코딩 LSTM(Long Short Term Memory; 인코딩부; 210, 220)과, 인코딩 LSTM(210, 220)에서 생성된 잠재 변수(Z)가 디코딩 되는 디코딩 LSTM(디코딩부; 230, 240, 250)을 포함할 수 있다.Referring to FIG. 3, the variable cyclic autoencoder 200 includes encoding Long Short Term Memory (LSTM; encoding units; 210, 220) into which one or more keywords constituting a keyword set are respectively input, and encoding LSTMs (210, 220). It may include a decoding LSTM (decoder; 230, 240, 250) in which the latent variable Z generated in is decoded.

먼저, 변분 순환 오토인코더(200)의 인코딩 LSTM(210, 220) 및 디코딩 LSTM(230, 240, 250)은 트레이닝 동작을 수행할 수 있다. 인코딩 LSTM(210, 220)은 미리 설정된 복수의 키워드 셋의 각각을 인코딩함으로써 잠재 변수를 산출하고, 산출된 잠재 변수에 대해 디코딩을 수행하는 방식으로 트레이닝을 수행한다. 이에 따라, 미리 설정된 복수의 키워드 셋에 대해 적절한 잠재 변수의 값이 산출될 수 있다. 도 3에서는 2개의 인코딩 LSTM(210, 220) 및 3개의 디코딩 LSTM(230, 240, 250)이 포함되는 것으로 도시하였지만, 인코딩 LSTM 및 디코딩 LSTM의 개수는 입력되는 키워드 셋의 키워드의 개수에 따라 달라질 수 있다.First, the encoding LSTMs 210 and 220 and the decoding LSTMs 230, 240 and 250 of the variable cyclic autoencoder 200 may perform a training operation. The encoding LSTMs 210 and 220 calculate a latent variable by encoding each of a plurality of preset keyword sets, and perform training in a manner of performing decoding on the calculated latent variable. Accordingly, a value of a potential variable suitable for a plurality of preset keyword sets may be calculated. 3 shows that two encoding LSTMs 210, 220 and three decoding LSTMs 230, 240, 250 are included, but the number of encoding LSTMs and decoding LSTMs varies according to the number of keywords in the input keyword set. I can.

도 3에 도시된 바와 같이, 앞 단의 LSTM(210)의 출력은 후단의 LSTM(220)의 입력이 되는 체인 구조일 수 있다. 본 실시예의 변분 순환 오토인코더(200)는 각 키워드가 순차적으로 LSTM에 입력되어 인코딩되기 때문에, 키워드간의 연계성이 고려될 수 있다. As shown in FIG. 3, the output of the LSTM 210 at the front end may be a chain structure that becomes the input of the LSTM 220 at the rear end. In the variable cyclic autoencoder 200 of the present embodiment, since each keyword is sequentially input to the LSTM and encoded, the linkage between the keywords can be considered.

다음으로, 사용자로부터 자연어가 입력되고, 형태소 분석부(100)에 의해 키워드 셋이 생성되면, 인코딩 LSTM(210, 220)은 자연어에 대응하는 키워드 셋에 대해 잠재 변수를 산출한다. 산출된 잠재 변수는 추후 색인의 기준이 될 수 있다.Next, when a natural language is input from a user and a keyword set is generated by the morpheme analysis unit 100, the encoding LSTMs 210 and 220 calculate a latent variable for a keyword set corresponding to the natural language. The calculated latent variables can be used as a standard for indexing in the future.

도 3에 된 바와 같이, {올해, 법인세}라는 키워드 셋이 입력되는 경우, LSTM(210)에 "올해"가 입력되고, LSTM(220)에 LSTM(210)의 출력과 "법인세"가 입력된다. 이에 따라, LSTM(220)에서 평균(μ)과 분산(σ)을 갖는 잠재변수(Z)가 생성된다. 도 3에서는 2개의 키워드에 대응하는 2개의 인코딩 LSTM(210, LSTM)이 포함되는 것을 예로 들었지만, 인코딩 LSTM의 개수는 키워드 셋을 구성하는 키워드의 개수에 따라 달라질 수 있다.As shown in FIG. 3, when the keyword set {this year, corporate tax} is input, "this year" is input to the LSTM 210, and the output of the LSTM 210 and the "corporate tax" are input to the LSTM 220. . Accordingly, a latent variable (Z) having an average (μ) and a variance (σ) in the LSTM 220 is generated. 3 illustrates that two encoding LSTMs 210 and LSTMs corresponding to two keywords are included as an example, but the number of encoding LSTMs may vary according to the number of keywords constituting the keyword set.

도 4는 도 3의 LSTM의 구조의 일 예를 나타내는 도면이다. 4 is a diagram illustrating an example of the structure of the LSTM of FIG. 3.

도 4를 참조하면, Xt-1 및 Xt는 형태소 분석기(100)에서 생성된 키워드 셋의 키워드들이 각각 순차적으로 입력된다. 도 4의 실시예에서 Xt-1에는 "올해"가 입력되고, Xt에는 "법인세"가 입력될 수 있다. ht-1, ht는 인코딩된 벡터값이며, 최종적으로 출력되는 ht는 도 3의 잠재변수 Z에 대응할 수 있다.Referring to FIG. 4, keywords of a keyword set generated by the morpheme analyzer 100 are sequentially input to Xt-1 and Xt. In the embodiment of FIG. 4, "this year" may be input to Xt-1, and "corporation tax" may be input to Xt. ht-1 and ht are encoded vector values, and ht finally output may correspond to the latent variable Z of FIG. 3.

LSTM(210)과 LSTM(220)은 동일한 구조를 가질 수 있다. 따라서, 이하에서는 LSTM(220)을 중심으로 설명한다.The LSTM 210 and the LSTM 220 may have the same structure. Therefore, in the following description, the LSTM 220 will be mainly described.

LSTM(220)은 전체적으로 보았을 때 셀 상태(cell state)를 Ct-1에서 Ct로 변화시킨다. 도 4에서 사각형 표시(41, 42, 43, 47)은 신경망층을 나타내고 동그라미 표시(44, 45, 46, 49)는 포인트 연산을 나타낸다. The LSTM 220 changes the cell state from Ct-1 to Ct when viewed as a whole. In FIG. 4, square marks 41, 42, 43, 47 represent neural network layers, and circle marks 44, 45, 46, 49 represent point calculations.

먼저 sigmoid layer(41)는 ht-1과 xt를 받아서 0과 1 사이의 값을 갖는 ft를 출력한다. 그리고 ft는 이전 셀 상태를 나타내는 Ct-1과 곱해져서(44를 참조) 이전 셀 상태를 얼마나 반영할지를 결정하게 된다. ft는 다음의 수식으로 표현될 수 있다.First, the sigmoid layer 41 receives ht-1 and xt and outputs ft with a value between 0 and 1. And ft is multiplied by Ct-1 representing the previous cell state (see 44) to determine how much to reflect the previous cell state. ft can be expressed by the following equation.

Figure 112019029743256-pat00006
Figure 112019029743256-pat00006

sigmoid layer(42) 및 tanh layer(43)는 ht-1과 xt를 입력받아서 현재 셀 상태(Ct)에 얼마나 반영할 지 결정한다(46을 참조). The sigmoid layer 42 and the tanh layer 43 receive inputs of ht-1 and xt and determine how much to reflect in the current cell state Ct (see 46).

sigmoid layer(42)는 sigmoid layer(41)과 유사하게 ht-1과 xt를 받아서 0과 1 사이의 값을 갖는 it를 출력하며, it는 다음의 수식으로 표현될 수 있다.Similar to the sigmoid layer 41, the sigmoid layer 42 receives ht-1 and xt and outputs it having a value between 0 and 1, and it can be expressed by the following equation.

Figure 112019029743256-pat00007
Figure 112019029743256-pat00007

tanh layer(43)는 ht-1과 xt를 입력받아서 새로운 후보값(벡터)인

Figure 112019029743256-pat00008
를 생성한다. tanh layer(213)의 출력값
Figure 112019029743256-pat00009
는 다음의 수식으로 표현될 수 있다.The tanh layer 43 receives ht-1 and xt, and is a new candidate value (vector).
Figure 112019029743256-pat00008
Create output value of tanh layer(213)
Figure 112019029743256-pat00009
Can be expressed by the following equation.

Figure 112019029743256-pat00010
Figure 112019029743256-pat00010

이에 따라, 현재 셀 상태 Ct는 다음의 수식에 의해 표현될 수 있다(44, 45 및 46을 참조).Accordingly, the current cell state Ct can be expressed by the following equation (refer to 44, 45, and 46).

Figure 112019029743256-pat00011
Figure 112019029743256-pat00011

다음으로, sigmoid layer(47)는 ht-1과 xt를 입력받아서 0과 1사이의 값을 출력하며, sigmoid layer(47)의 출력 ot는 다음의 식으로 표현될 수 있다.Next, the sigmoid layer 47 receives ht-1 and xt and outputs a value between 0 and 1, and the output ot of the sigmoid layer 47 can be expressed by the following equation.

Figure 112019029743256-pat00012
Figure 112019029743256-pat00012

ht는 포인트 연산(48, 49)을 거쳐 출력되며, ht는 다음과 같이 표현될 수 있다.ht is output through point calculations 48 and 49, and ht can be expressed as follows.

Figure 112019029743256-pat00013
Figure 112019029743256-pat00013

이상, 도 4의 구조를 갖는 LSTM을 예로 들어 설명하였지만, 본 발명의 범위는 이에 한하지 않는다. 예를 들어, 신경망층(41, 42, 43, 47)의 일부가 생략될 수도 있고, 신경망층(41, 42, 43, 47) 및 포인트 연산(44, 45, 46, 48 및 49)의 연결관계가 상이할 수도 있다.In the above, the LSTM having the structure of FIG. 4 has been described as an example, but the scope of the present invention is not limited thereto. For example, some of the neural network layers 41, 42, 43, 47 may be omitted, and the neural network layers 41, 42, 43, 47 and point operations 44, 45, 46, 48, and 49 are connected. The relationship may be different.

다음으로, 도 5 및 도 6을 참조하여 본 발명의 실시예 2에 대하여 설명한다.Next, a second embodiment of the present invention will be described with reference to FIGS. 5 and 6.

도 5는 본 발명의 실시예에 따른 변분 순환 오토인코딩 방식의 색인 시스템(1000)의 구성을 나타내는 도면이다.5 is a diagram illustrating a configuration of an index system 1000 of a differential cycle auto-encoding method according to an embodiment of the present invention.

도 5를 참조하면, 색인 시스템(1000)은 텍스트 또는 음성 형태의 자연어를 입력받거나 이미지를 입력받아, 이에 해당하는 응답을 검색하기 위해 색인값을 출력하는 시스템이다. 색인 시스템(2)은 형태소 분석부(1100), 변분 순환 오토인코더(1200), 색인부(1300) 및 업데이트부(1400)를 포함한다.Referring to FIG. 5, the index system 1000 is a system that receives natural language or images in the form of text or voice, and outputs an index value to search for a response corresponding thereto. The index system 2 includes a morpheme analysis unit 1100, a variance circulation autoencoder 1200, an index unit 1300, and an update unit 1400.

도 5를 참조하면, 형태소 분석부(1100)는 사용자의 텍스트 또는 음성 형태의 자연어를 입력받아 키워드 셋을 생성한다. 형태소 분석부(1100)의 기능은 도 1 및 도 2를 참조하여 설명한 형태소 분석부(100)와 동일하므로 구체적인 설명을 생략한다.Referring to FIG. 5, the morpheme analysis unit 1100 generates a keyword set by receiving a user's natural language in the form of text or voice. Since the function of the morpheme analysis unit 1100 is the same as that of the morpheme analysis unit 100 described with reference to FIGS. 1 and 2, a detailed description is omitted.

변분 순환 오토인코더(1200)는 제1 변분 순환 오토인코더(VAE1)와 제2 변분 순환 오토인코더(VAE2)를 포함한다. The incremental circulation autoencoder 1200 includes a first incremental circulation autoencoder VAE1 and a second incremental circulation autoencoder VAE2.

제1 변분 순환 오토인코더(VAE1)는 미리 설정된 소정의 키워드 셋을 인코딩 및 디코딩하는 트레이닝 과정을 통해 잠재 변수(Z)의 값을 학습하고, 이에 기초하여 사용자의 음성 또는 문자 입력에 해당하는 키워드 셋을 인코딩함으로써 잠재 변수(Z)의 값을 산출한다. The first variable cyclic autoencoder VAE1 learns the value of the latent variable Z through a training process of encoding and decoding a preset predetermined keyword set, and based on this, a keyword set corresponding to the user's voice or text input The value of the latent variable Z is calculated by encoding.

제2 변분 순환 오토인코더(VAE2)는 미리 설정된 소정의 이미지를 인코딩 및 디코딩하는 트레이닝 과정을 통해 잠재 변수(Z)의 값을 학습하고, 이에 기초하여 사용자의 이미지 입력을 인코딩함으로써 잠재 변수(Z)의 값을 산출한다.The second variable cyclic autoencoder VAE2 learns the value of the latent variable Z through a training process for encoding and decoding a predetermined image, and encoding the user's image input based on the value of the latent variable Z. Calculate the value of

색인부(1300)는 제1 변분 순환 오토인코더(VAE1) 또는 제2 변분 순환 오토인코더(VAE2)에서 학습된 잠재 변수(Z)의 값과, 상기 제1 변분 순환 오토인코더(VAE1) 또는 상기 제2 변분 순환 오토인코더(VAE2)에서 산출된 잠재 변수(Z)의 값을 비교한 결과에 기초하여 사용자로부터의 입력을 색인한다.The index unit 1300 includes the value of the latent variable Z learned by the first variable cycle autoencoder VAE1 or the second variable cycle autoencoder VAE2, and the first variable cycle autoencoder VAE1 or the first The input from the user is indexed based on the result of comparing the value of the latent variable Z calculated by the two-variable cyclic autoencoder VAE2.

업데이트부(1400)는 제1 변분 순환 오토인코더(VAE1) 또는 상기 제2 변분 순환 오토인코더(VAE2)에서 산출된 잠재 변수(Z)의 값을 이용하여, 색인을 업데이트한다.The update unit 1400 updates the index by using the value of the latent variable Z calculated by the first variable cycle autoencoder VAE1 or the second variable cycle autoencoder VAE2.

도 6은 도 5의 제1 변분 순환 오토인코더(VAE1), 제2 변분 순환 오토인코더(VAE2) 및 업데이트부(1400)의 동작을 설명하기 위한 도면이다.FIG. 6 is a diagram for explaining the operations of the first cyclical autoencoder VAE1, the second cyclical autoencoder VAE2, and the updater 1400 of FIG. 5.

제1 변분 순환 오토인코더(VAE1)는 잠재변수(Z)가 제2 변분 순환 오토인코더(VAE2)와 공유된다는 점을 제외하고는 변분 순환 오토인코더(200)와 동일하다. 구체적으로, 제1 변분 순환 오토인코더(VAE1)는, 미리 설정된 소정의 키워드 셋 또는 상기 사용자의 음성 또는 문자 입력에 해당하는 키워드 셋을 인코딩하는 제1 인코딩부(1210, 1220); 및 제1 인코딩부(1210, 1220)가 미리 설정된 소정의 키워드 셋을 인코딩함으로써 생성된 잠재 변수(Z)의 값을 디코딩하는 제1 디코딩부(1230, 1240, 1250)를 포함할 수 있다.The first variable cycle autoencoder VAE1 is the same as the variable cycle autoencoder 200 except that the latent variable Z is shared with the second variable cycle autoencoder VAE2. Specifically, the first variable cyclic autoencoder VAE1 includes: first encoding units 1210 and 1220 for encoding a preset predetermined keyword set or a keyword set corresponding to the user's voice or text input; And first decoding units 1230, 1240, and 1250 for decoding a value of the latent variable Z generated by encoding a preset keyword set by the first encoding units 1210 and 1220.

제1 인코딩부(1210, 1220)는, 입력되는 키워드 셋을 구성하는 키워드의 개수와 동일한 개수의 LSTM(1210, 1220)을 포함하고, 키워드는 입력된 순서로 LSTM(1210, 1220)에 각각 입력되고, LSTM(1210, 1220)은 체인 형식으로 연결될 수 있다.The first encoding units 1210 and 1220 include the same number of LSTMs 1210 and 1220 as the number of keywords constituting the input keyword set, and the keywords are respectively input to the LSTMs 1210 and 1220 in the order of input. The LSTM (1210, 1220) can be connected in a chain.

제2 변분 순환 오토인코더(VAE2)는, 미리 설정된 소정의 이미지 또는 상기 사용자의 이미지 입력을 인코딩하는 제2 인코딩부(1211, 1221); 및 제2 인코딩부(1211, 1221)가 미리 설정된 소정의 이미지를 인코딩함으로써 생성된 잠재 변수(Z)의 값을 디코딩하는 제2 디코딩부(1231, 1241)를 포함하고, 제2 인코딩부(1211, 1221) 및 상기 제2 디코딩부(1231, 1241)는 CNN(Convolutional Neural Network)을 포함할 수 있다.The second variable cyclic autoencoder VAE2 includes: second encoding units 1211 and 1221 for encoding a predetermined image or an image input of the user; And second decoding units 1231 and 1241 for decoding a value of the latent variable Z generated by the second encoding units 1211 and 1221 encoding a predetermined image, and a second encoding unit 1211 , 1221) and the second decoding units 1231 and 1241 may include a convolutional neural network (CNN).

제2 변분 순환 오토인코더(VAE2)는 사용자로부터의 이미지가 입력된다. 예를 들어, 세무 관련 문서는 종류에 따라 상이한 이미지를 포함할 수 있다. 법인세 지연, 소득세 환급, 부가세 등 종류에 따라 문서에 포함되는 서식 등의 이미지나 색상이 상이할 수 있다. 제2 변분 순환 오토인코더(VAE2)는 이러한 이미지에 따라 잠재 변수(Z)의 값을 산출한다. The second differential cycle autoencoder VAE2 inputs an image from a user. For example, tax-related documents may include different images depending on the type. Depending on the type of corporate tax delay, income tax refund, and VAT, the image or color of the format included in the document may be different. The second differential cycle autoencoder VAE2 calculates the value of the latent variable Z according to this image.

도 6에 도시된 바와 같이, 제2 변분 순환 오토인코더(VAE2)는 CNN(Convolutional Neural Network)을 포함한다. CNN은 기존의 DNN(Deep Neural etwork)의 FC(Fully-Connected Layer)를 Convolution Layer로 대처한 구조를 말한다. FC는 1차원 데이터만 받을 수 있기 때문에 3차원인 이미지 데이터(Width, Height, Channel(RGB의 경우 3 Channel, 흑백의 경우 1 Channel))를 처리할 때 공간 정보를 유실하게(부적합) 된다. CNN은 일반적으로 Convolutional Layer - Pooling - Convolutional Layer - Pooling - Fully Connected Layer 으로 구성된 것을 의미하며, 이미지 처리에 적합하다. Convolutional Layer는 필터(커널) 입력 이미지와 element-wise multiplication의 합을 구하여 Feature Map을 만든다. As shown in FIG. 6, the second variable cyclic autoencoder VAE2 includes a Convolutional Neural Network (CNN). CNN refers to a structure that copes with the FC (Fully-Connected Layer) of the existing DNN (Deep Neural etwork) as a convolution layer. Since FC can only receive 1D data, spatial information is lost (inappropriate) when processing 3D image data (Width, Height, Channel (3 Channel for RGB, 1 Channel for Black and White)). CNN generally means composed of Convolutional Layer-Pooling-Convolutional Layer-Pooling-Fully Connected Layer, and is suitable for image processing. The Convolutional Layer creates a Feature Map by obtaining the sum of the filter (kernel) input image and element-wise multiplication.

이때, 제1 변분 순환 오토인코더(VAE1)와 제2 변분 순환 오토인코더(VAE2)에서 학습되는 잠재 변수(Z)의 값은 공유된다. 이에 따라, 제1 변분 순환 오토인코더(VAE1) 및 제2 변분 순환 오토인코더(VAE2)는 서로의 영향하에서 잠재 변수(Z)의 값을 학습 및 산출하게 된다. 다시 말해, 제1 변분 순환 오토인코더(VAE1)는 제1 변분 순환 오토인코더(VAE1)뿐만 아니라 제2 변분 순환 오토인코더(VAE2)에서 학습 및 산출된 잠재 변수(Z)의 값에 기초하여 사용자의 입력에 해당하는 잠재 변수(Z)의 값을 산출하고, 제2 변분 순환 오토인코더(VAE2)는 제2 변분 순환 오토인코더(VAE2)뿐만 아니라 제1 변분 순환 오토인코더(VAE1)에서 학습 및 산출된 잠재 변수(Z)의 값에 기초하여 사용자의 입력에 해당하는 잠재 변수(Z)의 값을 산출한다. At this time, the value of the latent variable Z learned by the first variable cycle autoencoder VAE1 and the second variable cycle autoencoder VAE2 is shared. Accordingly, the first variable cycle autoencoder VAE1 and the second variable cycle autoencoder VAE2 learn and calculate the value of the latent variable Z under the influence of each other. In other words, the first variable cyclic autoencoder (VAE1) is based on the value of the latent variable (Z) learned and calculated by the second cyclical autoencoder (VAE2) as well as the first cyclical autoencoder (VAE2). The value of the latent variable (Z) corresponding to the input is calculated, and the second variable cycle autoencoder (VAE2) is learned and calculated from the second variable cycle autoencoder (VAE2) as well as the first variable cycle autoencoder (VAE1). The value of the latent variable Z corresponding to the user's input is calculated based on the value of the latent variable Z.

업데이트부(1400)는 제1 변분 순환 오토인코더(VAE1) 또는 제2 변분 순환 오토인코더(VAE2)에서 산출된 잠재 변수(Z)의 값을 이용하여, 색인부(1300)의 색인을 업데이트한다.The update unit 1400 updates the index of the index unit 1300 by using the value of the latent variable Z calculated by the first variable cycle autoencoder VAE1 or the second variable cycle autoencoder VAE2.

예를 들면, 도 6에 도시된 바와 같이, 사용자가 "올해는 법인세를"이라는 텍스트를 입력하여, 제1 변분 순환 오토인코더(VAE1)로부터 잠재 변수(Z)의 값이 [0.5, 2.0, 0.4]가 출력되었다면, 업데이트부(1400)는 [0.5, 2.0, 0.4]의 잠재 변수의 값과 법인세 항목의 색인값이 대응하도록 색인부를 업데이트 한다.For example, as shown in FIG. 6, the user inputs the text "Corporate tax this year", and the value of the latent variable Z from the first variable circulation autoencoder VAE1 is [0.5, 2.0, 0.4 ] Is output, the update unit 1400 updates the index unit so that the value of the potential variable of [0.5, 2.0, 0.4] and the index value of the corporate tax item correspond.

또는, 사용자가 도 6에 도시된 이미지를 입력하여, 제2 변분 순환 오토인코더(VAE2)로부터 잠재 변수(Z)의 값이 [1.5, 0.7, 0.9]가 출력되었다면, 업데이트부(1400)는 [1.5, 0.7, 0.9]의 잠재 변수의 값과 연말정산 항목의 색인값이 대응하도록 색인부를 업데이트 한다.Alternatively, if the user inputs the image shown in FIG. 6 and the value of the latent variable Z is [1.5, 0.7, 0.9] from the second differential cycle autoencoder VAE2, the update unit 1400 [ 1.5, 0.7, 0.9] and the index value of the year-end settlement item are updated to correspond to each other.

다음으로, 도 7을 참조하여 본 발명의 실시예에 따른 변분 순환 오토인코딩 방식의 전문분야 응답 서비스 시스템(2)에 대하여 설명한다.Next, a description will be given of a specialized field response service system 2 of a differential cycle auto-encoding method according to an embodiment of the present invention with reference to FIG. 7.

도 7을 참조하면, 전문분야 응답 서비스 시스템(2)은 입출력부(2100), 색인 시스템(2200), 검색부(2300) 및 데이터베이스(2400)를 포함한다. Referring to FIG. 7, the specialized field response service system 2 includes an input/output unit 2100, an index system 2200, a search unit 2300, and a database 2400.

입출력부(2100)는 사용자가 휴대폰, 컴퓨터 등의 입력 단말의 화면에 표시된 채팅창에 질문을 입력하면, 입력된 질문을 색인 시스템(2200)으로 전송한다. 또한, 입출력부(2100)는 입력된 질문에 대응하는 답변이 데이터베이스(2400)에서 검색되면, 검색된 답변을 채팅창에 출력한다. 입출력부(2100)는 사용자가 음성으로 입력하는 경우 이를 텍스트로 변환하는 기능을 수행할 수 있다.The input/output unit 2100 transmits the input question to the index system 2200 when a user inputs a question in a chat window displayed on a screen of an input terminal such as a mobile phone or a computer. Also, when an answer corresponding to an input question is searched in the database 2400, the input/output unit 2100 outputs the searched answer to the chat window. The input/output unit 2100 may perform a function of converting the input into text when the user inputs voice.

추가적으로, 입출력부(2100)는 사용자별로 인증키를 발급함으로써 무분별한 데이터의 접근을 차단할 수도 있다. 구체적으로, 입출력부(210)는 사용자별로 인증키를 생성하여 사용자 데이터베이스(미도시)에 저장하고, 생성된 인증키를 사용자에게 제공할 수 있다.Additionally, the input/output unit 2100 may block indiscriminate access to data by issuing an authentication key for each user. Specifically, the input/output unit 210 may generate an authentication key for each user, store it in a user database (not shown), and provide the generated authentication key to the user.

색인 시스템(2200)은 본 발명의 실시예 1에 따른 색인 시스템(1) 또는 본 발명의 실시예 2에 따른 색인 시스템(1000)일 수 있다. 색인 시스템(2200)은 사용자의 입력에 따라 잠재 변수의 값을 산출하고, 산출된 잠재 변수의 값에 해당하는 색인값을 출력한다.The index system 2200 may be the index system 1 according to the first embodiment of the present invention or the index system 1000 according to the second embodiment of the present invention. The index system 2200 calculates a value of a latent variable according to a user's input, and outputs an index value corresponding to the calculated value of the latent variable.

검색부(2300)는 색인시스템(2200)로부터 수신한 색인값에 따라 데이터베이스(2400)에서 답변을 검색한다. 그리고, 검색된 답변을 입출력부(2100)에 제공함으로써 사용자에게 출력되도록 한다.The search unit 2300 searches for answers in the database 2400 according to the index value received from the index system 2200. Then, the searched answer is provided to the input/output unit 2100 to be output to the user.

데이터베이스(2400)에는 복수의 질문과 그에 따른 답변이 저장되어 있으며, 복수의 질문은 색인값에 따라 분류되어 있다. 데이터베이스(2400)에 저장된 질문과 그에 대응하는 답변은 특정 전문분야, 예를 들어 세무 분야에 관한 것일 수 있다. 그러나, 본 발명의 범위는 이에 한하지 않으며, 법률, 금융 등 다른 전문분야에 관한 것일 수도 있다.The database 2400 stores a plurality of questions and their answers, and the plurality of questions are classified according to index values. The questions stored in the database 2400 and answers corresponding thereto may be related to a specific field of expertise, for example, a tax field. However, the scope of the present invention is not limited thereto, and may be related to other specialized fields such as law and finance.

도 8은 본 발명의 실시예에 따른 챗봇을 이용한 변분 순환 오토인코딩 방식의 전문분야 응답 서비스 방법을 나타내는 도면이다.FIG. 8 is a diagram illustrating a specialized field response service method using a variable cycle auto-encoding method using a chatbot according to an embodiment of the present invention.

도 8을 참조하면, 전문분야 응답 서비스 방법은, 먼저, 전문분야의 데이터베이스(2400)를 생성한다(S100). 전술한 바와 같이, 데이터베이스(2400)에는 특정 전문분야의 질문에 따른 답변이 저장되어 있고, 질문은 색인(분류)되어 있을 수 있다. 또한, 데이터베이스(2400)의 생성과 함께, 색인 시스템(2200)변분 순환 오토인코더를 이용하여 잠재 변수의 값을 학습한다. 예를 들어, 실시예 1의 경우에는 미리 설정된 소정의 키워드 셋을 LSTM을 포함하는 변분 순환 오토인코더를 이용하여 인코딩 및 디코딩하는 트레이닝 과정을 통해 잠재 변수의 값을 학습할 수 있다. 실시예 2의 경우에는, 미리 설정된 소정의 키워드 셋을 LSTM을 포함하는 제1 변분 순환 오토인코더를 이용하여 인코딩 및 디코딩하는 트레이닝 과정을 통해 잠재 변수의 값을 학습하고, 미리 설정된 소정의 이미지를 CNN을 포함하는 제2 변분 순환 오토인코더를 이용하여 인코딩 및 디코딩하는 트레이닝 과정을 통해 제1 변분 순환 오토인코더에서 학습된 잠재 변수와 공유되는 잠재 변수의 값을 학습할 수 있다.Referring to FIG. 8, in the specialized field response service method, first, a database 2400 of the specialized field is created (S100). As described above, the database 2400 stores answers to questions in a specific field of expertise, and the questions may be indexed (classified). In addition, with the creation of the database 2400, the index system 2200 learns the value of the latent variable using the variable cycle auto-encoder. For example, in the case of the first embodiment, a value of a latent variable may be learned through a training process of encoding and decoding a preset predetermined keyword set using a cyclic autoencoder including an LSTM. In the case of the second embodiment, the value of the latent variable is learned through a training process of encoding and decoding a preset predetermined keyword set using a first variable cyclic autoencoder including an LSTM, and a predetermined image is CNN. A value of a latent variable shared with a latent variable learned in the first variable cycle autoencoder may be learned through a training process of encoding and decoding using a second variable cycle autoencoder including.

다음으로, 사용자로부터 입력을 수신한다(S110). 사용자는 사용자 단말을 통해 전문분야에 대한 질문을 텍스트나 음성 형태로 입력하거나 이미지의 형태로 입력할 수 있다. 도 7의 입출력부(2100)는 입력된 질문을 색인 시스템(2200)에 전달한다.Next, an input is received from the user (S110). The user can input a question about a specialized field in text or voice form or input in the form of an image through the user terminal. The input/output unit 2100 of FIG. 7 transmits the input question to the index system 2200.

다음으로, 색인 시스템(2200)의 형태소 분석부는 수신된 자연어의 형태소를 분석하여 자연어에 대응하는 키워드 셋을 생성한다(S120). 형태소 분석부는 특별한 의미를 갖지 않는 조사를 제외한 하나 이상의 키워드들로 구성된 키워드 셋을 생성할 수 있다. 본 단계는 사용자의 입력이 텍스트나 음성 형태인 경우에만 수행되며, 이미지 형태인 경우에는 생략된다. Next, the morpheme analysis unit of the index system 2200 analyzes the morphemes of the received natural language to generate a keyword set corresponding to the natural language (S120). The morpheme analysis unit may generate a keyword set composed of one or more keywords excluding investigations that do not have a special meaning. This step is performed only when the user's input is in the form of text or voice, and is omitted in the case of an image form.

다음으로, 색인 시스템(2200)의 변분 순환 오토인코더는 형태소 분석부에서 생성된 키워드 셋 또는 사용자로부터 입력된 이미지를 인코딩함으로써 잠재 변수를 산출한다(S130).Next, the differential cycle autoencoder of the index system 2200 calculates a latent variable by encoding a keyword set generated by the morpheme analysis unit or an image input from a user (S130).

다음으로, 색인 시스템(2200)의 업데이트부는 변분 순환 오토인코더에서 생성된 잠재 변수의 값에 따라 색인값을 업데이트 한다(S140).Next, the update unit of the index system 2200 updates the index value according to the value of the latent variable generated by the differential cycle autoencoder (S140).

다음으로, 검색부(2300)는 색인값에 따라 데이터베이스(2400)에서 답변을 검색한다(S150).Next, the search unit 2300 searches for an answer in the database 2400 according to the index value (S150).

실시예에 따라 색인 업데이트 단계(S140)와 검색 단계(S150)는 그 순서가 바뀔 수도 있다.Depending on the embodiment, the order of the index update step S140 and the search step S150 may be changed.

도 9는 본 발명의 실시예 1에 따른 변분 순환 오토인코딩 방식의 전문분야 응답 서비스 시스템 및 방법의 실험 결과를 나타내는 도면이다.9 is a diagram showing the experimental results of the specialized field response service system and method of the differential cycle auto-encoding method according to the first embodiment of the present invention.

실험에 사용한 데이터는 지식IN 네이버 세무 분야에서 법인세, 부가가치세, 연말정산 등 질문 및 전문가답변을 각각 1000 세트 이상 사용한 것이다. learning rate는 0.001, batch size는 32로 셋팅하고, latent space는 2차원 및 3차원을 각각 학습하였다.The data used in the experiment were more than 1000 sets of questions and expert answers, such as corporate tax, value added tax, and year-end settlement, in the knowledge IN Naver tax field. The learning rate was set to 0.001, the batch size was set to 32, and the latent space was trained in 2D and 3D, respectively.

도 9의 (a) 및 (b)에서 파란색은 법인세, 빨간색은 부가가치세, 녹색은 연말정산을 나타낸다. 도 9에 도시된 바와 같이, 잠재 변수의 값에 따라 법인세, 부가가치세 및 연말정산은 확연히 구분됨을 알 수 있다.In (a) and (b) of Fig. 9, blue represents corporate tax, red represents VAT, and green represents year-end settlement. As shown in FIG. 9, it can be seen that corporate tax, value added tax, and year-end settlement are clearly classified according to the value of the potential variable.

이상, 바람직한 실시예를 통하여 본 발명에 관하여 상세히 설명하였으나, 본 발명은 이에 한정되는 것은 아니며, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양하게 변경, 응용될 수 있음은 당해 기술분야의 통상의 기술자에게 자명하다. 따라서, 본 발명의 진정한 보호 범위는 다음의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술적 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다. As described above, the present invention has been described in detail through preferred embodiments, but the present invention is not limited thereto, and various modifications and applications can be made within the scope of the technical spirit of the present invention. It is self-explanatory to the technician. Therefore, the true scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.

Claims (12)

미리 설정된 소정의 키워드 셋을 인코딩 및 디코딩하는 트레이닝 과정을 통해 잠재 변수의 값을 학습하고, 이에 기초하여 사용자의 음성 또는 문자 입력에 해당하는 키워드 셋을 인코딩함으로써 잠재 변수의 값을 산출하는 제1 변분 순환 오토인코더(Variational Recurrent Autoencoder);
미리 설정된 소정의 이미지를 인코딩 및 디코딩하는 트레이닝 과정을 통해 잠재 변수의 값을 학습하고, 이에 기초하여 사용자의 이미지 입력을 인코딩함으로써 잠재 변수의 값을 산출하는 제2 변분 순환 오토인코더;
상기 제1 변분 순환 오토인코더 및 상기 제2 변분 순환 오토인코더에서 학습된 잠재 변수의 값과, 상기 제1 변분 순환 오토인코더 또는 상기 제2 변분 순환 오토인코더에서 산출된 잠재 변수의 값을 비교한 결과에 기초하여 사용자로부터의 입력을 색인(index)하는 색인부;
를 포함하며,
상기 제1 변분 순환 오토인코더와 상기 제2 변분 순환 오토인코더에서 학습되는 잠재 변수의 값은 공유되는 것을 특징으로 하는 변분 순환 오토인코딩 방식의 색인 시스템.
The first variation of calculating the value of the latent variable by learning the value of the latent variable through a training process of encoding and decoding a preset predetermined keyword set, and encoding a keyword set corresponding to the user's voice or text input based on this Variational Recurrent Autoencoder;
A second variable cycle autoencoder for calculating a value of a latent variable by learning a value of a latent variable through a training process for encoding and decoding a predetermined image, and encoding an image input of a user based thereon;
A result of comparing the value of the latent variable learned in the first and second differential cycle autoencoder and the value of the latent variable calculated by the first variable cycle autoencoder or the second variable cycle autoencoder An indexing unit for indexing an input from a user based on;
Including,
The index system of the differential cycle auto-encoding method, characterized in that the values of the latent variables learned by the first differential cycle autoencoder and the second differential cycle autoencoder are shared.
제1항에 있어서,
상기 사용자의 텍스트 또는 음성 입력의 형태소를 분석함으로써 상기 사용자의 텍스트 또는 음성 입력에 해당하는 키워드 셋을 생성하는 키워드 생성부
를 더 포함하는 것을 특징으로 하는 변분 순환 오토인코딩 방식의 색인 시스템.
The method of claim 1,
Keyword generator for generating a keyword set corresponding to the user's text or voice input by analyzing the morpheme of the user's text or voice input
Indexing system of the variable cycle auto-encoding method further comprising a.
제1항에 있어서,
상기 제1 변분 순환 오토인코더는,
상기 미리 설정된 소정의 키워드 셋 또는 상기 사용자의 음성 또는 문자 입력에 해당하는 키워드 셋을 인코딩하는 제1 인코딩부; 및
상기 제1 인코딩부가 상기 미리 설정된 소정의 키워드 셋을 인코딩함으로써 생성된 잠재 변수의 값을 디코딩하는 제1 디코딩부
를 포함하는 것을 특징으로 하는 변분 순환 오토인코딩 방식의 색인 시스템.
The method of claim 1,
The first differential circulation autoencoder,
A first encoding unit encoding the preset predetermined keyword set or a keyword set corresponding to the user's voice or text input; And
A first decoding unit for decoding a value of a latent variable generated by the first encoding unit encoding the preset keyword set
Indexing system of the variable cycle auto-encoding method comprising a.
제3항에 있어서,
상기 제1 인코딩부는,
입력되는 키워드 셋을 구성하는 키워드의 개수와 동일한 개수의 LSTM(Long Short Term Memory)을 포함하고,
상기 키워드는 입력된 순서로 상기 LSTM에 각각 입력되고,
상기 LSTM은 체인 형식으로 연결된 것을 특징으로 하는 변분 순환 오토인코딩 방식의 색인 시스템.
The method of claim 3,
The first encoding unit,
Includes LSTM (Long Short Term Memory) of the same number as the number of keywords constituting the input keyword set,
The keywords are respectively input to the LSTM in the order of input,
The LSTM is an index system of a variable cycle auto-encoding method, characterized in that connected in a chain form.
제1항에 있어서,
상기 제2 변분 순환 오토인코더는,
상기 미리 설정된 소정의 이미지 또는 상기 사용자의 이미지 입력을 인코딩하는 제2 인코딩부; 및
상기 제2 인코딩부가 상기 미리 설정된 소정의 이미지를 인코딩함으로써 생성된 잠재 변수의 값을 디코딩하는 제2 디코딩부
를 포함하고,
상기 제2 인코딩부 및 상기 제2 디코딩부는 CNN(Convolutional Neural Network)을 포함하는 것을 특징으로 하는 변분 순환 오토인코딩 방식의 색인 시스템.
The method of claim 1,
The second differential circulation autoencoder,
A second encoding unit encoding the predetermined image or the image input of the user; And
A second decoding unit for decoding a value of a latent variable generated by the second encoding unit encoding the predetermined image
Including,
Wherein the second encoding unit and the second decoding unit include a convolutional neural network (CNN).
제1항에 있어서,
상기 제1 변분 순환 오토인코더 또는 상기 제2 변분 순환 오토인코더에서 산출된 잠재 변수의 값을 이용하여, 상기 색인부의 색인을 업데이트하는 업데이트부
를 더 포함하는 것을 특징으로 하는 변분 순환 오토 인코딩 방식의 색인 시스템.
The method of claim 1,
An update unit for updating the index of the index unit by using the value of the latent variable calculated by the first cyclic autoencoder or the second cyclic autoencoder
An index system of a differential cycle auto encoding method further comprising a.
제1항에 있어서,
상기 미리 설정된 소정의 키워드 셋은 세무에 관한 것이고,
상기 미리 설정된 소정의 이미지는 세무와 관련된 문서의 종류를 구분 가능한 이미지인 것을 특징으로 하는 변분 순환 오토 인코딩 방식의 색인 시스템.
The method of claim 1,
The preset predetermined keyword set relates to tax affairs,
The preset predetermined image is an image capable of distinguishing types of documents related to tax affairs.
미리 설정된 소정의 키워드 셋을 제1 변분 순환 오토인코더를 이용하여 인코딩 및 디코딩하는 트레이닝 과정을 통해 잠재 변수의 값을 학습하고, 미리 설정된 소정의 이미지를 제2 변분 순환 오토인코더를 이용하여 인코딩 및 디코딩하는 트레이닝 과정을 통해 상기 제1 변분 순환 오토인코더에서 학습된 잠재 변수와 공유되는 잠재 변수의 값을 학습하는 단계;
상기 제1 변분 순환 오토인코더 또는 상기 제2 변분 순환 오토인코더를 이용하여 사용자의 입력에 해당하는 잠재 변수의 값을 산출하는 단계; 및
상기 학습된 잠재 변수의 값과 상기 산출된 잠재 변수의 값을 비교한 결과에 기초하여 사용자로부터의 입력을 색인하는 단계;
를 포함하는 변분 순환 오토인코딩 방식의 색인 방법.
Learning the value of a latent variable through a training process of encoding and decoding a preset predetermined keyword set using a first differential cycle autoencoder, and encoding and decoding a preset predetermined image using a second differential cycle autoencoder Learning a value of a latent variable shared with the latent variable learned by the first variable cycle autoencoder through a training process to be performed;
Calculating a value of a latent variable corresponding to a user's input by using the first differential cycle autoencoder or the second differential cycle autoencoder; And
Indexing an input from a user based on a result of comparing the learned value of the latent variable with the calculated value of the latent variable;
Indexing method of the incremental cycle auto-encoding method including a.
제8항에 있어서,
사용자의 텍스트 또는 음성 입력의 형태소를 분석함으로써 상기 사용자의 텍스트 또는 음성 입력에 해당하는 키워드 셋을 생성하는 단계
를 더 포함하고,
상기 산출하는 단계에서,
사용자의 입력이 텍스트 또는 음성일 때, 상기 제1 변분 순환 오토인코더를 이용하여 상기 생성된 키워드 셋에 해당하는 잠재 변수의 값을 산출하는 것을 특징으로 하는 변분 순환 오토인코딩 방식의 색인 방법.
The method of claim 8,
Generating a keyword set corresponding to the user's text or voice input by analyzing the morpheme of the user's text or voice input
Including more,
In the calculating step,
When a user's input is text or voice, a value of a latent variable corresponding to the generated keyword set is calculated using the first differential cycle auto-encoder.
제8항에 있어서,
상기 제1 변분 순환 오토인코더 또는 상기 제2 변분 순환 오토인코더에서 산출된 잠재 변수의 값을 이용하여, 상기 색인 단계에서 사용된 색인을 업데이트하는 단계
를 더 포함하는 것을 특징으로 하는 변분 순환 오토인코딩 방식의 색인 방법.
The method of claim 8,
Updating the index used in the indexing step by using the value of the latent variable calculated by the first differential cycle autoencoder or the second differential cycle autoencoder
Indexing method of the differential cycle auto-encoding method, characterized in that it further comprises.
제8항에 있어서,
상기 미리 설정된 소정의 키워드 셋은 세무에 관한 것이고,
상기 미리 설정된 소정의 이미지는 세무와 관련된 문서의 종류를 구분 가능한 이미지인 것을 특징으로 하는 변분 순환 오토 인코딩 방식의 색인 방법.
The method of claim 8,
The preset predetermined keyword set relates to tax affairs,
The indexing method of the incremental cycle auto encoding method, characterized in that the preset predetermined image is an image capable of distinguishing types of documents related to tax affairs.
사용자의 자연어 입력의 형태소를 분석함으로써 상기 사용자의 자연어 입력에 해당하는 키워드 셋을 생성하는 키워드 생성부;
미리 설정된 소정의 키워드 셋을 인코딩 및 디코딩하는 트레이닝 과정을 통해 잠재 변수의 값을 학습하고, 이에 기초하여 상기 키워드 생성부에서 생성된 키워드 셋을 인코딩함으로써 잠재 변수의 값을 산출하는 변분 순환 오토인코더;
상기 변분 순환 오토인코더에서 학습된 잠재 변수의 값과, 상기 변분 순환 오토인코더에서 산출된 잠재 변수의 값을 비교한 결과에 기초하여 사용자로부터의 입력을 색인하는 색인부; 및
상기 변분 순환 오토인코더에서 산출된 잠재 변수의 값을 이용하여, 상기 색인부의 색인을 업데이트하는 업데이트부
를 포함하는 것을 특징으로 하는 변분 순환 오토인코딩 방식의 색인 시스템.






A keyword generator for generating a keyword set corresponding to the user's natural language input by analyzing a morpheme of the user's natural language input;
A differential cycle autoencoder for calculating a value of a latent variable by learning a value of a latent variable through a training process of encoding and decoding a predetermined keyword set, and encoding the keyword set generated by the keyword generator based on this;
An index unit for indexing an input from a user based on a result of comparing the value of the latent variable learned by the differential cycle autoencoder with the value of the latent variable calculated by the differential cycle autoencoder; And
An update unit for updating the index of the index unit by using the value of the latent variable calculated by the differential cycle autoencoder
Indexing system of the variable cycle auto-encoding method comprising a.






KR1020190032912A 2018-10-25 2019-03-22 Indexing system and method using variational recurrent autoencoding KR102156249B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20180127965 2018-10-25
KR1020180127965 2018-10-25

Publications (2)

Publication Number Publication Date
KR20200047272A KR20200047272A (en) 2020-05-07
KR102156249B1 true KR102156249B1 (en) 2020-09-15

Family

ID=70734108

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190032912A KR102156249B1 (en) 2018-10-25 2019-03-22 Indexing system and method using variational recurrent autoencoding

Country Status (1)

Country Link
KR (1) KR102156249B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11620555B2 (en) * 2018-10-26 2023-04-04 Samsung Electronics Co., Ltd Method and apparatus for stochastic inference between multiple random variables via common representation
KR102310735B1 (en) * 2020-12-21 2021-10-08 (주)위세아이텍 Apparatus and method for detecting abnormality in vibration signal of rotating equipment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012252542A (en) 2011-06-03 2012-12-20 Document Fusion Co Ltd Network distribution type document storage technology using document storage place object for efficiently performing document retrieval work on windows(r)
KR101717230B1 (en) 2015-12-30 2017-03-16 성균관대학교산학협력단 Document summarization method using recursive autoencoder based sentence vector modeling and document summarization system
US20180165554A1 (en) 2016-12-09 2018-06-14 The Research Foundation For The State University Of New York Semisupervised autoencoder for sentiment analysis

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10241684B2 (en) * 2017-01-12 2019-03-26 Samsung Electronics Co., Ltd System and method for higher order long short-term memory (LSTM) network

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012252542A (en) 2011-06-03 2012-12-20 Document Fusion Co Ltd Network distribution type document storage technology using document storage place object for efficiently performing document retrieval work on windows(r)
KR101717230B1 (en) 2015-12-30 2017-03-16 성균관대학교산학협력단 Document summarization method using recursive autoencoder based sentence vector modeling and document summarization system
US20180165554A1 (en) 2016-12-09 2018-06-14 The Research Foundation For The State University Of New York Semisupervised autoencoder for sentiment analysis

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Jen-Tzung Chien et al., Variational Recurrent Neural Networks for Speech Separation, INTERSPEECH 2017, 2017.08.20. 1193-1197pages
최가람 외 4인, 기술용어에 대한 한국어 정의 문장 자동 생성을 위한 순환 신경망 모델 활용 연구, 한국문헌정보학회지 51(4), 2017.11. 99-120페이지.
한상철 외 2인, 한국어 문장 생성을 위한 Variational Recurrent Auto-Encoder 개선 및 활용, 정보과학회논문지 45(2), 2018.2, 157-164페이지.

Also Published As

Publication number Publication date
KR20200047272A (en) 2020-05-07

Similar Documents

Publication Publication Date Title
CN111061856B (en) Knowledge perception-based news recommendation method
CN108399428B (en) Triple loss function design method based on trace ratio criterion
CN109918487A (en) Intelligent answer method and system based on network encyclopedia
CN114565104A (en) Language model pre-training method, result recommendation method and related device
CN114818703B (en) Multi-intention recognition method and system based on BERT language model and TextCNN model
Jha et al. A novel approach on visual question answering by parameter prediction using faster region based convolutional neural network
CN117529755A (en) Transfer learning in image recognition systems
KR102156249B1 (en) Indexing system and method using variational recurrent autoencoding
CN113297370A (en) End-to-end multi-modal question-answering method and system based on multi-interaction attention
CN115017911A (en) Cross-modal processing for vision and language
CN114037055A (en) Data processing system, method, device, equipment and storage medium
Kinaneva et al. Machine learning algorithms for regression analysis and predictions of numerical data
Alexiou et al. Automatic deep understanding of tables in technical documents
Sun et al. Local relation network with multilevel attention for visual question answering
Mazaheri et al. Visual text correction
CN117290478A (en) Knowledge graph question-answering method, device, equipment and storage medium
CN116450855A (en) Knowledge graph-based reply generation strategy method and system for question-answering robot
CN115730058A (en) Reasoning question-answering method based on knowledge fusion
Jung et al. Improving visual relationship detection using linguistic and spatial cues
CN115564013B (en) Method for improving learning representation capability of network representation, model training method and system
CN115359486A (en) Method and system for determining custom information in document image
CN111222533B (en) Deep learning visual question-answering method and system based on dependency tree
CN114579605A (en) Table question-answer data processing method, electronic equipment and computer storage medium
CN113963235A (en) Cross-category image recognition model reusing method and system
CN113821610A (en) Information matching method, device, equipment and storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant