KR102240910B1 - Korean Customer Service Associate Assist System based on Machine Learning - Google Patents

Korean Customer Service Associate Assist System based on Machine Learning Download PDF

Info

Publication number
KR102240910B1
KR102240910B1 KR1020190121209A KR20190121209A KR102240910B1 KR 102240910 B1 KR102240910 B1 KR 102240910B1 KR 1020190121209 A KR1020190121209 A KR 1020190121209A KR 20190121209 A KR20190121209 A KR 20190121209A KR 102240910 B1 KR102240910 B1 KR 102240910B1
Authority
KR
South Korea
Prior art keywords
question
customer
machine learning
similarity
sentence
Prior art date
Application number
KR1020190121209A
Other languages
Korean (ko)
Other versions
KR20210038260A (en
Inventor
이기백
Original Assignee
광운대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광운대학교 산학협력단 filed Critical 광운대학교 산학협력단
Priority to KR1020190121209A priority Critical patent/KR102240910B1/en
Publication of KR20210038260A publication Critical patent/KR20210038260A/en
Application granted granted Critical
Publication of KR102240910B1 publication Critical patent/KR102240910B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3349Reuse of stored results of previous queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/20Administration of product repair or maintenance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0281Customer communication at a business location, e.g. providing product or service information, consulting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Finance (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Tourism & Hospitality (AREA)
  • Game Theory and Decision Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Operations Research (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

머신 러닝 기반 한국 고객 서비스 어시스턴트 보조 시스템이 개시된다.
상기 시스템은 기계 학습 기반 고객 서비스 어시스턴트 보조 시스템의 서버; 고객의 자주 묻는 질문(FAQ)의 질문-응답 쌍이 저장된 데이터베이스; 및 고객 질문이 입력되면, 상기 서버로 상기 질문이 전송되며, 머신러닝 모듈이 상기 데이터베이스를 검색하여 고객 질문을 미리 정의된 FAQ 목록의 질문과 비교하며, 해당 고객 질문의 한글 문장을 음소 단위로 분해하고 각 음소를 벡터로 embedding하며, BiGRU 머신 러닝 모델을 사용하여 고객 질문과 FAQ 질문의 두 문장의 문장 유사도 모델(sentence similarity model) 학습 알고리즘을 사용하여 두 문장의 유사도(similarity)를 학습하여 유사도가 높은 상위 5개의 FAQ를 객관식으로 상담원에게 제시되고, 상담원이 FAQ 중 하나가 선택되면 자동으로 학습데이터로 변환하여 해당 질문에 답변을 출력하도록 하는 문장 유사도 모델 머신러닝 시스템을 포함한다.
A Korean customer service assistant assistance system based on machine learning is disclosed.
The system includes a server of a machine learning-based customer service assistant assistance system; A database storing question-response pairs of frequently asked questions (FAQs) of customers; And when a customer question is input, the question is transmitted to the server, the machine learning module searches the database and compares the customer question with the question in the predefined FAQ list, and breaks the Korean sentence of the customer question into phoneme units. And embedding each phoneme into a vector, using a BiGRU machine learning model to learn the similarity of the two sentences by using the sentence similarity model learning algorithm of the two sentences of the customer question and the FAQ question. It includes a sentence similarity model machine learning system that presents the highest five FAQs to the counselor in multiple choice, and automatically converts them to learning data and outputs answers to the corresponding questions when the counselor selects one of the FAQs.

Description

머신 러닝 기반 한국 고객 서비스 어시스턴트 보조 시스템{Korean Customer Service Associate Assist System based on Machine Learning}Korean Customer Service Associate Assist System based on Machine Learning}

본 발명은 머신 러닝 기반 한국 고객 서비스 어시스턴트 보조 시스템에 관한 것으로, 보다 상세하게는 인공지능의 자연어 처리 기술과 머신 러닝의 문장 유사도 측정(sentence similarity measure)을 위한 BiGRU(bidirectional gated recurrent unit) 머신 러닝의 기계 학습 엔진과 문장 유사도 모델(sentence similarity model)의 학습 알고리즘을 사용하며, 고객 서비스 시스템에서, 고객 질문에 대하여 서버의 데이터베이스에 저장된 미리 정의된 FAQ 질문-응답 쌍에서 두 문장의 질문을 비교하여 유사도가 가장 높은 top 5개의 FAQ를 상담원에게 객관식으로 제시하고, 상담원이 상위 5 개의 FAQ의 질문 중 일치하는 질문-응답 쌍(question-answer pairs) 중 하나를 선택하면, 서버의 데이터베이스에서 머신 러닝의 문장 유사도 모델에 따라 상담원의 선택 사항이 자동으로 훈련 데이터(training data)로 변환하여 고객 질문에 대한 응답을 출력하는, 머신 러닝 기반 한국 고객 서비스 어시스턴트 보조 시스템에 관한 것이다.The present invention relates to a machine learning-based Korean customer service assistant assistance system, and more particularly, to a natural language processing technology of artificial intelligence and a bidirectional gated recurrent unit (BIGRU) machine learning for sentence similarity measure of machine learning. A machine learning engine and a learning algorithm of a sentence similarity model are used, and the customer service system compares the questions of two sentences in a predefined FAQ question-response pair stored in the server's database for the customer's question. The top 5 FAQs with the highest value are presented to the agent in multiple choice, and the agent selects one of the matching question-answer pairs among the questions in the top 5 FAQs, and the machine learning sentence in the server's database The present invention relates to a machine learning-based Korean customer service assistant assistance system that automatically converts the counselor's choices into training data according to the similarity model and outputs a response to customer questions.

Digital Consumer Interaction Report1에 따르면, 고객 서비스 시스템에서 고객은 불만을 제기하거나 솔루션을 찾아야 하는 상황에서, 자연어 처리(Natural Language Processing, NLP)를 사용한 사용자 질의 응답 패턴에 대한 사전 학습을 사용하는 AI 챗봇(Chatbot) 보다는 직원과 대화하는 것을 선호한다고 한다. 그러나, 그 중 48.5 %만이 단일 쿼리(query)를 통해 해당 답변을 얻을 수 있었다. 또한, Talkdesk2에 대한 설문 조사에 따르면, 고객의 42 %가 "빠른 응답 속도"를 가장 중요한 문제로 선택했다. According to Digital Consumer Interaction Report 1, in a customer service system, in a situation where a customer needs to file a complaint or find a solution, an AI Chatbot that uses pre-learning of user question-and-answer patterns using Natural Language Processing (NLP). He says he prefers to talk with the employee rather than). However, only 48.5% of them were able to get the answer through a single query. In addition, according to a survey on Talkdesk2, 42% of customers chose "fast response rate" as their most important issue.

자연어 처리(NLP) 처리시에 문장들(sentences)은 언어를 탐지하고, 해당 언어의 특징에 따라 형태소 분석(morphological analysis)을 통해 형태소 단위(morpheme unit)로 구분되며, 선택된 형태소는 문장 벡터(sentence vectors)를 생성하는데 사용된다. 예를들면, 문장 벡터는 4 가지 쿼리 타입으로 분류된 FAQ들에서 각 질문(question)에서 추출된 속성들(attributes)로 구성된다. 사용자 쿼리 문장 벡터(user query sentence vector)와 이전에 수집된 쿼리 문장 벡터의 유사도 분석(similarity analysis)이 이루어진다. During natural language processing (NLP) processing, sentences detect language and are classified into morpheme units through morphological analysis according to the characteristics of the language, and the selected morpheme is a sentence vector (sentence). vectors). For example, a sentence vector is composed of attributes extracted from each question from FAQs classified into four query types. A similarity analysis is performed between the user query sentence vector and the previously collected query sentence vector.

자연어 처리(Natural Language Processing, NLP)는 자동 번역, 음성인식, 검색엔진, 챗봇 등에 사용된다. Natural Language Processing (NLP) is used in automatic translation, speech recognition, search engines, and chatbots.

AI 챗봇은 예를들면, 메신저에서 채팅하듯 질문을 입력하면, 인공지능(AI) 모듈이 데이터베이스를 검색하여 빅 데이터를 분석하고, 일상 언어로 사람과 대화를 하며 질문에 대한 답변 결과를 출력하는 대화형 메신저에 사용된다. AI chatbots are conversations in which, for example, when you enter a question as if you are chatting on a messenger, an artificial intelligence (AI) module searches a database to analyze big data, communicates with people in everyday language, and outputs the result of answering the question. Used for brother messenger.

챗봇은 질문 답변시에, 질문 데이터 수집- 질문 데이터베이스 검색- 기계학습(machine learning) 알고리즘- 질문에 대한 응답 단계로 구성된다. When answering a question, the chatbot consists of the steps of collecting question data-searching the question database-machine learning algorithm-and answering the question.

또한, AI 챗봇은 고객 서비스 시스템에서 고객 만족도를 높이는데 사용된다. 최근 연구에 따르면, 챗봇 기술은 집중적으로 발전하고 있으며[1], 챗봇이 직원을 대체할 수 있다[2]. 그러나, 챗봇은 부자연스러운 대화[3] 및 요구와의 불일치[4]와 같은 단점도 있다.In addition, AI chatbots are used to increase customer satisfaction in customer service systems. According to recent research, chatbot technology is developing intensively [1], and chatbots can replace employees [2]. However, chatbots also have disadvantages such as unnatural conversations [3] and inconsistency with demands [4].

챗봇의 지능을 6 세 아동 수준으로 추정하는 연구가 있었다[5]. 이 연구에 따르면, 고객 서비스에 AI 챗봇을 직접 사용하는 것은 분명한 한계가 있다.There was a study to estimate the intelligence of chatbots at the level of a 6-year-old child [5]. According to this study, there are obvious limitations to using AI chatbots directly for customer service.

또한, AI 음성인식 챗봇(Chatbot)은 음성 질의 데이터를 입력받아 음성 인식 후에 STT(Speech To Text) 텍스트 데이터를 입력받고, 데이터베이스를 검색(query)하여 빅 데이터를 분석하여 기계학습하여 그 답변 결과를 TTS(Text To Speech)를 실행하여 답변 결과 텍스트들과 음성 데이터를 빠른 답변을 제공한다. In addition, the AI voice recognition chatbot receives voice query data, receives STT (Speech To Text) text data after voice recognition, searches the database, analyzes big data, and machine learning the answer result. Execute TTS (Text To Speech) to provide quick answers with response result texts and voice data.

AI를 간접적으로 사용하는 다양한 문장 분류 알고리즘이 개시되어 있다[6-8]. Various sentence classification algorithms using AI indirectly have been disclosed [6-8].

[6] Yoon Kim의 문장 분류, 계산 및 언어를 위한 전통적인 신경망, "Convolutional Neural Networks for Sentence Classification, Computation and Language," arXiv preprint arXiv:14085882, 2014. [6] Yoon Kim's Traditional Neural Networks for Sentence Classification, Computation and Language, "Convolutional Neural Networks for Sentence Classification, Computation and Language," arXiv preprint arXiv:14085882, 2014.

[7] S Lai, L Xu, K Liu and J Zhao, 텍스트 분류를 위한 재귀적-합성곱 신경망(R-CNN), "Recurrent Convolutional Neural Networks for Text Classification," AAAI, pp 2267-2273, 2015. [7] S Lai, L Xu, K Liu and J Zhao, Recursive-Convolutional Neural Networks for Text Classification (R-CNN), "Recurrent Convolutional Neural Networks for Text Classification," AAAI, pp 2267-2273, 2015.

[8] T Joachims, SVM(support vector machines) 분류기를 갖는 텍스트 카테고리화: 관련 특징들을 갖는 학습, "Text categorization with support vector machines: Learning with many relevant features," European conference on machine learning, 1998. [8] T Joachims, Text categorization with support vector machines: Learning with many relevant features," European conference on machine learning, 1998.

그러나, 이러한 방법들은 클래스가 수정될 때 전체 훈련 과정이 반복되어야 하는 단점이 있다. 또한, 규칙(Rule) 기반 챗봇(Chatbot)은 미리 지정된 키워드(keyword)와 패턴(pattern)을 통해 사용자의 의도(Intent)를 파악하며, 자연어 처리(NLP)를 사용한 사용자 질의 패턴에 대한 사전 학습과, 학습된 질의들과의 유사도(similarity)를 분석하여 원하는 수준의 정확도(accuracy)를 달성하기 위해 많은 양의 훈련 데이터(training data)가 필수적이며, 사전에 훈련되고 형식이 지정된 훈련 데이터를 생성하는 것은 쉽지 않다.However, these methods have the disadvantage that the entire training process must be repeated when the class is modified. In addition, the Rule-based Chatbot grasps the user's intent through predefined keywords and patterns, and uses natural language processing (NLP) to pre-learn user query patterns and , A large amount of training data is essential to achieve the desired level of accuracy by analyzing the similarity with the learned queries, and generating pre-trained and formatted training data. It is not easy.

이와 관련된 선행기술1로써, 특허등록번호 10-1130444에서는 마이크로소프트 코포레이션이 등록된 "기계번역기법을 이용한 유사문장 식별 시스템"이 개시되어 있다. As prior art 1 related to this, in Patent Registration No. 10-1130444, a "similar sentence identification system using machine translation technique" registered by Microsoft Corporation is disclosed.

텍스트에서 유사문장을 식별하는 것은 자연어 처리(NLP) 시스템의 많은 적용예들에 있다. 유사 문장의 식별 및 생성의 예는 질의 답변(Question Answering) 시스템을 들 수 있다. The identification of similar sentences in text is in many applications of natural language processing (NLP) systems. An example of identification and generation of similar sentences is a question answering system.

선행기술1은 동일 사건에 대하여 작성된 다른 기사들의 클러스터로부터 텍스트 분절들의 세트를 획득한다. 텍스트 분절들의 세트는 그 후 텍스트 정렬기법을 수행하여 텍스트 내의 텍스트 분절로부터 유사문장들을 식별하도록 한다. 또한, 이는 유사문장을 생성하는데 사용될 수 있다.Prior art 1 obtains a set of text segments from a cluster of different articles written for the same event. The set of text segments then performs a text alignment technique to identify similar sentences from the text segments in the text. Also, it can be used to generate similar sentences.

유사문장(paraphrase) 처리시스템을 트레이닝(training)하는 방법으로서,As a method of training a paraphrase processing system,

복수의 다큐먼트를 액세스하는 단계;Accessing a plurality of documents;

상기 복수의 다큐먼트로부터, 공통 주제에 관해 서로 다른 작성자들에 의해 작성된 관련 텍스트들의 클러스터(cluster)를 식별하는 단계 - 상기 관련 텍스트들의 클러스터는 그 출처가 서로 다른 뉴스 에이전시들이고 공통 사건에 관한 것이라고 또한 식별됨 -;Identifying, from the plurality of documents, a cluster of related texts written by different authors on a common subject-the cluster of related texts is also identified as being from different news agencies and related to a common event. Become -;

상기 관련 텍스트들의 클러스터를 수신하는 단계;Receiving the cluster of related texts;

상기 클러스터로부터 텍스트 분절들(text segments)의 세트(set)를 선택하는 단계 - 상기 선택하는 단계는 상기 관련 텍스트들 중 필요한 텍스트 분절들을 관련 텍스트 분절들의 세트로 그룹화하는 단계를 포함함 -; 및Selecting a set of text segments from the cluster, wherein the selecting comprises grouping required text segments among the related texts into a set of related text segments; And

텍스트 정렬(textual alignment)을 이용하여 상기 관련 텍스트 분절들의 세트 내에 포함된 텍스트 분절들 내의 텍스트들 간의 유사문장 관계를 식별하는 단계를 포함하고,Identifying a similar sentence relationship between texts in text segments included in the set of related text segments using textual alignment,

상기 텍스트 정렬은 통계적 텍스트 정렬(statistical textual alignment)을 이용하여 상기 관련 텍스트 분절들의 세트 내의 텍스트 분절들 내의 단어들을 정렬하는 것, 및 상기 정렬된 단어들에 기초하여 상기 유사문장 관계를 식별하는 것을 포함한다. The text alignment includes aligning words in text segments in the set of related text segments using statistical textual alignment, and identifying the pseudo-sentence relationship based on the aligned words. do.

이와 관련된 선행기술2로써, 특허등록번호 10-1991486에서는 "문장 유사도 기반 다의어 데이터베이스 확장장치 및 그 방법"이 개시되어 있다. As prior art 2 related to this, in Patent Registration No. 10-1991486, "an apparatus and method for expanding a multi-word database based on sentence similarity" is disclosed.

문장 유사도 기반 다의어 데이터베이스 확장장치는 The multilingual database expansion device based on sentence similarity

다의어 지식 데이터베이스를 문장 유사도를 기반으로 확장하는 장치로서,As a device that expands the multilingual knowledge database based on sentence similarity,

상기 다의어 지식 데이터베이스에 포함된 다의어의 의미별 용례를 추가하여 확장하기를 원하는 단어인 확장대상 단어를 선정하고, 상기 확장대상 단어가 포함되어 있는 적어도 하나의 문서를 수집하며, 상기 수집된 문서에서 상기 확장대상 단어가 포함된 확장대상 문장만을 추출하는 문서 수집부;Selecting an expansion target word, which is a word desired to be expanded by adding a usage example for the meaning of a multi-word included in the multi-language knowledge database, collecting at least one document containing the expansion target word, and the collected document A document collection unit that extracts only the expansion target sentences including the expansion target words;

상기 다의어 지식 데이터베이스에 상기 확장대상 단어의 의미별 용례를 추가하기 위한 문장 유사도 계산에 사용되는 다중 의미를 지닌 단어(이하, '다의어 분석대상 단어'라 함)를 선정하고, 상기 다의어 분석대상 단어의 의미별 용례 및 상기 적어도 하나의 확장대상 문장에 대하여 형태소 분석을 수행하며, 상기 수행된 형태소 분석 결과에 따라 상기 다의어 분석대상 단어의 의미별 용례와 상기 확장대상 문장을 비교하여 유사도를 계산하고,Selecting a word with multiple meanings (hereinafter referred to as'multilingual analysis target word') used for sentence similarity calculation to add usage examples for each meaning of the expansion target word to the multilingual knowledge database, and A morpheme analysis is performed on the usage examples by meaning and the at least one extension target sentence, and a similarity is calculated by comparing the meaning by meaning of the multiword analysis target word with the extension target sentence according to the performed morpheme analysis result,

상기 계산 결과에 따라 다의어 의미를 분류하는 다의어 인식부;A multi-word recognition unit for classifying a multi-word meaning according to the calculation result;

상기 분류된 다의어 의미에 대한 신뢰도를 계산하고, 상기 계산된 신뢰도를 미리 설정된 임계 값과 비교하여 상기 확장대상 문장이 다의어 의미의 용례로 사용될 수 있을지 여부를 검증하여 상기 확장대상 문장이 용례로 사용될 수 있는 다의어 의미를 확정하는 다의어 검증부; 및Calculate the reliability of the classified multi-term meaning, and compare the calculated reliability with a preset threshold to verify whether the expansion target sentence can be used as an example of the multi-term meaning, and the expansion target sentence can be used as an example. A multi-word verification unit to determine the meaning of a multi-word; And

상기 확정된 다의어 의미에 대한 용례로 상기 확장대상 문장을 다의어 데이터베이스에 추가하는 데이터베이스 확장부를 포함한다. And a database expansion unit for adding the expanded target sentence to a multi-word database as an example for the determined multi-word meaning.

그러나, 고객 서비스 시스템은 고객 센터, 콜센터의 인공지능 시스템의 도입이 필요하며, 고객 질문에 대하여 상담원이 질문 답변(question-answer) 문제는 두 문장의 유사도 여부를 결정하는 문제로 응답시간이 많이 들었다. 또한, 머신 러닝 기술을 사용하여 고객의 질의를 미리 사전에 정의된 FAQ와 일치시켜 응답 시간을 효과적으로 단축하는 시스템을 제공하지 않았다. However, the customer service system requires the introduction of an artificial intelligence system for customer centers and call centers, and the question-answer problem of a customer in response to a customer's question is a problem that determines whether the two sentences are similar and takes a lot of response time. . In addition, it did not provide a system that effectively shortens the response time by matching customer inquiries with pre-defined FAQs using machine learning technology.

특허등록번호 10-1130444 (등록일자 2012년 3월 19일), "기계번역기법을 이용한 유사문장 식별 시스템", 마이크로소프트 코포레이션Patent registration number 10-1130444 (registration date March 19, 2012), "Similar sentence identification system using machine translation technique", Microsoft Corporation 특허등록번호 10-1991486 (등록일자 2019년 6월 14일), "문장 유사도 기반 다의어 데이터베이스 확장장치 및 그 방법", 한국전자통신연구원Patent Registration No. 10-1991486 (Registration Date June 14, 2019), "Multilingual Database Expansion Device Based on Sentence Similarity and Its Method", Electronics and Telecommunications Research Institute

Zumstein, Dand S Hundertmark, "Chatbots - An Inter-active Technology for Personalized Communication, Transactions and Services", IADIS International Journal on WWW/Internet, 2017 Zumstein, Dand S Hundertmark, "Chatbots-An Inter-active Technology for Personalized Communication, Transactions and Services", IADIS International Journal on WWW/Internet, 2017 Carl Benedikt Frey and Michael A Osborne, "The future of employment: How susceptible are jobs to computerisation?," Technological Forecasting and Social Change, 2017. Carl Benedikt Frey and Michael A Osborne, "The future of employment: How susceptible are jobs to computerisation?," Technological Forecasting and Social Change, 2017. Will Knight, "AI's Language Problem," MIT Tech-nology Review, 2016. Will Knight, "AI's Language Problem," MIT Tech-nology Review, 2016. Coniam, "The linguistic accuracy of chatbots: usability from an ESL perspective," Text & Talk, 2014. Coniam, "The linguistic accuracy of chatbots: usability from an ESL perspective," Text & Talk, 2014. Feng Liu, Yong Shi and Ying Liu, "Intelligence quotient and intelligence grade of artificial intell-igence" Annals of Data Science, Volume 4, Issue 2, pp. 179-191, June 2017. Feng Liu, Yong Shi and Ying Liu, "Intelligence quotient and intelligence grade of artificial intell-igence" Annals of Data Science, Volume 4, Issue 2, pp. 179-191, June 2017. Yoon Kim, "Convolutional Neural Networks for Sentence Classification, Computation and Language," arXiv preprint arXiv:14085882, 2014. Yoon Kim, "Convolutional Neural Networks for Sentence Classification, Computation and Language," arXiv preprint arXiv:14085882, 2014. S Lai, L Xu, K Liu and J Zhao, "Recurrent Convolutional Neural Networks for Text Classification," AAAI, pp 2267-2273, 2015. S Lai, L Xu, K Liu and J Zhao, "Recurrent Convolutional Neural Networks for Text Classification," AAAI, pp 2267-2273, 2015. T Joachims, "Text categorization with support vector machines: Learning with many relevant features," European conference on machine learning, 1998. T Joachims, "Text categorization with support vector machines: Learning with many relevant features," European conference on machine learning, 1998. Kyunghyun Cho, Bart Van Merrienboer, Caglar Gulcehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, and Yoshua Bengio, "Learning phrase reprentations using rnn encoder-decoder for statistical machine translation," arXiv preprint arXiv:14061078, 2014 Kyunghyun Cho, Bart Van Merrienboer, Caglar Gulcehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, and Yoshua Bengio, "Learning phrase reprentations using rnn encoder-decoder for statistical machine translation," arXiv preprint arXiv:14061078, 2014

상기 문제점을 해결하기 위한 본 발명의 목적은 인공지능의 자연어 처리(NLP) 기술과 머신 러닝(ML)의 문장 유사도 측정(sentence similarity measure)을 위한 BiGRU(bidirectional gated recurrent unit) 머신 러닝의 기계 학습 엔진과 문장 유사도 모델(sentence similarity model)의 학습 알고리즘을 사용하며, 고객 서비스 시스템에서, 고객 질문에 대하여 서버의 데이터베이스에 저장된 미리 정의된 FAQ 질문-응답 쌍에서 두 문장의 질문을 비교하여 유사도가 가장 높은 top 5개의 FAQ를 상담원에게 객관식으로 제시하고, 상담원이 상위 5 개의 FAQ의 질문 중 일치하는 질문-응답 쌍(question-answer pairs) 중 하나를 선택하면, 서버의 데이터베이스에서 머신 러닝의 문장 유사도 모델에 따라 상담원의 선택 사항이 자동으로 훈련 데이터(training data)로 변환하여 고객 질문에 대한 응답을 출력하는, 머신 러닝 기반 한국 고객 서비스 어시스턴트 보조 시스템을 제공한다. An object of the present invention for solving the above problem is a machine learning engine of bidirectional gated recurrent unit (BIGRU) machine learning for measuring sentence similarity of natural language processing (NLP) technology of artificial intelligence and machine learning (ML). It uses the learning algorithm of the sentence similarity model and, in the customer service system, compares the questions of two sentences in the predefined FAQ question-response pair stored in the database of the server for the customer question, and has the highest similarity. If the top 5 FAQs are presented to the agent in multiple choice, the agent selects one of the matching question-answer pairs among the top 5 FAQ questions, and the machine learning sentence similarity model is displayed in the server's database. Accordingly, it provides a machine learning-based Korean customer service assistant assistance system that automatically converts the counselor's choices into training data and outputs responses to customer questions.

본 연구는 고객 서비스 담당자가 고객의 질의를 사전 정의된 FAQ와 일치시켜 응답 시간을 효과적으로 단축하고, 시스템 업데이트를 위해 직원의 조치로부터 교육 데이터를 동시에 생성할 수 있도록 새로운 고객 서비스 어시스턴트 보조 시스템을 제안하였다. This study proposed a new customer service assistant assistance system so that customer service representatives can effectively shorten response time by matching customer inquiries with predefined FAQs, and simultaneously generate training data from employee actions for system update. .

본 발명의 목적을 달성하기 위해, 머신 러닝 기반 한국 고객 서비스 어시스턴트 보조 시스템은 기계 학습 기반 고객 서비스 어시스턴트 보조 시스템의 서버; 고객의 자주 묻는 질문(FAQ)의 질문-응답 쌍이 저장된 데이터베이스; 및 고객 질문이 입력되면 상기 서버로 상기 질문이 전송되며, 머신러닝 모듈이 상기 데이터베이스를 검색하여 상기 고객 질문을 미리 정의된 FAQ 목록의 질문과 비교하며, 상기 고객 질문의 한글 문장을 각 문자에 대하여 음소 단위로 분해하고 각 음소를 벡터로 embedding하며, 머신러닝 모델을 사용하여 고객 질문과 FAQ 질문의 두 문장의 문장 유사도 모델(sentence similarity model) 학습 알고리즘을 사용하여 두 문장의 유사도(similarity)를 학습하여 유사도가 높은 상위 k개의 FAQ를 객관식으로 상담원에게 제시되고 FAQ 중 하나가 선택되면 자동으로 학습데이터로 변환하여 해당 질문에 답변을 출력하도록 하는 문장 유사도 모델(sentence similarity model) 머신러닝 시스템을 포함하며,
상기 머신 러닝 모델은 머신 러닝의 문장 유사도 측정(sentence similarity measure)을 위한 BiGRU(bidirectional gated recurrent unit) 머신 러닝의 기계 학습 엔진과 문장 유사도 모델(sentence similarity model) 학습 알고리즘을 사용하며,
상기 문장 유사도 모델(Sentence similarity model)은
고객 질문의 토큰화 전처리 후, 각각의 토큰 시퀀스(each sequence of tokens)는 각 임베딩 레이어(Embedding layer)를 통해 임의의 벡터(random vector)로 임베디드 되며, 임베딩 크기(embedding size)를 256으로 설정했으며, 임의의 벡터는 문장 유사도 측정(sentence similarity measure)에 사용되는 BiGRU(bidirectional gated recurrent unit) 머신 러닝으로 계산되며,
고객 질문의 문장과 데이터베이스에서 선택된 FAQ의 질문-응답쌍의 문장, 두 문장의 유사도(similarity)는 완전 연결층(full connect layer)과 유클리드 거리(euclidian distance)를 사용한 sigmoid 함수로 계산되고,
두 문장(sentence1, sentence2)의 유사도(similarity)는 0과 1 사이의 값이 되며, 값이 1에 가까울수록 두 문장이 유사하고, 고객 질문(질의)와 학습 데이터와의 거리를 측정하기 위해 유클리드 거리 d(X,Y)를 사용하며, N차원 공간의 두 점 X = (x1,x2,x3,...

Figure 112021030449490-pat00001
)과 Y = (y1,y2,y3,...
Figure 112021030449490-pat00002
)이 주어질 때, 두 점 사이의 유클리드 거리는 d(X,Y)는
Figure 112021030449490-pat00003
계산된다. In order to achieve the object of the present invention, a machine learning-based Korean customer service assistant assistance system includes: a server of a machine learning-based customer service assistant assistance system; A database storing question-response pairs of frequently asked questions (FAQs) of customers; And when a customer question is input, the question is transmitted to the server, a machine learning module searches the database and compares the customer question with a question in a predefined FAQ list, and the Korean sentence of the customer question is converted for each character. It decomposes into phoneme units, embedding each phoneme into a vector, and uses a machine learning model to learn the similarity of two sentences using a sentence similarity model learning algorithm for the two sentences of the customer question and the FAQ question. It includes a sentence similarity model machine learning system that automatically converts the top k FAQs with high similarity to the agent in multiple choice and when one of the FAQs is selected and outputs the answers to the corresponding questions. ,
The machine learning model uses a machine learning engine of bidirectional gated recurrent unit (BIGRU) machine learning for sentence similarity measure of machine learning and a sentence similarity model learning algorithm,
The sentence similarity model is
After pre-processing of tokenization of customer questions, each sequence of tokens is embedded as a random vector through each embedding layer, and the embedding size is set to 256. , An arbitrary vector is calculated by bidirectional gated recurrent unit (BIGRU) machine learning used for sentence similarity measure,
The similarity of the sentence of the customer question and the question-response pair of the FAQ selected from the database, and the similarity of the two sentences is calculated by the sigmoid function using the full connect layer and the euclidian distance,
The similarity of the two sentences (sentence1, sentence2) is between 0 and 1, and the closer the value is to 1, the more similar the two sentences. Using the distance d(X,Y), two points in N-dimensional space X = (x1,x2,x3,...
Figure 112021030449490-pat00001
) And Y = (y1,y2,y3,...
Figure 112021030449490-pat00002
Given ), the Euclidean distance between two points is d(X,Y)
Figure 112021030449490-pat00003
Is calculated.

본 발명의 머신 러닝 기반 한국 고객 서비스 어시스턴트 보조 시스템은 인공지능의 자연어 처리(NLP) 기술과 머신 러닝(ML)의 문장 유사도 측정(sentence similarity measure)을 위한 BiGRU(bidirectional gated recurrent unit) 머신 러닝의 기계 학습 엔진과 문장 유사도 모델(sentence similarity model)의 학습 알고리즘을 사용하며, 고객 서비스 시스템에서, 고객 질문에 대하여 서버의 데이터베이스에 저장된 미리 정의된 FAQ 질문-응답 쌍에서 두 문장의 질문을 비교하여 유사도가 가장 높은 top 5개의 FAQ를 상담원에게 객관식으로 제시하고, 상담원이 상위 5 개의 FAQ의 질문 중 일치하는 질문-응답 쌍(question-answer pairs) 중 하나를 선택하면, 서버의 데이터베이스에서 머신 러닝의 문장 유사도 모델에 따라 상담원의 선택 사항이 자동으로 훈련 데이터(training data)로 변환하여 고객 질문에 대한 답변 응답을 출력하는 효과가 있다. The machine learning-based Korean customer service assistant assistance system of the present invention is a machine of bidirectional gated recurrent unit (BIGRU) machine learning for sentence similarity measure of natural language processing (NLP) technology of artificial intelligence and machine learning (ML). Using the learning engine and the learning algorithm of the sentence similarity model, the customer service system compares the questions of two sentences in a predefined FAQ question-response pair stored in the server's database for the customer's question. If the highest five FAQs are presented to the agent in multiple choice, and the agent selects one of the matching question-answer pairs among the top five FAQ questions, the machine learning's sentence similarity in the server's database Depending on the model, the counselor's choices are automatically converted into training data, which has the effect of outputting answers to customer questions.

본 연구는 고객 서비스 담당자가 고객의 질문을 서버 데이터베이스에 저장되고 미리 정의된 FAQ와 일치시켜 고객 질문에 대한 응답 시간을 효과적으로 단축하고, 시스템 업데이트를 위해 상담원(직원)의 조치로부터 학습 데이터를 동시에 생성할 수 있도록 새로운 고객 서비스 어시스턴트 보조 시스템을 제안하였다. In this study, a customer service representative can effectively shorten the response time to customer questions by storing customer questions in the server database and matching them with predefined FAQs, and simultaneously generate learning data from the actions of agents (employees) to update the system. A new customer service assistant assistance system has been proposed so that it can be done.

고객 서비스 시에, 질문 답변 문제는 두 문장의 유사 여부를 결정하는 문제로 단순화된다. 제안된 머신 러닝의 기계 학습 기반 한국 고객 서비스 어시스턴트 보조 시스템은 고객 질문에 대하여 미리 정의된 FAQ에서 상위 5 개의 FAQ 중 일치하는 하나의 FAQ의 질문-응답 쌍(question-answer pairs)이 선택한다. 즉 상담원이 5 개의 FAQ의 질문 중 하나의 FAQ를 선택하기 만하면 된다. 그런 다음, 상담원의 선택 사항이 자동으로 훈련 데이터(training data)로 변환되어 질문에 대한 응답이 출력된다. In customer service, the question-and-answer problem is simplified to the problem of determining whether two sentences are similar. In the proposed machine learning-based Korean customer service assistant assistance system, a question-answer pair of one of the top five FAQs is selected from a predefined FAQ for customer questions. In other words, the agent simply selects one of the five FAQ questions. Then, the agent's choices are automatically converted into training data, and the answers to the questions are output.

도 1은 각각의 문장(Sentence)의 BiGRU(bidirectional gated recurrent unit) 머신 러닝의 학습 모델 구조(learning model structure)를 보인 도면이다.
도 2는 머신 러닝 기반 한국 고객 서비스 어시스턴트 보조 시스템의 전체 서비스 구성도이다.
도 3은 베이스라인 데이터의 정확도(accuracy with only baseline data)를 나타낸 도면이다.
도 4는 자동적으로 생성된 데이터의 정확도(accuracy with only automatically generated data)를 나타낸 도면이다.
도 5는 첫번째 재-학습 방법을 갖는 정확도(accuracy with the first re-training method)를 나타낸 도면이다.
도 6은 두번째 재-학습 방법을 갖는 정확도(accuracy with the second re-training method)를 나타낸 도면이다.
도 7은 첫번째 반복 재-학습 방법의 정확도 변화(accuracy change over repeated re-trainings of the first method)를 나타낸 도면이다.
도 8은 두번째 반복 재-학습 방법의 정확도 변화(accuracy change over repeated re-trainings of the second method)를 나타낸 도면이다.
1 is a diagram showing a learning model structure of bidirectional gated recurrent unit (BIGRU) machine learning of each sentence.
2 is a diagram showing the overall service configuration of a Korean customer service assistant assistance system based on machine learning.
3 is a diagram showing accuracy with only baseline data.
4 is a diagram showing the accuracy of automatically generated data (accuracy with only automatically generated data).
5 is a diagram showing accuracy with the first re-training method.
6 is a diagram showing accuracy with the second re-training method.
7 is a diagram showing an accuracy change over repeated re-trainings of the first method.
8 is a diagram showing an accuracy change over repeated re-trainings of the second method.

이하, 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 발명의 구성 및 동작을 상세하게 설명한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명은 고객 서비스 직원이 고객의 질문에 답변하는데 도움이 되는 새로운 고객 서비스 어시스턴트 보조 시스템을 제안한다. 제안된 고객 서비스 어시스턴트 보조 시스템의 알고리즘은 다음과 같다. The present invention proposes a new customer service assistant assistance system that helps customer service personnel answer customer questions. The algorithm of the proposed customer service assistant assistance system is as follows.

첫째, 특정 고객 서비스 웹사이트, 메신저 시스템 또는 페이스북 등 소셜 커뮤니티 사이트에 접속하여 고객이 상담원(직원)에게 질문(question)이 입력되면, 해당 질문은 기계 학습 기반 고객 서비스 어시스턴트 보조 시스템으로 전송된다. 그런 다음, 기계 학습 기반 고객 서비스 어시스턴트 보조 시스템은 수신된 질문을 미리 정의된 FAQ(frequently asked questions) 목록의 질문과 비교한다. 그 후 고객 서비스 어시스턴트 보조 시스템은 미리 정의된 FAQ로부터 상위 5개의 질문-응답 쌍(question-answer pairs)을 제공하며, 최종적으로 상담원은 5개 권고 사항 중에서 하나의 질문을 선택한다. 그후, 선택된 질문은 자동적으로 학습 데이터(learning data)를 전달하여 해당 답변을 출력한다. First, when a customer accesses a specific customer service website, a messenger system, or a social community site such as Facebook and a customer inputs a question to an agent (employee), the question is transmitted to a machine learning-based customer service assistant assistance system. Then, the machine learning-based customer service assistant assistance system compares the received question with the questions in a predefined frequently asked questions (FAQ) list. The customer service assistant assistance system then provides the top five question-answer pairs from the predefined FAQ, and finally the agent selects one question from the five recommendations. After that, the selected question automatically delivers learning data and outputs the corresponding answer.

결과적으로, 상담원(직원)의 선택에 의해 추가 교육 데이터가 자동으로 생성되며, 시스템의 재학습에 사용된다. 실험 결과는 제안된 고객 서비스 어시스턴트 보조 시스템의 자동 생성 데이터가 시스템의 정확도(accuracy)를 재귀적으로 강화하는 것을 보여준다.As a result, additional training data is automatically generated by the selection of the counselor (employee) and used for relearning of the system. Experimental results show that the automatically generated data of the proposed customer service assistant assistance system recursively enhances the accuracy of the system.

본 과제는 다음과 같이 구성된다. 섹션 2와 3은 학습 모델과 제안된 방법론을 각각 자세히 설명한다. 섹션 4는 실험 결과, 섹션 5는 결론을 제시한다.This task is structured as follows. Sections 2 and 3 detail the learning model and the proposed methodology, respectively. Section 4 presents experimental results and Section 5 presents conclusions.

II. 학습 모델(learning model)II. Learning model

고객 서비스 어시스턴트 보조 시스템의 학습 모델은 3 가지 프로세스로 구성된다. The learning model of the customer service assistant assistance system consists of three processes.

프로세스; i) 전처리(preprocess), ii) 임베딩(embedding), 및 iii) BiGRU(bidirectional gated recurrent unit) 머신 러닝 process; i) preprocess, ii) embedding, and iii) bidirectional gated recurrent unit (BIGRU) machine learning

1) 고객 질문의 한글 문장을 각 문자에 대하여 음소 단위로 분해하고, 2) 각 음소를 벡터로 embedding하며(embedding size 256으로 설정), 3) BiGRU(bidirectional gated recurrent unit) 머신 러닝을 이용해 두 문장의 유사도를 학습한다. 1) The Korean sentence of the customer's question is decomposed into phoneme units for each character, 2) each phoneme is embedding into a vector (embedding size is set to 256), and 3) two sentences are used using bidirectional gated recurrent unit (BIGRU) machine learning. Learn the degree of similarity.

4) 상담원의 고객 응대에 활용하는데 있어서, 서버 데이터베이스에 미리 저장된 고객 질문-응답 쌍들이 준비되며,4) In the use of counselors to respond to customers, customer question-response pairs stored in advance in the server database are prepared,

5) (고객 질문 - 서버의 데이터베이스에 기 저장된 FAQ들 중에 하나)의 형태로 각각 비교하고, 5) Compare each in the form of (customer question-one of the FAQs previously stored in the server's database),

6) 고객 질문과 선택된 하나의 FAQ의 질문 유사도를 비교하여 두 문장의 유사도가 가장 높은 top 5개의 FAQ를 상담원에게 객관식으로 제시한다. 6) Compare the customer question with the question similarity of one selected FAQ, and present the top 5 FAQs with the highest similarity between the two sentences in multiple choice.

7) 상담원은 이 중 실제 고객의 질문에 대한 답이 존재하면, 5개의 FAQ 중 하나를 선택7) If there is an answer to the actual customer's question among these, the agent selects one of the 5 FAQs.

8) 실제 고객의 질문에 대한 답이 존재하지 않으면, '존재하지 않음' 항목을 선택한다.8) If the answer to the actual customer's question does not exist, select the'Does not exist' item.

9) 상담원이 항목을 선택하면, 이는 즉시 새로운 학습 데이터로 자동 변환하여 데이터베이스에 저장 9) When the agent selects an item, it is automatically converted to new learning data and saved in the database immediately.

10) 이후 주기적으로 새롭게 모인 학습 데이터로 모델을 재학습해 데이터베이스에 업데이트 10) After that, the model is periodically retrained with newly collected training data and updated in the database.

A. 전처리(Preprocess)A. Preprocess

한국어 ‘Hangul’은 19개 초성 자음(initial consonants), 21 개 모음(vowels), 27개 종성 자음(final consonants)들로 구성된다. Korean'Hangul' consists of 19 initial consonants, 21 vowels, and 27 final consonants.

예를 들면, 문자‘한’은 (초성 자음‘ㅎ’) + (모음‘ㅏ’)+ (종성 자음‘ㄴ’)으로 구성되며, 발음은 ‘han’과 같이 발음된다. For example, the letter'한' is composed of (initial consonant'ㅎ') + (vowel'ㅏ') + (final consonant'ㄴ'), and the pronunciation is pronounced like'han'.

Figure 112021030449490-pat00004
Figure 112021030449490-pat00004

표 I에 보인 바와 같이, 각 요소에 대해 토큰(token)은 다음과 같이 제공된다.As shown in Table I, for each element a token is provided as follows.

고객 서비스 어시스턴트 보조 시스템(700)은 Customer Service Assistant Assistance System 700

고객 서비스 시스템의 서버(710); A server 710 of a customer service system;

상담원이 고객 응대시, 고객이 자주 묻는 질문(FAQ, frequently asked questions)의 질문-응답 쌍이 저장된 데이터베이스(720); 및 A database 720 in which a question-response pair of frequently asked questions (FAQ) is stored when an agent responds to a customer; And

고객이 채팅하듯 질문이 입력되면, 상기 서버(710)로 질문이 전송되며, 머신러닝 모듈이 상기 데이터베이스를 검색하여 기 설정된 갯수의 FAQ의 질문-응답 쌍 데이터를 비교하여 고객의 질문을 미리 정의된 FAQ 목록의 질문과 비교하며, 고객의 질문의 한글 문장을 각 문자에 대하여 음소 단위로 분해하고 각 음소를 벡터로 embedding하며 BiGRU 머신러닝 모델을 사용해 두 문장의 유사도(similarity)를 학습하여 해당 질문에 답변을 출력하도록 하는 문장 유사도 모델(sentence similarity model) 머신러닝 시스템(730)을 포함하며, When a question is input as a customer chats, the question is transmitted to the server 710, and the machine learning module searches the database and compares the question-response pair data of a preset number of FAQs to define the customer's question in advance. It compares with the questions in the FAQ list, decomposes the Korean sentence of the customer's question into phoneme units for each character, embedding each phoneme into a vector, and learns the similarity of the two sentences using the BiGRU machine learning model to answer the question. It includes a sentence similarity model (sentence similarity model) machine learning system 730 to output the answer,

상기 머신 러닝 모델은 머신 러닝의 문장 유사도 측정(sentence similarity measure)을 위한 BiGRU(bidirectional gated recurrent unit) 머신 러닝의 기계 학습 엔진과 문장 유사도 모델(sentence similarity model) 학습 알고리즘을 사용하며,
상기 문장 유사도 모델(Sentence similarity model)은
고객 질문의 토큰화 전처리 후, 각각의 토큰 시퀀스(each sequence of tokens)는 각 임베딩 레이어(Embedding layer)를 통해 임의의 벡터(random vector)로 임베디드 되며, 임베딩 크기(embedding size)를 256으로 설정했으며, 임의의 벡터는 문장 유사도 측정(sentence similarity measure)에 사용되는 BiGRU(bidirectional gated recurrent unit) 머신 러닝으로 계산되며,
고객 질문의 문장과 데이터베이스에서 선택된 FAQ의 질문-응답쌍의 문장, 두 문장의 유사도(similarity)는 완전 연결층(full connect layer)과 유클리드 거리(euclidian distance)를 사용한 sigmoid 함수로 계산되고,
두 문장(sentence1, sentence2)의 유사도(similarity)는 0과 1 사이의 값이 되며, 값이 1에 가까울수록 두 문장이 유사하고, 고객 질문(질의)와 학습 데이터와의 거리를 측정하기 위해 유클리드 거리 d(X,Y)를 사용하며, N차원 공간의 두 점 X = (x1,x2,x3,...

Figure 112021030449490-pat00005
)과 Y = (y1,y2,y3,...
Figure 112021030449490-pat00006
)이 주어질 때, 두 점 사이의 유클리드 거리는 d(X,Y)는
Figure 112021030449490-pat00007
계산된다. The machine learning model uses a machine learning engine of bidirectional gated recurrent unit (BIGRU) machine learning for sentence similarity measure of machine learning and a sentence similarity model learning algorithm,
The sentence similarity model is
After pre-processing of tokenization of customer questions, each sequence of tokens is embedded as a random vector through each embedding layer, and the embedding size is set to 256. , An arbitrary vector is calculated by bidirectional gated recurrent unit (BIGRU) machine learning used for sentence similarity measure,
The similarity of the sentence of the customer question and the question-response pair of the FAQ selected from the database, and the similarity of the two sentences is calculated by the sigmoid function using the full connect layer and the euclidian distance,
The similarity of the two sentences (sentence1, sentence2) is between 0 and 1, and the closer the value is to 1, the more similar the two sentences. Using the distance d(X,Y), two points in N-dimensional space X = (x1,x2,x3,...
Figure 112021030449490-pat00005
) And Y = (y1,y2,y3,...
Figure 112021030449490-pat00006
Given ), the Euclidean distance between two points is d(X,Y)
Figure 112021030449490-pat00007
Is calculated.

상기 고객 서비스 어시스턴트 보조 시스템(700)은 고객 질문(question)이 서버(710)로 입력되면, 고객 질문은 문장/탭으로 분리된 단어에 각 문자에 대하여 초 초성 자음, 모음, 그리고 종성 자음들로 분해된다. 분해된 요소들(decomposed elements)은 표 1에 주어진 해당 토큰들(tokens)에 의해 교체된다. 하나의 질문은 일련의 토큰들(sequence of tokens)로 변환된다.When a customer question is input to the server 710, the customer service assistant assistance system 700 provides a first consonant, a vowel, and a final consonant for each character in a word divided into sentences/tabs. Disintegrates. Decomposed elements are replaced by corresponding tokens given in Table 1. One question is converted into a sequence of tokens.

토큰의 최대 시퀀스의 길이는 150으로 고정된다. 150보다 길면 초과된 부분이 절단된다. 시퀀스가 150보다 짧은 나머지 섹션은 0으로 채워져 토큰화된다. 결과적으로, 질문은 표 2에 도시된 바와 같이 토큰화된다.The length of the maximum sequence of tokens is fixed at 150. If it is longer than 150, the excess is cut off. The remaining sections whose sequence is shorter than 150 are filled with zeros and tokenized. Consequently, the questions are tokenized as shown in Table 2.

Question "예약 취소 되나요?"
("Can/May I cancel the reservation?)
Decomposition [ㅇ,ㅖ.ㅇ,ㅑ,ㄱ,ㅊ,ㅜ,l,ㅅ,ㅗ,ㄷ,
ㅗ,l,ㄴ,ㅏ,ㅇ,ㅛ,?]
Tokenization [ 12,27,12,22,41,15,36,10,28,100,4,
31,3,20,12,32,131,0,0, ...0]

TABLE II VERTORIZATION OF KOREAN QUESTION
Question "Can I cancel my reservation?"
("Can/May I cancel the reservation?)
Decomposition [ㅇ,ㅖ.ㅇ,ㅑ,ㄱ,ㅊ, ㅜ,l,ㅅ,ㅗ,ㄷ,
ㅗ,l,ㄴ,ㅏ,ㅇ,ㅛ,?]
Tokenization [12,27,12,22,41,15,36,10,28,100,4,
31,3,20,12,32,131,0,0, ...0]

TABLE II VERTORIZATION OF KOREAN QUESTION

B. 문장 유사도 모델(Sentence similarity model)B. Sentence similarity model

질문의 토큰화 전처리 후, 각각의 토큰 시퀀스(each sequence of tokens)는 각 임베딩 레이어(Embedding layer)를 통해 임의의 벡터(random vector)로 임베디드 된다. 본 연구에서 임베딩 크기(embedding size)를 256으로 설정했다. 임의의 벡터는 각 BiGRU로 계산된다. BiGRU(bidirectional gated recurrent unit)는 문장 유사도 측정(sentence similarity measure)[9] 용으로 잘 알려져 있다. After the tokenization preprocessing of the question, each sequence of tokens is embedded as a random vector through each embedding layer. In this study, the embedding size was set to 256. Any vector is computed for each BiGRU. The bidirectional gated recurrent unit (BIGRU) is well known for its sentence similarity measure [9].

고객 질문의 문장과 데이터베이스에서 선택된 FAQ의 질문-응답쌍의 문장, 두 문장의 유사도(similarity)는 완전 연결층(full connect (FC) layer)과 유클리드 거리(euclidian distance)를 사용한 sigmoid 함수로 계산된다. The similarity of the sentence of the customer question and the question-response pair of the FAQ selected from the database, and the similarity of the two sentences is calculated by the sigmoid function using the full connect (FC) layer and the euclidian distance. .

두 문장(sentence1, sentence2)의 유사도(similarity)는 0과 1 사이의 값이다. 값이 1에 가까울수록 두 문장이 유사하다. 질의와 학습 데이터와의 거리를 측정하기 위해 유클리드 거리 d(X,Y)를 사용한다. N차원 공간의 두 점 X = (x1,x2,x3,...

Figure 112021030449490-pat00008
)과 Y = (y1,y2,y3,...
Figure 112021030449490-pat00009
)이 주어질 때, 두 점 사이의 유클리드 거리는 d(X,Y)는 다음과 같이 계산된다. The similarity of two sentences (sentence1, sentence2) is between 0 and 1. The closer the value is to 1, the more similar the two sentences are. The Euclidean distance d(X,Y) is used to measure the distance between the query and the training data. Two points in N-dimensional space X = (x1,x2,x3,...
Figure 112021030449490-pat00008
) And Y = (y1,y2,y3,...
Figure 112021030449490-pat00009
Given ), the Euclidean distance between two points is calculated as d(X,Y)

Figure 112021030449490-pat00010
Figure 112021030449490-pat00010

sigmoid 함수는 비선형 함수(nonlinear)로써, τ1(x)가 비선형적인 0~1 사이의 값을 갖는 이진 모드(binary mode) sigmoid 함수,

Figure 112021030449490-pat00011
; 및The sigmoid function is a nonlinear function, a binary mode sigmoid function having a value between 0 and 1 where τ1(x) is nonlinear,
Figure 112021030449490-pat00011
; And

τ2(x)가 비선형적인 -1~1 사이의 값을 갖는 양극 모드(bipolar mode) sigmoid 함수

Figure 112021030449490-pat00012
로 구분된다. Bipolar mode sigmoid function with a value between -1 and 1 where τ2(x) is nonlinear
Figure 112021030449490-pat00012
It is divided into.

이진 모드 sigmoid 함수는

Figure 112021030449490-pat00013
과 같이 표현되며, α는 경사도를 결정하며, α가 클수록 경사가 급하다. The binary mode sigmoid function is
Figure 112021030449490-pat00013
It is expressed as, α determines the slope, and the larger α, the steeper the slope.

Figure 112021030449490-pat00014
, 이진 모드 sigmoid 함수
Figure 112021030449490-pat00014
, Binary mode sigmoid function

Figure 112021030449490-pat00015
, 양극 모드 sigmoid 함수
Figure 112021030449490-pat00015
, Bipolar mode sigmoid function

III. 제안된 방법 III. Proposed method

A. 기본 모델 교육(Baseline model training)A. Baseline model training

처음에는 60,000 쌍의 질문(question)이 Web을 통해 수집된다.Initially, 60,000 pairs of questions are collected through the Web.

여러 한국 포털 사이트에서 수집된 데이터는 약속된 형식으로 수정되고, 훈련(training)에 사용된다. 훈련에 사용되는 두 개의 문장 파일(sentence file)과 레이블 파일(label file)이 있다. Data collected from various Korean portal sites are modified in a promised format and used for training. There are two sentences file and a label file used for training.

첫째, 문장 파일(sentence file)에서 각 줄(each line)은 탭(tab)에 의해 분리된 한 쌍의 문장(a pair of sentences)을 포함한다. 둘째, 라벨 파일(label file)에서 각 줄은 '1' 또는 '0'의 값을 갖는다. 두 문장에서 문장 쌍(sentence pair in the sentence file)이 비슷하면 해당 라벨이 '1'이고, 그렇지 않으면 라벨은 '0'이다. 기준 데이터 세트(baseline data set)와 같이, 30000 쌍의 문장(sentences)과 해당 레이블(labels)이 작성된다. 라벨의 비율(The ratio of the label)은 '1' to '0’은 1 : 1이다.First, in a sentence file, each line includes a pair of sentences separated by tabs. Second, each line in the label file has a value of '1' or '0'. If the sentence pair in the sentence file is similar, the label is '1'; otherwise, the label is '0'. As with the baseline data set, 30000 pairs of sentences and corresponding labels are created. The ratio of the label is '1' to '0' is 1:1.

B. Service-on-the-loop data 획득B. Service-on-the-loop data acquisition

제안된 고객 서비스 어시스턴트 보조 시스템에서, 훈련 데이터는 고객 서비스 동안 자동으로 생성될 수 있다. 고객 질문이 입력되면, 고객 질문이 고객 서비스 어시스턴트 보조 시스템으로 전송된다. 그런 다음 서버의 데이터베이스에 저장된 FAQ와 일치하는 상위 5 개의 FAQ의 질문-응답 쌍이 서비스 직원(상담원)에게 표시되고, 서비스 직원은 그 중 하나의 FAQ를 선택한다. 결과적으로, 데이터베이스에 새로운 데이터가 작성된다. 이 절차는 도 2와 다음과 같이 5 단계로 요약할 수 있다.In the proposed customer service assistant assistance system, training data can be automatically generated during customer service. When a customer question is entered, the customer question is transmitted to the customer service assistant assistance system. The question-response pairs of the top five FAQs that match the FAQs stored in the server's database are then displayed to the service staff (agent), and the service staff selects one of them. As a result, new data is written to the database. This procedure can be summarized in 5 steps as shown in FIG. 2 and below.

1) 입력 질문(Input question) : Customer asks a question. 1) Input question: Customer asks a question.

2) 서버로 질문 전달(transfer the question) 2) transfer the question to the server

서버는 입력된 고객 질문 및 FAQ 리스트를 머신 러닝의 기계 학습 엔진과 문장 유사도 모델 학습 알고리즘을 사용하는 머신 러닝 학습 모델(learning model)로 전송한다.The server transmits the input customer question and FAQ list to a machine learning model using a machine learning engine of machine learning and a sentence similarity model learning algorithm.

3) Recommendations3) Recommendations

상기 문장 유사도 학습 모델은 고객 질문에 대응하는 문장 유사도가 가장 높은 top 5개의 FAQs를 서비스 직원에게 표시한다. The sentence similarity learning model displays the top 5 FAQs with the highest sentence similarity corresponding to customer questions to the service staff.

4) 권장사항 FAQ들(recommended FAQs)을 보임 4) Show recommended FAQs

고객 서비스 어시스턴트 보조 시스템은 고객 서비스 직원(상담원)에게 권장사항 FAQ들(recommended FAQs)을 표시한다.The customer service assistant assistance system displays recommended FAQs to the customer service staff (agent).

5) 데이터 획득5) data acquisition

고객 서비스 직원은 권장 사항 FAQ들 중에서 하나의 FAQ를 선택한다. 결과적으로 새로운 고객 질문 데이터가 자동으로 생성되어 데이터베이스에 저장된다. 고객 질문에 대하여 서버 데이터베이스에 저장된 고객 서비스 직원이 선택한 FAQ가 있는 데이터는 '1'로 표시되고, FAQ에 고객 질문이 없는 데이터(나머지)는 '0'으로 표시된다.The customer service staff selects one of the recommended FAQs. As a result, new customer question data is automatically created and stored in the database. Data with FAQs selected by the customer service staff stored in the server database for customer questions is displayed as '1', and data without customer questions in the FAQ (the rest) are displayed as '0'.

실시예에서는, 고객 서비스 어시스턴트 보조 시스템(700)은 고객 질문에 대하여 문장 유사도가 높은 상위 5개의 FAQ를 객관식으로 서비스 직원에게 제시되고, 상기 서비스 직원이 권장 사항 FAQ들 중에서 하나의 FAQ를 선택하며, 해당하는 고객 질문에 대한 응답이 출력된다, In an embodiment, the customer service assistant assistance system 700 presents the top five FAQs having high sentence similarity with respect to the customer question to the service staff in multiple choice, and the service staff selects one of the recommended FAQs, The response to the corresponding customer question is displayed,

C. 재학습(Re-training)C. Re-training

고객 서비스 직원이 선택한 FAQ에 없는 고객 질문 데이터는 '0'으로 표시되며, 새로운 고객 질문 데이터는 학습 모델(learning model)을 사용하여 질문-응답 쌍을 다시 재구성하여 서버 데이터베이스에 저장하여 상기 머신 러닝 모델을 사용하여 재학습(re-train)하는데 사용될 수 있다. 재학습은 두 가지 방법으로 수행할 수 있다. Customer question data that is not in the FAQ selected by the customer service staff is displayed as '0', and the new customer question data is re-constructed using a learning model and stored in the server database to store the machine learning model. Can be used to re-train using. Relearning can be done in two ways.

첫 번째 방법은 상기 머신 러닝의 기계 학습 엔진과 문장 유사도 모델 학습 알고리즘을 사용하는 머신 러닝 모델(기본 모델, baseline model)의 가중치들(weights)을 유지하고 새로운 데이터로 훈련을 다시 시작하는 것이다. The first method is to maintain the weights of the machine learning model (baseline model) using the machine learning engine of the machine learning and the sentence similarity model learning algorithm, and start training again with new data.

두 번째 방법은 FAQ의 기본 데이터(질문-응답 쌍)와 입력되는 새로운 고객 질문 데이터를 통합하고 초기화 된 처음부터 질문-응답 쌍을 다시 서버 데이터베이스에 저장하여 학습을 다시 시작한다. 이러한 종류의 원형 구조(circular structure)를 사용하면, 고객 서비스 시스템의 고객 질문-응답의 정확도를 지속적으로 자동으로 향상시킬 수 있다.The second method integrates the basic data of the FAQ (question-response pair) and the new customer question data that is input, and starts learning again by storing the question-response pair in the server database from the initial initial stage. Using this kind of circular structure, it is possible to continuously and automatically improve the accuracy of customer question-and-answer in customer service systems.

일반적인 문장들(네이버 지식인 자료 크롤링)로 학습한 모델보다, 제안한 방법을 이용해 고객 서비스 어시스턴트 보조 시스템에 실제 새롭게 모인 고객 질문 데이터에 대하여 학습데이터로 재학습한 경우, 해당 고객 서비스 영역의 고객 질문의 문장 유사도가 더 정확하게 예측되었다. Rather than a model trained with general sentences (Naver intellectual data crawling), if the customer question data actually gathered in the customer service assistant assistance system is re-learned with the training data using the proposed method, the sentence of the customer question in the corresponding customer service area Similarity was predicted more accurately.

본 발명의 가장 대표적인 장점 또는 특징은, The most representative advantages or features of the present invention are,

1) 새로운 고객 서비스를 시작할 때 특별히 고객 질문 데이터를 많이 모을 필요가 없으며, 고객 서비스를 진행하며 자동으로 서버의 데이터베이스에 저장되는 고객 질문 데이터가 쌓여 더 정확한 고객 질문-응답 모델로 응답 시간을 단축하여 고객 서비스 품질이 개선된다.1) When starting a new customer service, there is no need to collect a lot of customer question data, and customer question data stored in the database of the server automatically accumulates during customer service, reducing the response time with a more accurate customer question-response model. The quality of customer service is improved.

2) 고객 서비스 직원(상담원)을 대체하는 것이 아닌 지원하는 것이며, 주관식 문제를 객관식으로 바꿔줌으로써 고객 서비스의 질을 상담원 개개인의 능력과 관계없이 상향 평준화할 수 있는 점(이는 고객들의 불만이 보통 저학력 상담원이 질문을 잘 이해 못하는 것에 있는 것을 감안하면 기존 챗봇류 서비스와는 결이 다른 장점)입니다. 2) Customer service staff (counselors) are not replaced, but supported, and the quality of customer service can be leveled upwards regardless of the individual's ability by changing the subject matter to multiple choice (this means that customers' complaints are usually low-educated. Considering that the agent does not understand the question well, it is a different advantage than the existing chatbot service).

III. 실험결과III. Experiment result

A. 실험 환경A. Experimental environment

기본 모델(Baseline model)은 여러 한국어 포털 웹 사이트에서 웹 크롤링하여 데이터를 학습했다. 기본 훈련 데이터의 수는 30,000이고 레이블 '1'과 '0'의 비율은 1 : 1 이다. FAQ 목록으로, 기본 FAQ에 대한 포털 웹 사이트와는 완전히 다른 Facebook FAQ 웹 페이지에서 13 개의 FAQ가 무작위로 선택되었다. The Baseline model learned data by web crawling on several Korean portal websites. The number of basic training data is 30,000, and the ratio of labels '1' to '0' is 1:1. As a list of FAQs, 13 FAQs were randomly selected from the Facebook FAQ web page, which is completely different from the portal website for the default FAQ.

실제 고객 질문(real customer questions)을 얻기가 쉽지 않기 때문에, 고객 질문은 Facebook 고객 커뮤니티에서 웹 크롤링을 통해 인위적으로 질문 데이터를 수집하여 서버의 데이터베이스에 저장되었다. 질문 데이터의 배치 크기(batch size)는 128이고, 질문 데이터에 대한 벡터의 임베딩 크기(embedding size)는 256으로 머신 러닝을 사용한 문장 유사도 모델 학습 실험을 수행하였다. 실행 속도(학습률)는 0.001로 설정되었고, 토큰의 최대 시퀀스 길이(maximum length of sequence of token)는 150으로 설정되었다. Because it is not easy to get real customer questions, customer questions were artificially collected in the database of the server through web crawling by the Facebook customer community. The batch size of the question data was 128, and the embedding size of the vector for the question data was 256, and a sentence similarity model training experiment using machine learning was performed. The execution rate (learning rate) was set to 0.001, and the maximum length of sequence of tokens was set to 150.

우리는 Adam optimizer를 사용했으며, 이진 교차 엔트로피(binary cross entropy)는 손실 함수(loss function)로 사용되었다. We used the Adam optimizer, and binary cross entropy was used as the loss function.

이진 교차 엔트로피는 머신 러닝의 결정 트리 학습 알고리즘을 사용하여 분류(classification)를 위한 의사결정 트리(Decision Tree)의 루트 노드(root node)로부터 단말 노드(leaf node)까지 모든 데이터를 규칙(rule)에 근거하여 분할 속성(splitting attribute)에 의해 자식 노드(child node)를 만들고 학습할 때, 예측 정확도를 위해 상기 학습 데이터들이 각각 0~1 사이의 값을 갖는다.Binary cross entropy uses machine learning's decision tree learning algorithm to convert all data from the root node of the decision tree to the leaf node for classification into a rule. When a child node is created and learned based on a splitting attribute, each of the training data has a value between 0 and 1 for prediction accuracy.

엔트로피 I는 데이터 집합(data set)의 동질적인(homogeneous) 정도를 측정하는 측도로 사용된다. Entropy I is used as a measure to measure the degree of homogeneousness of a data set.

정확도(accuracy)는 이진 분류(binary classification), 다중 클래스 분류(multi-class classification)에서 머신 러닝의 분류 모델의 예측(prediction)이 얼마나 정확한지를 의미한다. Accuracy refers to how accurate the prediction of a classification model in machine learning in binary classification and multi-class classification is.

상기 머신 러닝의 기계 학습 엔진과 문장 유사도 모델 학습 알고리즘을 사용하는 머신 러닝 모델(기본 모델)의 최종 출력은 0과 1 사이의 값이며, 이는 유사도(similarity)를 의미한다. 유사도의 값 1은 두 문장이 동일함을 의미한다. 정확도는 미리 사전에 정의된 테스트 세트(test set)를 통해 계산된다. 테스트 세트는 훈련(training)에 사용되지 않는 '1'레이블이 붙은 문장 쌍으로 구성된다. 이 문장 쌍은 입력된 고객 질문과, 서버 데이터베이스에 저장된 해당 고객 질문-응답 쌍들을 포함하는 FAQ 목록으로 구성된다. 각 고객 질문 입력에 대해 정정된 출력(correct output)은 정답이 고객 서비스 어시스턴트 보조 시스템의 k 개 권장 사항들(the top k recommendations)에 포함됨을 의미한다. 모든 실험은 k = 1, 2 및 5에 대해 수행되었다.The final output of the machine learning model (basic model) using the machine learning engine of the machine learning and the sentence similarity model learning algorithm is a value between 0 and 1, which means similarity. A value of 1 for similarity means that the two sentences are the same. Accuracy is calculated through a pre-defined test set. The test set consists of pairs of sentences labeled '1' that are not used for training. This pair of sentences consists of an entered customer question and a list of FAQs containing the corresponding customer question-response pairs stored in the server database. The correct output for each customer question input means that the correct answer is included in the top k recommendations of the customer service assistant assistance system. All experiments were performed for k = 1, 2 and 5.

B. 제안된 시스템의 효과B. Effectiveness of the proposed system

이 실험은 도메인 특정 데이터(domain specific data)가 모델의 정확성에 주는 효과를 측정하였다. 도 3 및 도 4는 각각 고객 서비스 어시스턴트 보조 시스템에 의해 FAQ의 질문의 기본 데이터(baseline data, 질문-응답 쌍) 및 자동 생성된 고객 질문 데이터 만의 정확도(accuracy)를 나타낸다. 생성된 고객 질문 데이터는 기본 데이터보다 더 도메인 고유하므로 생성된 고객 질문 데이터의 정확도는 데이터 크기가 작을수록 훨씬 높다. 그러나, 새로운 고객 질문에 대하여 계속 응답 데이터를 생성하여 서버의 데이터베이스에 누적하여 저장하며, 고객 서비스시에 서버 데이터베이스에 저장된 FAQ의 기본 데이터(질문-응답 쌍)도 재학습되어 필수적으로 사용된다. This experiment measured the effect of domain specific data on the accuracy of the model. 3 and 4 show the accuracy of only the customer question data automatically generated and the baseline data of the FAQ of the FAQ by the customer service assistant assistance system, respectively. Since the generated customer question data is more domain-specific than the underlying data, the accuracy of the generated customer question data is much higher with smaller data sizes. However, response data for new customer questions is continuously generated and stored in a database of the server, and basic data (question-response pairs) of the FAQ stored in the server database are also re-learned and used essential for customer service.

도 5 및 6은 각각 제 1 및 제 2 재학습 방법의 정확도를 나타낸다. 도면에 도시 된 바와 같이, 제 2 방법은 제 1 방법의 재학습 방법보다 효과적이다. 그 이유는 첫 번째 방법에서 네트워크의 가중치들(the weights of the network)이 수렴된 상태(converged state)이기 때문이다. 반면에 두 번째 방법은 수렴된 상태를 해제한다.5 and 6 show the accuracy of the first and second relearning methods, respectively. As shown in the figure, the second method is more effective than the relearning method of the first method. The reason is that in the first method, the weights of the network are in a converged state. On the other hand, the second method cancels the converged state.

도 7 및 8은 각각 제 1 및 제 2 재훈련 방법(the first and the second re-training method)에 의한 반복된 재훈련에 대한 정확도 변화(accuracy change over repeated re-trainings)를 도시한다. 도시된 바와 같이, 두 방법 모두 반복적으로 적용될 때 충분히 효과적이다. 이는 고객 서비스 어시스턴트 보조 시스템의 가장 중요한 장점이다.7 and 8 illustrate accuracy change over repeated re-trainings by the first and the second re-training method, respectively. As shown, both methods are sufficiently effective when applied repeatedly. This is the most important advantage of the customer service assistant assistance system.

IV. 결론IV. conclusion

본 발명의 머신 러닝 기반 한국 고객 서비스 어시스턴트 보조 시스템은 인공지능의 자연어 처리 기술과 머신 러닝의 문장 유사도 측정(sentence similarity measure)을 위한 BiGRU(bidirectional gated recurrent unit) 머신 러닝의 기계 학습 엔진과 문장 유사도 모델(sentence similarity model)의 학습 알고리즘을 사용하며, 고객 서비스 시스템에서, 고객 질문이 입력되면 서버 데이터베이스에 미리 정의된 FAQ의 질문과 비교하여 두 문장의 유사도가 가장 높은 top 5개의 FAQ를 상담원에게 객관식으로 제시하고, 상담원이 상위 5 개의 FAQ 중에 일치하는 질문-응답 쌍(question-answer pairs) 중 하나의 FAQ를 선택하면, 서버의 데이터베이스에서 머신 러닝의 문장 유사도 모델에 따라 상담원의 선택 사항이 자동으로 훈련 데이터(training data)로 변환하여 고객 질문에 응답을 출력하는 효과가 있다. The machine learning-based Korean customer service assistant assistance system of the present invention is a machine learning engine of bidirectional gated recurrent unit (BIGRU) machine learning and a sentence similarity model for sentence similarity measure of artificial intelligence natural language processing technology and machine learning. Using the learning algorithm of (sentence similarity model), in the customer service system, when a customer question is entered, the top 5 FAQs with the highest similarity between the two sentences are compared to the questions of the FAQ predefined in the server database in multiple choice. And the agent selects one of the matching question-answer pairs among the top five FAQs, the agent's choices are automatically trained according to the sentence similarity model of machine learning in the server's database. It has the effect of outputting a response to customer questions by converting it into training data.

본 연구는 고객 서비스 담당자가 고객 질문(질의)을 서버 데이터에 저장하고 미리 정의된 FAQ의 질문과 비교하며, 일치되는 FAQ의 고객 질문에 대하여 응답 시간을 효과적으로 단축하며, 시스템 업데이트를 위해 직원의 조치로부터 학습 데이터를 동시에 생성할 수 있도록 새로운 고객 서비스 어시스턴트 보조 시스템을 제안하였다. In this study, a customer service representative saves customer questions (queries) in server data and compares them with predefined FAQ questions, effectively shortens the response time to the customer questions of the matching FAQ, and takes the staff's actions to update the system. A new customer service assistant assistance system was proposed to simultaneously generate learning data from

고객 서비스 시에, 질문 답변 문제는 두 문장의 유사 여부를 결정하는 문제로 단순화된다. 제안된 머신 러닝 기반 한국 고객 서비스 어시스턴트 보조 시스템은 서비스 직원이 고객 질문에 대하여 미리 정의된 FAQ에서 상위 5 개의 FAQ 중 질문-응답 쌍(question-answer pairs)을 선택하면, 즉 상담원이 5 개의 FAQ의 질문 중 하나의 FAQ의 질문-응답쌍을 선택하기 만하면 된다. 그런 다음, 서비스 직원의 선택 사항은 자동으로 훈련 데이터(training data)로 변환되어 고객 질문에 대한 응답이 출력된다. In customer service, the question-and-answer problem is simplified to the problem of determining whether two sentences are similar. In the proposed machine learning-based Korean customer service assistant assistance system, when a service employee selects a question-answer pair among the top 5 FAQs from a predefined FAQ for customer questions, that is, the agent Just select a question-response pair from the FAQ for one of your questions. Then, the service staff's choices are automatically converted into training data, and responses to customer questions are output.

본 연구는 고객 서비스 직원이 질문에 답변할 수 있는 새로운 기계 학습 기반 고객 서비스 어시스턴트 보조 시스템을 제안하였다. 기계 학습 기반 고객 서비스 어시스턴트 보조 시스템은 고객 서비스 직원이 서비스하는 동안 새로운 고객 질문 데이터를 자동으로 서버 데이터베이스에 축적할 수 있으므로 질문-응답 쌍을 다시 마련하여 재학습시킴으로써 다양한 고객 서비스 분야에서 데이터 부족 문제를 피할 수 있다. 또한, 실험 결과에 따르면, 시스템이 수집하는 고객 질문 데이터가 많을수록 정확도(accuracy)가 높아진다. 이는 기계 학습 기반 고객 서비스 어시스턴트 보조 시스템에서 자동 축적된 고객 질문 데이터에 의해 시간이 지남에 따라 시스템의 정확도가 향상됨을 의미한다. This study proposed a new machine learning-based customer service assistant assistance system that allows customer service staff to answer questions. The machine learning-based customer service assistant assistance system can automatically accumulate new customer question data in the server database while the customer service staff is servicing, so the question-response pair is re-established and retrained to solve the data shortage problem in various customer service fields Can be avoided. In addition, according to the experimental results, the more customer question data the system collects, the higher the accuracy. This means that the accuracy of the system improves over time by customer question data automatically accumulated in the machine learning-based customer service assistant assistance system.

우선, 기계 학습 기반 고객 서비스 어시스턴트 보조 시스템은 주관식 문제를 객관식 문제로 변환하고, 고객 서비스시에 직원(상담원)은 고객이 더 만족하게 하며 뿐만아니라 고객 질문에 대한 답변 시간을 줄일 수 있다. First of all, the machine learning-based customer service assistant assistance system converts short-choice problems into multiple-choice problems, and in customer service, employees (agents) can make customers more satisfied as well as reduce the time to answer customer questions.

또한, 고객 서비스 어시스턴트 보조 시스템은 한국어 뿐만아니라 영어, 프랑스어 등의 다른 언어에도 적용될 수 있다.In addition, the customer service assistant assistance system can be applied not only to Korean but also to other languages such as English and French.

본 발명에 따른 실시예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 기록 매체는 프로그램 명령, 데이터 파일, 데이터 구조를 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 기록 매체는 스토리지, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 저장 매체에 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예는 컴파일러에 의해 만들어지는 것과, 기계어 코드 뿐만아니라 인터프리터를 사용하여 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상기 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로써 작동하도록 구성될 수 있다.Embodiments according to the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, and data structures alone or in combination. Computer-readable recording media include storage, magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions in a magneto-optical media, and a storage medium such as ROM, RAM, flash memory, etc. may be included. Examples of program instructions may include those produced by a compiler, as well as high-level language codes that can be executed by a computer using an interpreter as well as machine language codes. The hardware device may be configured to operate as one or more software modules to perform the operation of the present invention.

이상에서 설명한 바와 같이, 본 발명의 방법은 프로그램으로 구현되어 컴퓨터의 소프트웨어를 이용하여 읽을 수 있는 형태로 기록매체(CD-ROM, RAM, ROM, 메모리 카드, 하드 디스크, 광자기 디스크, 스토리지 디바이스 등)에 저장될 수 있다. As described above, the method of the present invention is implemented as a program and can be read using software of a computer, such as a recording medium (CD-ROM, RAM, ROM, memory card, hard disk, magneto-optical disk, storage device, etc.). ) Can be stored.

본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진자가 하기의 특허청구범위에 기재된 본 발명의 기술적 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 또는 변형하여 실시할 수 있음을 이해할 수 있을 것이다.Although it has been described with reference to the preferred embodiments of the present invention, various modifications or variations of the present invention within the scope not departing from the spirit and scope of the present invention described in the following claims by those of ordinary skill in the relevant technical field It will be understood that this can be done.

700: 기계 학습 기반 고객 서비스 어시스턴트 보조 시스템
710: 서버 720: 데이터베이스
730: 문장 유사도 모델
700: machine learning-based customer service assistant assistance system
710: server 720: database
730: sentence similarity model

Claims (9)

기계 학습 기반 고객 서비스 어시스턴트 보조 시스템의 서버;
고객의 자주 묻는 질문(FAQ)의 질문-응답 쌍이 저장된 데이터베이스; 및
고객 질문이 입력되면 상기 서버로 상기 질문이 전송되며, 머신러닝 모듈이 상기 데이터베이스를 검색하여 상기 고객 질문을 미리 정의된 FAQ 목록의 질문과 비교하며, 상기 고객 질문의 한글 문장을 각 문자에 대하여 음소 단위로 분해하고 각 음소를 벡터로 embedding하며, 머신 러닝 모델을 사용하여 고객 질문과 FAQ 질문의 두 문장의 문장 유사도 모델(sentence similarity model) 학습 알고리즘을 사용하여 두 문장의 유사도(similarity)를 학습하여 문장 유사도가 높은 상위 k개의 FAQ를 객관식으로 상담원에게 제시되고 FAQ 중 하나가 선택되면 자동으로 학습데이터로 변환하여 해당 질문에 답변을 출력하도록 하는 문장 유사도 모델 머신러닝 시스템을 포함하며,
상기 머신 러닝 모델은 머신 러닝의 문장 유사도 측정(sentence similarity measure)을 위한 BiGRU(bidirectional gated recurrent unit) 머신 러닝의 기계 학습 엔진과 문장 유사도 모델(sentence similarity model) 학습 알고리즘을 사용하며,
상기 문장 유사도 모델(Sentence similarity model)은
고객 질문의 토큰화 전처리 후, 각각의 토큰 시퀀스(each sequence of tokens)는 각 임베딩 레이어(Embedding layer)를 통해 임의의 벡터(random vector)로 임베디드 되며, 임베딩 크기(embedding size)를 256으로 설정했으며, 임의의 벡터는 문장 유사도 측정(sentence similarity measure)에 사용되는 BiGRU(bidirectional gated recurrent unit) 머신 러닝으로 계산되며,
고객 질문의 문장과 데이터베이스에서 선택된 FAQ의 질문-응답쌍의 문장, 두 문장의 유사도(similarity)는 완전 연결층(full connect layer)과 유클리드 거리(euclidian distance)를 사용한 sigmoid 함수로 계산되고,
두 문장(sentence1, sentence2)의 유사도(similarity)는 0과 1 사이의 값이 되며, 값이 1에 가까울수록 두 문장이 유사하고, 고객 질문(질의)와 학습 데이터와의 거리를 측정하기 위해 유클리드 거리 d(X,Y)를 사용하며, N차원 공간의 두 점 X = (x1,x2,x3,...
Figure 112021030449490-pat00016
)과 Y = (y1,y2,y3,...
Figure 112021030449490-pat00017
)이 주어질 때, 두 점 사이의 유클리드 거리는 d(X,Y)는
Figure 112021030449490-pat00018
계산되는, 머신 러닝 기반 한국 고객 서비스 어시스턴트 보조 시스템.
A server of a machine learning-based customer service assistant assistance system;
A database storing question-response pairs of frequently asked questions (FAQs) of customers; And
When a customer question is entered, the question is transmitted to the server, the machine learning module searches the database and compares the customer question with the question in a predefined FAQ list, and the Korean sentence of the customer question is phoneme for each character. It decomposes into units, embedding each phoneme into a vector, and uses a machine learning model to learn the similarity of the two sentences using a sentence similarity model learning algorithm for the two sentences of the customer question and the FAQ question. It includes a sentence similarity model machine learning system that automatically converts the top k FAQs with high sentence similarity to the counselor in multiple choice and when one of the FAQs is selected, automatically converts them into training data and outputs the answers to the corresponding questions.
The machine learning model uses a machine learning engine of bidirectional gated recurrent unit (BIGRU) machine learning for sentence similarity measure of machine learning and a sentence similarity model learning algorithm,
The sentence similarity model is
After pre-processing of tokenization of customer questions, each sequence of tokens is embedded as a random vector through each embedding layer, and the embedding size is set to 256. , An arbitrary vector is calculated by bidirectional gated recurrent unit (BIGRU) machine learning used for sentence similarity measure,
The similarity of the sentence of the customer question and the question-response pair of the FAQ selected from the database, and the similarity of the two sentences is calculated by the sigmoid function using the full connect layer and the euclidian distance,
The similarity of the two sentences (sentence1, sentence2) is between 0 and 1, and the closer the value is to 1, the more similar the two sentences. Using the distance d(X,Y), two points in N-dimensional space X = (x1,x2,x3,...
Figure 112021030449490-pat00016
) And Y = (y1,y2,y3,...
Figure 112021030449490-pat00017
Given ), the Euclidean distance between two points is d(X,Y)
Figure 112021030449490-pat00018
Computed, machine learning-based Korean customer service assistant assistance system.
삭제delete 제1항에 있어서,
상기 고객 서비스 어시스턴트 보조 시스템으로 질문이 입력되면, 질문은 문장/탭으로 분리된 단어에 각 문자에 대하여 초성 자음, 모음, 그리고 종성 자음들로 분해되며, 분해된 요소들은 해당 토큰들에 의해 교체되고, 하나의 질문은 일련의 토큰들(sequence of tokens)로 변환되며,
토큰의 최대 시퀀스의 길이는 150으로 고정되며, 150보다 길면 초과된 부분이 절단되고, 시퀀스가 150보다 짧은 나머지 섹션은 0으로 채워져 토큰화되는, 머신 러닝 기반 한국 고객 서비스 어시스턴트 보조 시스템.
The method of claim 1,
When a question is entered into the customer service assistant assistance system, the question is divided into initial consonants, vowels, and final consonants for each letter in sentences/tabs, and the decomposed elements are replaced by corresponding tokens. , One question is converted to a sequence of tokens,
The maximum sequence length of the token is fixed at 150, if it is longer than 150, the excess part is truncated, and the remaining sections shorter than 150 are filled with zeros and tokenized, a machine learning-based Korean customer service assistant assistant system.
삭제delete 제1항에 있어서,
상기 문장 유사도 모델 머신러닝 시스템은
1) 고객 질문의 한글 문장을 각 문자에 대하여 음소 단위로 분해하고, 2) 각 음소를 벡터로 embedding하며(embedding size 256으로 설정), 3) BiGRU(bidirectional gated recurrent unit) 머신 러닝을 사용해 두 문장(sentence 1, sentence2)의 유사도를 학습하며,
4) 상담원의 고객 응대에 활용하는데 있어서, 고객 질문-응답 쌍이 준비되며,
5) 고객 질문은 서버의 데이터베이스에 기 저장된 FAQ들 중에 하나와 각각 비교하고, 6) 상기 고객 질문과 선택된 하나의 FAQ의 질문 유사도를 비교하여 두 문장의 유사도가 가장 높은 top 5개의 FAQ를 상담원에게 객관식으로 제시하며
7) 상담원은 이 중 실제 고객의 질문에 대한 답이 존재하면, 5개의 FAQ 중 하나를 선택하며, 8) 실제 고객의 질문에 대한 답이 존재하지 않으면, '존재하지 않음' 항목을 선택되며,
9) 상담원이 항목을 선택하면, 이는 새로운 학습데이터로 자동 변환하여 데이터베이스에 저장하며,
10) 이후 주기적으로 새롭게 모인 학습데이터로 상기 머신 러닝 모델에 의해 재학습하여 데이터베이스에 업데이트하는, 머신 러닝 기반 한국 고객 서비스 어시스턴트 보조 시스템.
The method of claim 1,
The sentence similarity model machine learning system
1) The Korean sentence of the customer's question is decomposed into phoneme units for each character, 2) each phoneme is embedding into a vector (embedding size is set to 256), and 3) two sentences are used using bidirectional gated recurrent unit (BIGRU) machine learning. Learning the similarity of (sentence 1, sentence2),
4) A customer question-response pair is prepared for use in the customer response of the counselor,
5) The customer question is compared with one of the FAQs previously stored in the server database, and 6) the customer question is compared with the question similarity of the selected one, and the top 5 FAQs with the highest similarity between the two sentences are presented to the agent. Presented in multiple choice
7) If there is an answer to the actual customer's question among them, the agent selects one of the 5 FAQs. 8) If the answer to the actual customer's question does not exist, the agent selects the'Does not exist' item.
9) When the agent selects an item, it is automatically converted into new learning data and stored in the database.
10) A machine learning-based Korean customer service assistant assistance system that periodically retrains the newly collected training data by the machine learning model and updates the database.
제1항에 있어서,
고객 질문은 고객 커뮤니티에서 웹 크롤링을 통해 인위적으로 질문 데이터를 수집하여 서버의 데이터베이스에 저장되며, 질문 데이터의 배치 크기(batch size)는 128이고, 질문 데이터에 대한 벡터의 임베딩 크기(embedding size)는 256으로 머신 러닝을 사용한 문장 유사도 모델 학습 실험을 수행했으며, 실행 속도(학습률)는 0.001로 설정되었고, 토큰의 최대 시퀀스 길이(maximum length of sequence of token)는 150으로 설정되었으며,
Adam optimizer를 사용했으며, 이진 교차 엔트로피(binary cross entropy)는 손실 함수(loss function)로 사용되었으며,
상기 이진 교차 엔트로피는 머신 러닝의 결정 트리 학습 알고리즘을 사용하여 분류(classification)를 위한 의사결정 트리(Decision Tree)의 루트 노드(root node)로부터 단말 노드(leaf node)까지 모든 데이터를 규칙(rule)에 근거하여 분할 속성(splitting attribute)에 의해 자식 노드(child node)를 만들고 학습할 때, 예측 정확도를 위해 상기 학습 데이터들이 각각 0~1 사이의 값을 가지며,
엔트로피 I는 데이터 집합(data set)의 동질적인(homogeneous) 정도를 측정하는 측도로 사용되고,
정확도(accuracy)는 이진 분류(binary classification), 다중 클래스 분류(multi-class classification)에서 머신 러닝의 분류 모델의 예측(prediction)이 얼마나 정확한지를 의미하고,
상기 머신 러닝의 기계 학습 엔진과 문장 유사도 모델 학습 알고리즘을 사용하는 머신 러닝 모델의 최종 출력은 0과 1 사이의 값이며, 이는 유사도(similarity)를 의미하며, 유사도의 값 1은 두 문장이 동일함을 의미하고,
정확도는 미리 정의된 테스트 세트(test set)를 통해 계산되며, 상기 테스트 세트는 훈련(training)에 사용되지 않는 '1'레이블이 붙은 문장 쌍으로 구성되며, 이 문장 쌍은 고객 질문 입력과 해당 고객 질문-응답쌍들을 포함하는 FAQ 목록으로 구성되는, 머신 러닝 기반 한국 고객 서비스 어시스턴트 보조 시스템.
The method of claim 1,
Customer questions are artificially collected by the customer community through web crawling and stored in the database of the server. The batch size of the question data is 128, and the embedding size of the vector for the question data is A sentence similarity model training experiment using machine learning was performed at 256, the execution speed (learning rate) was set to 0.001, the maximum length of sequence of tokens was set to 150, and
Adam optimizer was used, binary cross entropy was used as the loss function,
The binary cross entropy rules all data from a root node of a decision tree for classification to a leaf node using a decision tree learning algorithm of machine learning. When creating and learning a child node based on the splitting attribute, each of the training data has a value between 0 and 1 for prediction accuracy,
Entropy I is used as a measure of the homogeneous degree of a data set,
Accuracy refers to how accurate the prediction of the classification model of machine learning in binary classification and multi-class classification is,
The final output of the machine learning model using the machine learning engine of the machine learning and the sentence similarity model learning algorithm is a value between 0 and 1, which means similarity, and the value of similarity 1 is the same for both sentences. Means,
Accuracy is calculated through a predefined test set, which consists of pairs of sentences labeled '1' that are not used for training, which pairs of sentences are input to the customer question and the corresponding customer. A machine learning-based Korean customer service assistant assistance system consisting of a list of FAQs including question-response pairs.
제1항에 있어서,
상기 고객 서비스 어시스턴트 보조 시스템은 입력된 고객 질문에 대하여 서비스 직원에게 k개의 질문-응답 쌍을 갖는 권장사항 FAQ들(recommended FAQs)을 표시하며,
고객 질문에 대하여 서버 데이터베이스에 저장된 고객 서비스 직원이 선택한 FAQ가 있는 데이터는 '1'로 표시되고, FAQ에 질문이 없는 데이터는 '0'으로 표시되며,
서비스 직원이 권장 사항 FAQ들 중에서 하나의 FAQ를 선택하며, 해당하는 고객 질문에 대한 응답이 출력되는, 머신 러닝 기반 한국 고객 서비스 어시스턴트 보조 시스템.
The method of claim 1,
The customer service assistant assistance system displays recommended FAQs having k question-response pairs to the service staff in response to the entered customer question,
Data with FAQs selected by the customer service staff stored in the server database for customer questions is displayed as '1', and data without questions in the FAQ is displayed as '0'.
A machine learning-based Korean customer service assistant assistance system in which service staff selects one of the recommended FAQs and answers to corresponding customer questions are output.
제7항에 있어서,
상기 고객 서비스 어시스턴트 보조 시스템은 고객 질문에 대하여 문장 유사도가 높은 상위 5개의 FAQ를 객관식으로 서비스 직원에게 제시되고, 상기 서비스 직원이 권장 사항 FAQ들 중에서 하나의 FAQ를 선택하며, 해당하는 고객 질문에 대한 응답이 출력되는, 머신 러닝 기반 한국 고객 서비스 어시스턴트 보조 시스템.
The method of claim 7,
The customer service assistant assistance system presents the top five FAQs with high sentence similarity to the customer question in multiple choice, and the service employee selects one of the recommended FAQs, and responds to the corresponding customer question. A machine learning-based Korean customer service assistant assistance system that outputs the response.
제7항에 있어서,
고객 서비스 직원이 선택한 FAQ에 없는 고객 질문 데이터는 '0'으로 표시되며, 새로운 고객 질문 데이터는 학습 모델(learning model)을 사용하여 질문-응답 쌍을 다시 구성하여 재학습(re-training)하는데 사용되며,
재학습은 두 가지 방법으로 수행되며,
첫 번째 방법은 상기 머신 러닝의 기계 학습 엔진과 문장 유사도 모델 학습 알고리즘을 사용하는 머신 러닝 모델(기본 모델, baseline model)의 가중치들(weights)을 유지하고 새로운 데이터로 훈련을 다시 시작하는 것이고,
두 번째 방법은 FAQ의 기본 데이터(질문-응답 쌍)와 새로운 고객 질문 데이터를 통합하고 초기화 된 처음부터 질문-응답 쌍을 다시 저장하여 누적함으로써 학습을 다시 시작하며,
시스템의 고객 질문-응답의 정확도를 지속적으로 자동으로 향상시키는, 머신 러닝 기반 한국 고객 서비스 어시스턴트 보조 시스템.
The method of claim 7,
Customer question data that is not in the FAQ selected by the customer service staff is displayed as '0', and the new customer question data is used for re-training by reconstructing question-response pairs using a learning model. And
Relearning is carried out in two ways,
The first method is to maintain the weights of the machine learning model (baseline model) using the machine learning engine of the machine learning and the sentence similarity model learning algorithm and start training again with new data,
The second method resumes learning by integrating the basic data of the FAQ (question-response pair) with the new customer question data, and storing and accumulating the question-response pairs from the initial initial stage again.
Machine learning-based Korean customer service assistant assistance system that continuously and automatically improves the accuracy of the system's customer question-and-answer.
KR1020190121209A 2019-09-30 2019-09-30 Korean Customer Service Associate Assist System based on Machine Learning KR102240910B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190121209A KR102240910B1 (en) 2019-09-30 2019-09-30 Korean Customer Service Associate Assist System based on Machine Learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190121209A KR102240910B1 (en) 2019-09-30 2019-09-30 Korean Customer Service Associate Assist System based on Machine Learning

Publications (2)

Publication Number Publication Date
KR20210038260A KR20210038260A (en) 2021-04-07
KR102240910B1 true KR102240910B1 (en) 2021-04-14

Family

ID=75469539

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190121209A KR102240910B1 (en) 2019-09-30 2019-09-30 Korean Customer Service Associate Assist System based on Machine Learning

Country Status (1)

Country Link
KR (1) KR102240910B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024063314A1 (en) * 2022-09-22 2024-03-28 삼성전자주식회사 User terminal device for adaptively controlling fan speed of mask, and method for controlling same

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240035125A (en) 2022-09-08 2024-03-15 주식회사 케이티 Method for correcting dialogue state and apparatus therefor

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190147455A1 (en) 2017-11-14 2019-05-16 Sap Se Smart Agent Services Using Machine Learning Technology

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7412385B2 (en) 2003-11-12 2008-08-12 Microsoft Corporation System for identifying paraphrases using machine translation
KR20120138252A (en) * 2011-04-22 2012-12-24 주식회사 예스피치 System and method for managing counsel code in automatic response system
US10606846B2 (en) * 2015-10-16 2020-03-31 Baidu Usa Llc Systems and methods for human inspired simple question answering (HISQA)
KR101991486B1 (en) 2015-12-18 2019-06-20 한국전자통신연구원 Sentence similarity-based polysemy database expansion apparatus and method therefor
KR20170137419A (en) * 2016-06-03 2017-12-13 오영재 Method, system and computer-readable recording medium for providing customer counseling service using real-time response message generation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190147455A1 (en) 2017-11-14 2019-05-16 Sap Se Smart Agent Services Using Machine Learning Technology

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
김선목 외 5인, 기계학습 기반 한국어 고객 상담원 지원 시스템, 대한전기학회 학술대회 논문집, 2019.7, 1789-1790페이지. 1부.*
장성은 외 3인, CNN과 LSTM 네트워크를 활용한 한국어 QA봇, 한국정보과학회 학술발표논문집, 2019.6, 913-915페이지.

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024063314A1 (en) * 2022-09-22 2024-03-28 삼성전자주식회사 User terminal device for adaptively controlling fan speed of mask, and method for controlling same

Also Published As

Publication number Publication date
KR20210038260A (en) 2021-04-07

Similar Documents

Publication Publication Date Title
CN110196901B (en) Method and device for constructing dialog system, computer equipment and storage medium
US8639517B2 (en) Relevance recognition for a human machine dialog system contextual question answering based on a normalization of the length of the user input
CN112667794A (en) Intelligent question-answer matching method and system based on twin network BERT model
US20230069935A1 (en) Dialog system answering method based on sentence paraphrase recognition
KR20190133931A (en) Method to response based on sentence paraphrase recognition for a dialog system
US10586174B2 (en) Methods and systems for finding and ranking entities in a domain specific system
US20200183928A1 (en) System and Method for Rule-Based Conversational User Interface
JP2009525547A (en) Meta-learning for question classification
Etaiwi et al. Statistical Arabic name entity recognition approaches: A survey
KR20230077588A (en) Method of classifying intention of various question and searching answers of financial domain based on financial term language model and system impelemting thereof
KR102240910B1 (en) Korean Customer Service Associate Assist System based on Machine Learning
Gunaseelan et al. Automatic extraction of segments from resumes using machine learning
KR101333485B1 (en) Method for constructing named entities using online encyclopedia and apparatus for performing the same
Mazari et al. Sentiment analysis of Algerian dialect using machine learning and deep learning with Word2vec
Celikyilmaz et al. A graph-based semi-supervised learning for question-answering
Hayes et al. Toward improved artificial intelligence in requirements engineering: metadata for tracing datasets
Purevdagva et al. A machine-learning based framework for detection of fake political speech
Lee Natural Language Processing: A Textbook with Python Implementation
Rianto et al. Improving the accuracy of text classification using stemming method, a case of non-formal Indonesian conversation
Ajees et al. A named entity recognition system for Malayalam using neural networks
Korade et al. Strengthening Sentence Similarity Identification Through OpenAI Embeddings and Deep Learning.
Karpagam et al. Deep learning approaches for answer selection in question answering system for conversation agents
Ahajri et al. Deep learning model for arabic question-answering chatbot
Chotirat et al. Question Classification from Thai Sentences by Considering Word Context to Question Generation
US20240127026A1 (en) Shallow-deep machine learning classifier and method

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant