KR102372642B1 - Apparatus and method for generating an automatic response - Google Patents

Apparatus and method for generating an automatic response Download PDF

Info

Publication number
KR102372642B1
KR102372642B1 KR1020210011429A KR20210011429A KR102372642B1 KR 102372642 B1 KR102372642 B1 KR 102372642B1 KR 1020210011429 A KR1020210011429 A KR 1020210011429A KR 20210011429 A KR20210011429 A KR 20210011429A KR 102372642 B1 KR102372642 B1 KR 102372642B1
Authority
KR
South Korea
Prior art keywords
data
response
similarity
personality
response message
Prior art date
Application number
KR1020210011429A
Other languages
Korean (ko)
Inventor
손경아
나영윤
박준규
Original Assignee
아주대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아주대학교산학협력단 filed Critical 아주대학교산학협력단
Priority to KR1020210011429A priority Critical patent/KR102372642B1/en
Application granted granted Critical
Publication of KR102372642B1 publication Critical patent/KR102372642B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/02User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Machine Translation (AREA)

Abstract

Disclosed are a method for generating an automatic response and an apparatus for performing the same. According to one embodiment of the present invention, the apparatus for generating the automatic response comprises: a training data generating unit generating training data based on past conversation data including a first response request message and a first response message set corresponding to the first response request message, personality data, interruption data, and a second response message for a second response request message; and a model training unit training an automatic responding model so that the second response message generated by the automatic responding model becomes closer in a similarity with the personality data and becomes farther in a similarity with the interruption data.

Description

자동 응답 생성 방법 및 장치 {APPARATUS AND METHOD FOR GENERATING AN AUTOMATIC RESPONSE}AUTOMATIC RESPONSE {APPARATUS AND METHOD FOR GENERATING AN AUTOMATIC RESPONSE}

개시되는 실시예들은 사용자의 답변 요청에 대한 자동 응답을 생성하기 위한 기술에 관한 것이다.Disclosed embodiments relate to techniques for generating an automatic response to a user's request for an answer.

메신저는 1990년대 중반부터 사용해 오던 서비스이다. PC(Personal Computer)를 중심으로 서비스를 연착륙시킨 뒤, 스마트폰이 등장하면서 사람들과 대화를 나눌 수 있는 대표 수단이 되었다. 모바일 메신저 업체는 이와 같은 메신저 영향력을 새로운 플랫폼으로 만들어 나가기 위해 인공지능과 메신저를 결합한 '챗봇(Chatbot)' 기술을 활용했다.Messenger is a service that has been in use since the mid-1990s. After the soft landing of services centered on PCs (Personal Computers), smartphones became a representative means of conversing with people with the advent of smartphones. Mobile messenger companies used 'Chatbot' technology that combines artificial intelligence and messenger to create a new platform for messenger influence.

그러나 챗봇 기술은 일관된 응답을 생성하지 못하는 문제점이 있었다. 이에, 일관된 성격이 부여된 응답을 생성하는 챗봇의 요구가 대두되었다.However, the chatbot technology had a problem in that it did not generate a consistent response. Accordingly, a demand for a chatbot that generates a response with a consistent character has emerged.

대한민국 공개특허공보 제 10-2020-0042137 호(2020.4.23. 공개)Republic of Korea Patent Publication No. 10-2020-0042137 (published on April 23, 2020)

개시되는 실시예들은 사용자의 답변 요청에 대한 자동 응답을 생성에 필요한 학습 데이터를 구성하기 위한 기술적인 수단을 제공하기 위한 것이다.The disclosed embodiments are intended to provide a technical means for constructing learning data necessary for generating an automatic response to a user's response request.

일 실시예에 따라 자동 응답 생성 장치는, 제1 답변 요청 메시지와 상기 제1 답변 요청 메시지에 대응하는 제1 응답 메시지 세트를 포함하는 과거 대화 데이터, 성격 데이터, 방해 데이터 및 제2 답변 요청 메시지에 대한 제2 응답 메시지에 기초하여 학습 데이터(training data)를 생성하는 학습 데이터 생성부 및 상기 학습 데이터에 기초하여, 자동 응답 모델이 생성하는 상기 제2 응답 메시지가 상기 성격 데이터와의 유사도는 가까워지고, 상기 방해 데이터와의 유사도는 멀어지도록 자동 응답 모델을 학습시키는 모델 학습부를 포함한다. According to an embodiment, the automatic response generating apparatus includes a first response request message and past conversation data including a first response message set corresponding to the first response request message, personality data, interruption data, and a second response request message. The second response message generated by the automatic response model on the basis of the training data generator and the training data for generating training data based on the second response message to the second response message to the similarity with the personality data is close , and a model learning unit for learning the automatic response model so that the degree of similarity with the interference data is farther away.

상기 성격 데이터는 특정한 성격을 가진 사람에 의해 발화된 것으로 사전 분류된 복수의 문장을 포함할 수 있다. The personality data may include a plurality of sentences pre-classified as being uttered by a person having a specific personality.

상기 방해 데이터는 상기 성격 데이터에 포함된 상기 복수의 문장에 포함된 단어와의 유사도에 기초하여 생성된 방해 문장을 포함하고, 상기 성격 데이터에 대한 유사도에 기초하여 결정된 방해 문장의 방해 진위 여부 레이블을 포함할 수 있다.The interference data includes a disturbing sentence generated based on a degree of similarity with words included in the plurality of sentences included in the personality data, and a label of whether the interference is authentic or not determined based on the similarity to the personality data. may include

상기 과거 대화 데이터는, 상기 성격 데이터를 구성하는 복수의 문장과의 유사도에 기초하여 생성된 상기 제1 답변 요청 메시지에 대응하는 상기 제1 응답 메시지를 포함할 수 있다.The past conversation data may include the first response message corresponding to the first response request message generated based on a similarity with a plurality of sentences constituting the personality data.

상기 자동 응답 모델은, 상기 학습 데이터를 입력 받아 상기 성격 데이터에 기초하여 상기 제2 응답 메시지를 생성하는 생성자(Generator) 및The automatic response model includes a generator that receives the learning data and generates the second response message based on the personality data;

상기 학습 데이터를 입력 받아 상기 방해 데이터 및 상기 제2 응답 메시지의 유사도에 기초하여 상기 제2 응답 메시지의 방해 진위 여부를 판단하는 구분자(Discriminator)를 포함할 수 있다.and a discriminator that receives the learning data and determines whether the interference of the second response message is authentic or not based on the similarity between the interference data and the second response message.

상기 모델 학습부, 상기 성격 데이터와 상기 제2 응답 메시지 사이의 유사도에 기초한 제1 손실 함수, 상기 방해 데이터의 상기 방해 진위 여부 레이블은 참(true)으로 상기 제2 응답 메시지를 거짓(false)으로 판단하도록 제2 손실 함수를 이용하여 상기 구분자를 학습시키되, 상기 성격 데이터와의 유사도 및 상기 방해 진위 여부 레이블에 따른 제1 손실 함수 및 제2 손실 함수를 포함하는 제3 손실 함수의 출력 값에 기초하여 학습할 수 있다.The model learning unit, a first loss function based on the similarity between the personality data and the second response message, and the disturbance authenticity label of the disturbance data are true and the second response message is false. Learning the discriminator using a second loss function to determine, based on the output value of the third loss function including the first loss function and the second loss function according to the similarity with the personality data and the disturbance authenticity label so you can learn

일 실시예에 따른 동 응답 생성 방법은 제1 답변 요청 메시지와 상기 제1 답변 요청 메시지에 대응하는 제1 응답 메시지 세트를 포함하는 과거 대화 데이터, 성격 데이터, 방해 데이터 및 제2 답변 요청 메시지에 대한 제2 응답 메시지에 기초하여 학습 데이터(training data)를 생성하는 단계 및 상기 학습 데이터에 기초하여, 모델이 생성하는 상기 제2 응답 메시지가 상기 성격 데이터와의 유사도는 가까워지고, 상기 방해 데이터와의 유사도는 멀어지도록 자동 응답 모델을 학습시시키는 단계를 포함한다. The response generating method according to an embodiment includes a first response request message and a first response message set corresponding to the first response request message for past conversation data, personality data, interruption data, and a second response request message. Generating training data based on a second response message and based on the training data, the second response message generated by the model has a similarity with the personality data close to, and with the interference data Similarity involves training the autoresponder model to move away from it.

상기 성격 데이터는 특정한 성격을 가진 사람에 의해 발화된 것으로 사전 분류된 복수의 문장을 포함할수 있다.The personality data may include a plurality of sentences pre-classified as being uttered by a person having a specific personality.

상기 방해 데이터는 상기 성격 데이터에 포함된 상기 복수의 문장에 포함된 단어와의 유사도에 기초하여 생성된 방해 문장을 포함하고, 상기 성격 데이터에 대한 유사도에 기초하여 결정된 방해 문장의 방해 진위 여부 레이블을 포함할 수 있다.The interference data includes a disturbing sentence generated based on a degree of similarity with words included in the plurality of sentences included in the personality data, and a label of whether the interference is authentic or not determined based on the similarity to the personality data. may include

상기 과거 대화 데이터는, 상기 성격 데이터를 구성하는 복수의 문장과의 유사도에 기초하여 생성된 상기 제1 답변 요청 메시지에 대응하는 상기 제1 응답 메시지를 포함할 수 있다.The past conversation data may include the first response message corresponding to the first response request message generated based on a similarity with a plurality of sentences constituting the personality data.

상기 자동 응답 모델은, 상기 학습 데이터를 입력 받아 상기 성격 데이터에 기초하여 상기 제2 응답 메시지를 생성하는 생성자(Generator) 및 상기 학습 데이터를 입력 받아 상기 방해 데이터 및 상기 제2 응답 메시지의 유사도에 기초하여 상기 제2 응답 메시지의 방해 진위 여부를 판단하는 구분자(Discriminator)를 포함할 수 있다.The automatic response model receives the learning data and generates the second response message based on the personality data. Based on the similarity between the interruption data and the second response message by receiving the learning data and receiving the learning data. Thus, it may include a discriminator for determining whether the interference of the second response message is authentic.

상기 모델 학습부, 상기 성격 데이터와 상기 제2 응답 메시지 사이의 유사도에 기초한 제1 손실 함수 및 상기 방해 데이터의 상기 방해 진위 여부 레이블은 참(true)으로 상기 제2 응답 메시지를 거짓(false)으로 판단하도록 하기 위한 제2 손실 함수에 기초한 제3 손실 함수를 이용하여 상기 자동 응답 모델을 학습시킬 수 있다. The model learning unit, the first loss function based on the similarity between the personality data and the second response message, and the disturbance authenticity label of the disturbance data are true, and the second response message is false. The automatic response model may be trained by using a third loss function based on the second loss function for determining.

개시되는 실시예들에 따르면, 성격 데이터 정보를 입력하여, 성격 데이터에 기초하여 응답 메시지의 일관성을 유지할 수 있다. According to the disclosed embodiments, by inputting personality data information, it is possible to maintain consistency of a response message based on the personality data.

개시되는 실시예들에 따르면, 성격 데이터와 일관되지 않은 방해 데이터를 생성하는 것을 억제하여 응답 메시지의 일관성을 유지할 수 있다. According to the disclosed embodiments, it is possible to maintain the consistency of the response message by suppressing the generation of the interference data inconsistent with the personality data.

도 1은 일 실시예에 따른 자동 응답 생성 장치를 설명하기 위한 블록도
도 2는 일 실시예에 따른 학습 데이터를 구성하는 방법을 설명하기 위한 예시도
도 3은 일 실시예에 따른 자동 응답 생성을 위한 자동 응답 모델을 설명하기 위한 블록도
도 4은 일 실시예에 따른 자동 응답 생성 방법을 설명하기 위한 흐름도
도 5는 일 실시예에 따른 자동 응답 생성을 위한 자동 응답 모델을 설명하기 위한 블록도
도 6은 일 실시예에 따른 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도
1 is a block diagram illustrating an apparatus for generating an automatic response according to an embodiment;
2 is an exemplary diagram for explaining a method of configuring learning data according to an embodiment;
3 is a block diagram illustrating an automatic response model for generating an automatic response according to an embodiment;
4 is a flowchart illustrating a method for generating an automatic response according to an embodiment;
5 is a block diagram illustrating an automatic response model for generating an automatic response according to an embodiment;
6 is a block diagram illustrating and explaining a computing environment including a computing device according to an embodiment;

이하, 도면을 참조하여 구체적인 실시 형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 개시되는 실시예들은 이에 제한되지 않는다.Hereinafter, specific embodiments will be described with reference to the drawings. The following detailed description is provided to provide a comprehensive understanding of the methods, apparatus, and/or systems described herein. However, this is merely an example, and the disclosed embodiments are not limited thereto.

실시예들을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 개시되는 실시예들의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 개시되는 실시예들에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.In the description of the embodiments, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the disclosed embodiments, the detailed description thereof will be omitted. And, the terms to be described later are terms defined in consideration of functions in the disclosed embodiments, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the content throughout this specification. The terminology used in the detailed description is for the purpose of describing the embodiments only, and should in no way be limiting. Unless explicitly used otherwise, expressions in the singular include the meaning of the plural. In this description, expressions such as “comprising” or “comprising” are intended to indicate certain features, numbers, steps, acts, elements, some or a combination thereof, one or more other than those described. It should not be construed to exclude the presence or possibility of other features, numbers, steps, acts, elements, or any part or combination thereof.

도 1은 일 실시예에 따른 자동 응답 장치를 설명하기 위한 블록도이다.1 is a block diagram illustrating an answering machine according to an exemplary embodiment.

일 실시예에 따른 자동 응답 장치(100)는 답변 요청 메시지에 대한 자동 응답 요청을 수신하고, 성격 데이터와 유사도가 가까운 응답 메시지를 생성하여 제공한다. The automatic response apparatus 100 according to an embodiment receives an automatic response request to the response request message, and generates and provides a response message having a similarity to personality data.

자동 응답 장치(100)는 질의를 수신하고 기 설정된 응답 규칙에 따라 상기 질의에 대한 응답을 회신하도록 구성되는 컴퓨팅 시스템이다. 일 실시예에서, 자동 응답 장치(100)는 룰(rule) 또는 인공 지능(artificial intelligence) 등을 기반으로 하는 응답 규칙을 포함할 수 있으며, 상기 응답 규칙에 따라 상기 질의에 대한 응답을 생성할 수 있다.The automatic answering device 100 is a computing system configured to receive an inquiry and return a response to the inquiry according to a preset response rule. In an embodiment, the automatic response apparatus 100 may include a response rule based on a rule or artificial intelligence, etc., and may generate a response to the query according to the response rule. there is.

도시된 바와 같이, 일 실시예에 따른 자동 응답 장치(100)는 학습 데이터생성부(110) 및 모델 학습부(120)를 포함한다. As shown, the automatic response apparatus 100 according to an embodiment includes a training data generator 110 and a model learner 120 .

학습 데이터 생성부(110)는 제1 답변 요청 메시지와 제1 답변 요청 메시지에 대응하는 제1 응답 메시지 세트를 포함하는 과거 대화 데이터, 성격 데이터, 방해 데이터 및 제2 답변 요청 메시지에 대한 제2 응답 메시지에 기초하여 학습 데이터(training data)를 생성한다.The learning data generation unit 110 includes a first response request message and a second response to past conversation data, personality data, interference data, and a second response request message including a first response message set corresponding to the first response request message. Generate training data based on the message.

일 실시예에 따라 학습 데이터 생성부(110)는 답변 요청에 대응하는 응답의 일관성을 유지하도록 하기 위해 자동 응답 장치(100)의 응답 메시지에 일관된 패턴을 부여하는 성격 데이터를 획득할 수 있다. 이때, 성격(personality)은 개인의 기분 ·태도 ·의견을 포괄하며 타자와의 상호작용에서 분명하게 드러나는 것으로, 일관된 행동 패턴 또는 개인의 내부에서 일어나는 내적 정신 과정을 의미한다. According to an embodiment, the learning data generator 110 may acquire personality data that gives a consistent pattern to the response message of the automatic response device 100 in order to maintain consistency of responses corresponding to response requests. At this time, personality encompasses an individual's mood, attitude, and opinion, and is clearly revealed in interactions with others, and refers to a consistent behavioral pattern or internal mental process occurring inside an individual.

일 실시예에 따라 특정한 성격을 가진 사람에 의해 발화된 것으로 사전 분류된 복수의 문장을 포함을 포함한다. According to an embodiment, including a plurality of sentences pre-classified as being uttered by a person having a specific personality.

구체적으로 성격 데이터는 직업, 가족 관계 및 재산 등의 사회적 지위와 관련된 정보뿐 아니라 개인이 접하는 상황에 대해 독특한 적응을 나타내는 예를 들어 외향/내향으로 구분되는 에너지의 방향, 감각/직관으로 구분되는 사물 인식의 기준, 사고/감정으로 구분되는 상황 구분 기준, 판단/인식으로 구분되는 생활 양식을 포함하는 사고와 감정을 표현하는 단어들로 구성될 수 있다. Specifically, personality data includes information related to social status such as occupation, family relationships, and wealth, as well as information that represents a unique adaptation to a situation encountered by an individual It may be composed of words expressing thoughts and emotions including a criterion for recognition, a criterion for classification of situations divided into thoughts/feelings, and a lifestyle divided into judgment/recognition.

일 실시예에 따라 방해 데이터는 성격 데이터에 포함된 복수의 문장에 포함된 단어과의 유사도에 기초하여 생성된 방해 문장을 포함하고, 성격 데이터에 대한 유사도에 기초하여 생성된 방해 문장의 방해 진위 여부 레이블을 포함한다. 구체적으로, 방해 데이터는 성격 데이터를 구성하는 복수의 문장에 포함된 단어에 대하여 유사도가 먼 단어로 구성된 방해 문장을 포함할 수 있다.According to an embodiment, the disturbance data includes a disturbance sentence generated based on a degree of similarity with words included in a plurality of sentences included in the personality data, and a label of whether the disturbance sentence is generated based on the similarity to the personality data includes In detail, the interruption data may include an interruption sentence composed of words having a far similarity to words included in a plurality of sentences constituting the personality data.

구체적으로 방해 문장이 성격 데이터와의 유사도가 먼 경우, 방해 진위 여부 레이블은 참(True) 값으로 설정될 수 있다.Specifically, when the disturbing sentence has a far similarity to the personality data, the interference authenticity label may be set to a true value.

일 실시예에 따라 과거 대화 데이터는 성격 데이터를 구성하는 복수의 문장과의 유사도에 기초하여 생성된 제1 답변 요청 메시지에 대응하는 제1 응답 메시지를 포함한다.According to an embodiment, the past conversation data includes a first response message corresponding to the first response request message generated based on a similarity with a plurality of sentences constituting the personality data.

일 실시예에 따라 과거 대화 데이터는 자동 응답 장치(100)에 요청된 응답 메시지 생성에 이용하기 위한 것으로 답변이 요청된 제2 답변 요청 메시지 이전의 모든 대화를 포함할 수 있다. According to an embodiment, the past conversation data is used to generate a response message requested by the automatic response device 100 and may include all conversations before the second response request message for which a response is requested.

일 실시예에 따르면 학습 데이터 생성부(110)는 성격 데이터에 기초하여 과거 대화 데이터, 방해 데이터 및 제2 답변 요청 메시지를 구성하는 단어의 유사도를 결정하여 학습 데이터를 생성할 수 있다. According to an embodiment, the learning data generating unit 110 may generate the learning data by determining the similarity of words constituting the past conversation data, the interruption data, and the second answer request message based on the personality data.

모델 학습부(120)는 학습 데이터에 기초하여, 자동 응답 모델이 생성하는 제2 응답 메시지가 성격 데이터와의 유사도는 가까워지고, 방해 데이터와의 유사도는 멀어지도록 자동 응답 모델을 학습시킨다.Based on the training data, the model learning unit 120 trains the automatic response model so that the second response message generated by the automatic response model has a similarity to personality data and a similarity to interference data is farther away.

일 실시예에 따르면, 자동 응답 생성을 위한 자동 응답 모델은 생성적 모델(Generative Model) 및 구분적 모델(Discriminative Model)을 포함할 수 있다. According to an embodiment, the automatic response model for automatic response generation may include a generative model and a discriminative model.

일 실시예에 따라 모델 학습부(120)는 학습 데이터를 입력 받아 성격 데이터에 기초하여 제2 응답 메시지를 생성하는 생성자(Generator) 및 학습 데이터를 입력 받아 방해 데이터 및 제2 응답 메시지의 유사도에 기초하여 제2 응답 메시지의 방해 진위 여부를 판단하는 구분자(Discriminator)를 포함한다.According to an embodiment, the model learning unit 120 receives training data and generates a second response message based on personality data, and based on the similarity between the interference data and the second response message by receiving the training data. and a discriminator for determining whether the second response message is disturbed or not.

일 실시예에 따라 모델 학습부(120)는 성격 데이터와 제2 응답 메시지 사이의 유사도에 기초한 제1 손실 함수, 방해 데이터의 방해 진위 여부 레이블은 참(true)으로 제2 응답 메시지를 거짓(false)으로 판단하도록 제2 손실 함수를 이용하여 구분자를 학습시키되, 성격 데이터와의 유사도 및 방해 진위 여부 레이블에 따른 제1 손실 함수 및 제2 손실 함수를 포함하는 제3 손실 함수의 출력 값에 기초하여 학습한다.According to an embodiment, the model learning unit 120 sets the first loss function based on the similarity between the personality data and the second response message, the interference authenticity label of the interference data to true, and sets the second response message to false. ) to learn the classifier using the second loss function to determine the learn

도 2는 일 실시예에 따른 학습 데이터를 구성하는 방법을 설명하기 위한 예시도이다.2 is an exemplary diagram for explaining a method of configuring learning data according to an embodiment.

도2에 도시된 예와 같이 예시적인 학습 데이터를 생성하기 위한 문장(200)은 성격 데이터를 구성하는 복수의 문장(210), 과거 대화 데이터를 구성하는 문장(220), 제2 응답 메시지(230) 및 방해 데이터를 구성하는 방해 문장(240)을 포함할 수 있다. As in the example shown in FIG. 2 , the sentence 200 for generating exemplary learning data includes a plurality of sentences 210 constituting personality data, a sentence 220 constituting past conversation data, and a second response message 230 . ) and a disturbance sentence 240 constituting the disturbance data.

일 실시예에 따라 학습 데이터(200)는 성격 데이터를 구성하는 문장(210), 과거 대화 데이터에 포함된 문장 및 방해 문장에 포함된 단어 각각에 대한 임베딩 벡터에 기초하여 생성될 수 있다. According to an embodiment, the learning data 200 may be generated based on embedding vectors for each of the sentences 210 constituting the personality data, the sentences included in the past conversation data, and the words included in the disturbing sentences.

일 실시예에 따르면 학습 데이터는 수학식 1로 표현될 수 있다. According to an embodiment, the learning data may be expressed by Equation (1).

이때,

Figure 112021010851855-pat00001
은 학습 데이터, p 는 성격 데이터를 구성하는 복수의 문장,
Figure 112021010851855-pat00002
은 과거 대화 데이터에 포함된 제1 답변 요청 메시지와 제1 응답 메시지를 포함하는 과거 문장,
Figure 112021010851855-pat00003
은 방해 데이터에 포함된 방해 문장,
Figure 112021010851855-pat00004
은 제2 응답 메시지를 나타낸다. At this time,
Figure 112021010851855-pat00001
is the learning data, p is a plurality of sentences constituting the personality data,
Figure 112021010851855-pat00002
is a past sentence including the first response request message and the first response message included in the past conversation data,
Figure 112021010851855-pat00003
is the disturbance sentence included in the disturbance data;
Figure 112021010851855-pat00004
indicates the second response message.

Figure 112021010851855-pat00005
Figure 112021010851855-pat00005

일 실시예에 따르면 과거 문장은 수학식 2로 표현될 수 있다.According to an embodiment, the past sentence may be expressed by Equation (2).

이때,

Figure 112021010851855-pat00006
은 제1 답변 요청 메시지와 제1 응답 메시지를 포함하는 과거 문장,
Figure 112021010851855-pat00007
은 i번째 제1 답변 요청 메시지,
Figure 112021010851855-pat00008
은 i번째 제1 응답 메시지를 나타낸다. At this time,
Figure 112021010851855-pat00006
is a past sentence including a first response request message and a first response message,
Figure 112021010851855-pat00007
is the i-th first response request message,
Figure 112021010851855-pat00008
denotes an i-th first response message.

Figure 112021010851855-pat00009
Figure 112021010851855-pat00009

구체적으로 따라 학습 데이터(

Figure 112021010851855-pat00010
)는 성격 데이터에 포함된 복수의 문장(p), 과거 대화 데이터에 포함된 문장(
Figure 112021010851855-pat00011
), 방해 문장 (
Figure 112021010851855-pat00012
) 및 제2 응답 메시지(
Figure 112021010851855-pat00013
)로 구성될 수 있다.Specifically, according to the training data (
Figure 112021010851855-pat00010
) is a plurality of sentences (p) included in personality data, sentences (p) included in past conversation data
Figure 112021010851855-pat00011
), interfering sentences (
Figure 112021010851855-pat00012
) and the second response message (
Figure 112021010851855-pat00013
) may consist of

다시 도 2를 참조하면, 성격 데이터를 구성하는 복수의 문장(210)은 식에서 p로 표현되며, '취미는 TV 드라마 시청하기', '주말에는 집에서 쉬는 걸 좋아한다', '크리스마스를 좋아한다.' 등의 복수의 문장을 포함할 수 있다. Referring back to FIG. 2 , the plurality of sentences 210 constituting the personality data are expressed by p in the equation, 'hobbies are watching TV dramas', 'I like to rest at home on weekends', and 'I like Christmas. .' It may include a plurality of sentences such as

다시 도 2를 참조하면, 과거 대화 데이터를 구성하는 문장(220)은 첫 번째 제1 답변 요청 메시지(

Figure 112021010851855-pat00014
), 'A: 1년 중에서 가장 좋아하는 연휴는 언제야?'와 첫 번째 제1 답변 요청 메시지(
Figure 112021010851855-pat00015
)에 대응하여 자동 응답 장치(100)가 생성한 첫 번째 제1 응답 메시지(
Figure 112021010851855-pat00016
), 'B: 나는 크리스마스를 좋아해'의 문장(
Figure 112021010851855-pat00017
)으로 표현될 수 있다.Referring back to FIG. 2 , the sentence 220 constituting the past conversation data is the first first answer request message (
Figure 112021010851855-pat00014
), 'A: When is your favorite holiday of the year?' and the first response request message (
Figure 112021010851855-pat00015
) in response to the first first response message generated by the automatic response device 100 (
Figure 112021010851855-pat00016
), the sentence of 'B: I like Christmas' (
Figure 112021010851855-pat00017
) can be expressed as

다시 도 2를 참조하면, 방해 데이터를 구성하는 방해 문장(240)은 성격 데이터에 포함된 문장인 '크리스마스를 좋아한다.'라는 문장과 유사도가 먼 단어로 구성될 수 있으며, '나는 하얀 눈이 정말 좋아'라는 문장은 방해 문장(

Figure 112021010851855-pat00018
)일 수 있다. 이때, 방해 데이터는 방해 문장(
Figure 112021010851855-pat00019
)의 성격 데이터와의 유사도가 먼 방해 문장 여부를 판단하는 방해 진위 여부 레이블(TRUE)을 포함할 수 있다.Referring back to FIG. 2 , the interruption sentence 240 constituting the interruption data may be composed of words that are distant from the sentence 'I like Christmas', which is a sentence included in the personality data, and 'I have white eyes. The sentence 'I really like it' is a disturbing sentence (
Figure 112021010851855-pat00018
) can be At this time, the disturbance data is a disturbance sentence (
Figure 112021010851855-pat00019
) may include a disturbance authenticity label (TRUE) for determining whether a distant disturbance sentence has a similarity with the personality data.

일 실시예에 따라 제2 응답 메시지를 구성하는 단어의 동시 등장 확률(Co-occurrence Probability)에 기초하여 제2 응답 메시지를 생성할 수 있다. 이때, 동시 등장 확률(P(k/i))은 i단어가 등장 했을 때, k 단어가 등장하는 횟수를 카운트하여 계산한 조건부 확률을 의미할 수 있다. According to an embodiment, the second response message may be generated based on co-occurrence probability of words constituting the second response message. In this case, the simultaneous appearance probability (P(k/i)) may mean a conditional probability calculated by counting the number of times that the k word appears when the i word appears.

일 실시예에 따라 자동 응답 장치(100)에 의해 생성되는 제2 응답 메시지의 생성 확률은 수학식 3으로 나타낼 수 있다. According to an embodiment, the generation probability of the second response message generated by the answering machine 100 may be expressed by Equation (3).

Figure 112021010851855-pat00020
은 자동 응답 장치(100)에 의해 학습 데이터에 포함된 단어에 기초하여 제2 응답 메시지 생성 확률,
Figure 112021010851855-pat00021
은 학습 데이터,
Figure 112021010851855-pat00022
은 학습 데이터를 구성하는 복수의 문장에 포함된 단어,
Figure 112021010851855-pat00023
는 각각의 단어(
Figure 112021010851855-pat00024
)가 선택될 확률을 나타낸다.
Figure 112021010851855-pat00020
is the second response message generation probability based on the word included in the learning data by the automatic response device 100,
Figure 112021010851855-pat00021
is the training data,
Figure 112021010851855-pat00022
is a word included in a plurality of sentences constituting the learning data,
Figure 112021010851855-pat00023
is each word (
Figure 112021010851855-pat00024
) represents the probability of being selected.

Figure 112021010851855-pat00025
Figure 112021010851855-pat00025

이때, 제2 응답 메시지 생성 확률(

Figure 112021010851855-pat00026
)은 각각의 단어(
Figure 112021010851855-pat00027
)가 선택될 확률(
Figure 112021010851855-pat00028
)의 곱으로 계산될 수 있다. 구체적으로 제2 응답 메시지는 성격 데이터에 포함된 단어와의 유사도가 가까운 단어가 선택되는 경우 확률(
Figure 112021010851855-pat00029
)은 커지고, 방해 문장과 가까운 단어가 선택되는 경우 확률(
Figure 112021010851855-pat00030
)은 작아질 수 있다. At this time, the second response message generation probability (
Figure 112021010851855-pat00026
) for each word (
Figure 112021010851855-pat00027
) will be chosen (
Figure 112021010851855-pat00028
) can be calculated by multiplying Specifically, the second response message is a probability (
Figure 112021010851855-pat00029
) increases, and the probability (
Figure 112021010851855-pat00030
) can be small.

예를 들어, 제2 답변 요청 메시지 '1년 중에서 가장 좋아하는 연휴는 언제야?'에 포함된 '연휴'라는 단어가 등장 했을 때, 성격 데이터에 포함된 '크리스마스'가 선택되는 경우 확률(

Figure 112021010851855-pat00031
)은 커질 수 있으며, 방해 데이터에 포함된 '눈'이 선택되는 경우 확률(
Figure 112021010851855-pat00032
)은 작아 질 수 있다. For example, when the word 'holiday' included in the second response request message 'When is your favorite holiday in a year?'
Figure 112021010851855-pat00031
) can be large, and the probability (
Figure 112021010851855-pat00032
) can be small.

일 실시예에 따라 자동 응답 장치(100)는 학습 데이터와 생성된 제2 응답 메시지로 구성된 전체 대화의 생성 확률(

Figure 112021010851855-pat00033
)을 수학식 4를 통해 구할 수 있다.According to an embodiment, the automatic response apparatus 100 may generate a probability (
Figure 112021010851855-pat00033
) can be obtained through Equation 4.

이때,

Figure 112021010851855-pat00034
은 전체 대화의 생성 확률,
Figure 112021010851855-pat00035
은 학습 데이터, N은 전체를 문장의 수를 나타낸다. At this time,
Figure 112021010851855-pat00034
is the generation probability of the entire conversation,
Figure 112021010851855-pat00035
is the training data, and N is the total number of sentences.

Figure 112021010851855-pat00036
Figure 112021010851855-pat00036

구체적으로 전체 대화의 생성 확률(

Figure 112021010851855-pat00037
)은 제2 응답 메시지 생성 확률(
Figure 112021010851855-pat00038
)과 학습 데이터(
Figure 112021010851855-pat00039
)의 조건부 확률 곱으로 계산할 수 있다. 즉, 성격 데이터에 포함된 단어와의 유사도가 가까운 단어가 선택되는 경우 전체 대화의 생성 확률(
Figure 112021010851855-pat00040
)은 커지고, 방해 문장과 가까운 단어가 선택되는 경우 전체 대화의 생성 확률(
Figure 112021010851855-pat00041
)은 작아질 수 있다. Specifically, the generation probability of the entire conversation (
Figure 112021010851855-pat00037
) is the second response message generation probability (
Figure 112021010851855-pat00038
) and training data (
Figure 112021010851855-pat00039
) can be calculated as the conditional probability product of That is, when a word with a close similarity to the word included in the personality data is selected, the generation probability of the entire conversation (
Figure 112021010851855-pat00040
) increases, and the probability of generation of the entire conversation (
Figure 112021010851855-pat00041
) can be small.

도 3은 일 실시예에 따른 자동 응답 장치 생성을 위한 자동 응답 모델을 설명하기 위한 블록도이다. 도시된 바와 같이, 일 실시예에 따른 자동 응답 모델은 생성자(310) 및 구분자(320)를 포함한다.3 is a block diagram illustrating an automatic answering model for generating an automatic answering apparatus according to an exemplary embodiment. As shown, the automatic response model according to an embodiment includes a generator 310 and a delimiter 320 .

자동 응답 모델은 학습 데이터를 입력 받아 제2 응답 메시지를 생성할 수 있다. 이때, 제2 응답 메시지는 성격 데이터와는 유사도가 가깝고, 방해 데이터와는 유사도가 멀어지도록 제2 응답 메시지를 생성할 수 있다. The automatic response model may receive training data and generate a second response message. In this case, the second response message may generate a second response message such that the similarity to the personality data is close and the similarity to the interference data is farther away.

이때, 일 실시예에 따라 자동 응답 모델은 예를 들어, Masked Self Attention 기반 모델일 수 있다. In this case, according to an embodiment, the automatic response model may be, for example, a Masked Self Attention-based model.

일 실시예에 따르면, 예를 들어 자동 응답 모델은 아래의 수학식 5 에 기초하여 학습될 수 있다. According to an embodiment, for example, the automatic response model may be learned based on Equation 5 below.

이때,

Figure 112021010851855-pat00042
은 자동 응답 모델의 전체 손실 함수,
Figure 112021010851855-pat00043
은 자동 응답 모델의 생성 손실 함수,
Figure 112021010851855-pat00044
은 자동 응답 모델의 방해 손실,
Figure 112021010851855-pat00045
는 방해 손실 함수 조절 파라미터를 나타낸다. At this time,
Figure 112021010851855-pat00042
is the overall loss function of the autoresponse model,
Figure 112021010851855-pat00043
is the generation loss function of the autoresponse model,
Figure 112021010851855-pat00044
is the disturbance loss of the autoresponse model,
Figure 112021010851855-pat00045
is the disturbance loss function adjustment parameter.

Figure 112021010851855-pat00046
Figure 112021010851855-pat00046

일 실시예에 따라 생성자(310)가 생성한 제2 응답 메시지는 성격 데이터에 포함된 복수의 문장과 유사도가 가깝도록 생성 손실 함수의 손실을 감소시키고, 구분자(320)는 방해 문장을 생성하지 못하도록 방해 손실 함수의 손실을 감소시킬 수 있다. 이후, 생성 손실 함수 및 방해 손실 함수를 이용하여 전체 손실 함수를 이용하여 자동 응답 모델을 학습시킬 수 있다. According to an embodiment, the second response message generated by the generator 310 reduces the loss of the generation loss function so that the similarity to a plurality of sentences included in the personality data is close, and the separator 320 prevents the generation of the disturbing sentence. It is possible to reduce the loss of the disturbance loss function. Thereafter, the automatic response model can be trained using the overall loss function using the generation loss function and the disturbance loss function.

한편, 생성자(310)는 아래의 수학식 6 에 기초하여 생성 손실을 계산할 수 있다. Meanwhile, the generator 310 may calculate the generation loss based on Equation 6 below.

이때,

Figure 112021010851855-pat00047
은 자동 응답 모델의 생성 손실 함수,
Figure 112021010851855-pat00048
은 정답으로 입력된 제2 응답 메시지를 구성하는 단어의 성격 데이터에 기초한 유사도 확률을 나타내고,
Figure 112021010851855-pat00049
은 예측된 제2 응답 메시지를 구성하는 단어의 성격 데이터에 기초한 유사도 확률, M은 단어 집합의 크기를 나타낸다. At this time,
Figure 112021010851855-pat00047
is the generation loss function of the autoresponse model,
Figure 112021010851855-pat00048
represents the similarity probability based on the personality data of the words constituting the second response message input as the correct answer,
Figure 112021010851855-pat00049
is a similarity probability based on personality data of words constituting the predicted second response message, and M represents a size of a word set.

Figure 112021010851855-pat00050
Figure 112021010851855-pat00050

구체적으로 생성자(310)는 성격 데이터를 구성하는 복수의 문장 및 제2 응답 메시지에 기초한 생성 손실 함수(

Figure 112021010851855-pat00051
)를 통해 성격 데이터를 구성하는 복수의 문장과 유사도 차이에 의한 손실을 계산할 수 있다. Specifically, the generator 310 generates a generation loss function (
Figure 112021010851855-pat00051
), it is possible to calculate the loss due to differences in similarity with multiple sentences constituting personality data.

한편, 구분자(320)는 아래의 수학식 7 에 기초하여 방해 손실을 계산할 수 있다. Meanwhile, the delimiter 320 may calculate the disturbance loss based on Equation 7 below.

이때,

Figure 112021010851855-pat00052
은 입력된 학습 데이터에 포함된 방해 진위 여부 레이블,
Figure 112021010851855-pat00053
은 생성자(310)가 생성한 제2 응답 데이터의 성격 데이터에 기초한 유사도에 기초하여 방해 진위 여부의 확률을 나타낸다. At this time,
Figure 112021010851855-pat00052
is the authenticity label of the disturbance contained in the input training data;
Figure 112021010851855-pat00053
denotes the probability of whether the interference is authentic or not based on the similarity based on the personality data of the second response data generated by the generator 310 .

Figure 112021010851855-pat00054
Figure 112021010851855-pat00054

구분자(320)는 입력된 학습 데이터에 포함된 방해 진위 여부 레이블(

Figure 112021010851855-pat00055
)이 참인지 거짓인지 판단하며, 구체적으로 방해 데이터의 방해 진위 여부 레이블(
Figure 112021010851855-pat00056
)은 참(true), 정답으로 입력된 제2 응답 메시지의 방해 진위 여부를 거짓(false)으로 판단하도록 방해 손실 함수를 통해 방해 손실을 계산할 수 있다. The delimiter 320 is a label (
Figure 112021010851855-pat00055
) is true or false, and specifically a label (
Figure 112021010851855-pat00056
) may be true, and the disturbance loss may be calculated through the disturbance loss function to determine the authenticity of the disturbance of the second response message input as the correct answer as false.

구체적으로 구분자(320)는 방해 진위 여부 레이블(

Figure 112021010851855-pat00057
)이 참인 경우, 방해 손실 함수(
Figure 112021010851855-pat00058
)가 커지도록 하여 방해 문장을 생성하지 못하도록 할 수 있다. Specifically, the delimiter 320 is the interference authenticity label (
Figure 112021010851855-pat00057
) is true, the disturbance loss function (
Figure 112021010851855-pat00058
) can be increased to prevent the generation of interfering sentences.

도 4은 일 실시예에 따른 자동 응답 생성 방법을 설명하기 위한 흐름도이다. 4 is a flowchart illustrating an automatic response generating method according to an exemplary embodiment.

도 4에 도시된 방법은 예를 들어, 전술한 자동 응답 장치(100)에 의해 수행될 수 있다.The method shown in FIG. 4 may be performed, for example, by the aforementioned automatic answering machine 100 .

410 단계에서, 자동 응답 장치(100)는 제1 답변 요청 메시지와 제1 답변 요청 메시지에 대응하는 제1 응답 메시지 세트를 포함하는 과거 대화 데이터, 성격 데이터, 방해 데이터 및 제2 답변 요청 메시지에 대한 제2 응답 메시지에 기초하여 학습 데이터(training data)를 생성한다.In step 410, the automatic response device 100 for the first response request message and the first response request message for the past conversation data including the first response message set corresponding to the response request message, personality data, interruption data and the second response request message It generates training data based on the second response message.

420 단계에서, 학습 데이터에 기초하여, 자동 응답 모델이 생성하는 제2 응답 메시지가 성격 데이터와의 유사도는 가까워지고, 방해 데이터와의 유사도는 멀어지도록 자동 응답 모델을 학습시킨다.In step 420, based on the learning data, the automatic response model is trained so that the second response message generated by the automatic response model has a similarity with the personality data and a similarity with the interference data is farther away.

도시된 흐름도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.In the illustrated flowchart, the method is described by dividing the method into a plurality of steps, but at least some of the steps are performed in a different order, are performed together in combination with other steps, are omitted, are performed in sub-steps, or are not shown. One or more steps may be added and performed.

도 5는 일 실시예에 따른 컴퓨팅 장치를 포함하는 컴퓨팅 환경(10)을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술된 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.5 is a block diagram illustrating and describing a computing environment 10 including a computing device according to an embodiment. In the illustrated embodiment, each component may have different functions and capabilities other than those described below, and may include additional components in addition to those described below.

도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 자동 응답 생성 장치(100)일 수 있다.The illustrated computing environment 10 includes a computing device 12 . In one embodiment, computing device 12 may be automatic response generating device 100 .

컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.Computing device 12 includes at least one processor 14 , computer readable storage medium 16 , and communication bus 18 . The processor 14 may cause the computing device 12 to operate in accordance with the exemplary embodiments discussed above. For example, the processor 14 may execute one or more programs stored in the computer-readable storage medium 16 . The one or more programs may include one or more computer-executable instructions that, when executed by the processor 14, configure the computing device 12 to perform operations in accordance with the exemplary embodiment. can be

컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.Computer-readable storage medium 16 is configured to store computer-executable instructions or program code, program data, and/or other suitable form of information. The program 20 stored in the computer readable storage medium 16 includes a set of instructions executable by the processor 14 . In one embodiment, computer-readable storage medium 16 includes memory (volatile memory, such as random access memory, non-volatile memory, or a suitable combination thereof), one or more magnetic disk storage devices, optical disk storage devices, flash It may be memory devices, other forms of storage medium accessed by computing device 12 and capable of storing desired information, or a suitable combination thereof.

통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.Communication bus 18 interconnects various other components of computing device 12 , including processor 14 and computer readable storage medium 16 .

컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.Computing device 12 may also include one or more input/output interfaces 22 and one or more network communication interfaces 26 that provide interfaces for one or more input/output devices 24 . The input/output interface 22 and the network communication interface 26 are coupled to the communication bus 18 . Input/output device 24 may be coupled to other components of computing device 12 via input/output interface 22 . Exemplary input/output device 24 may include a pointing device (such as a mouse or trackpad), a keyboard, a touch input device (such as a touchpad or touchscreen), a voice or sound input device, various types of sensor devices, and/or imaging devices. input devices, and/or output devices such as display devices, printers, speakers and/or network cards. The exemplary input/output device 24 may be included in the computing device 12 as a component constituting the computing device 12 , and may be connected to the computing device 12 as a separate device distinct from the computing device 12 . may be

한편, 본 발명의 실시예는 본 명세서에서 기술한 방법들을 컴퓨터상에서 수행하기 위한 프로그램, 및 상기 프로그램을 포함하는 컴퓨터 판독 가능 기록매체를 포함할 수 있다. 상기 컴퓨터 판독 가능 기록매체는 프로그램 명령, 로컬 데이터 파일, 로컬 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나, 또는 컴퓨터 소프트웨어 분야에서 통상적으로 사용 가능한 것일 수 있다. 컴퓨터 판독 가능 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광 기록 매체, 및 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 상기 프로그램의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다.Meanwhile, an embodiment of the present invention may include a program for performing the methods described in this specification on a computer, and a computer-readable recording medium including the program. The computer-readable recording medium may include program instructions, local data files, local data structures, etc. alone or in combination. The medium may be specially designed and configured for the present invention, or may be commonly used in the field of computer software. Examples of the computer-readable recording medium include hard disks, magnetic media such as floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and program instructions specially configured to store and execute program instructions such as ROMs, RAMs, flash memories, etc. Hardware devices are included. Examples of the program may include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine language codes such as those generated by a compiler.

이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 청구범위뿐만 아니라 이 청구범위와 균등한 것들에 의해 정해져야 한다.Although representative embodiments of the present invention have been described in detail above, those of ordinary skill in the art to which the present invention pertains will understand that various modifications are possible within the limits without departing from the scope of the present invention with respect to the above-described embodiments. . Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined by the following claims as well as the claims and equivalents.

10: 컴퓨팅 환경
12: 컴퓨팅 장치
14: 프로세서
16: 컴퓨터 판독 가능 저장 매체
18: 통신 버스
20: 프로그램
22: 입출력 인터페이스
24: 입출력 장치
26: 네트워크 통신 인터페이스
100: 자동 응답 생성 장치
110: 학습 데이터 생성부
120: 모델 학습부
121: 생성자
123: 구분자
10: Computing Environment
12: computing device
14: Processor
16: computer readable storage medium
18: communication bus
20: Program
22: input/output interface
24: input/output device
26: network communication interface
100: automatic response generating device
110: training data generation unit
120: model training unit
121: constructor
123: delimiter

Claims (12)

제1 답변 요청 메시지와 상기 제1 답변 요청 메시지에 대응하는 제1 응답 메시지 세트를 포함하는 과거 대화 데이터, 성격 데이터, 방해 데이터 및 제2 답변 요청 메시지에 대한 제2 응답 메시지에 기초하여 학습 데이터(training data)를 생성하는 학습 데이터 생성부; 및
상기 학습 데이터에 기초하여, 자동 응답 모델이 생성하는 상기 제2 응답 메시지가 상기 성격 데이터와의 유사도는 가까워지고, 상기 방해 데이터와의 유사도는 멀어지도록 자동 응답 모델을 학습시키는 모델 학습부를 포함하되,
상기 자동 응답 모델은, 상기 학습 데이터를 입력 받아 상기 성격 데이터에 기초하여 상기 제2 응답 메시지를 생성하는 생성자(Generator) 및 상기 학습 데이터를 입력 받아 상기 방해 데이터 및 상기 제2 응답 메시지의 유사도에 기초하여 상기 제2 응답 메시지의 방해 진위 여부를 판단하는 구분자(Discriminator)를 포함하고,
상기 모델 학습부는, 상기 성격 데이터와 상기 제2 응답 메시지 사이의 유사도에 기초한 제1 손실 함수 및 상기 방해 데이터의 상기 방해 진위 여부 레이블은 참(true)으로 상기 제2 응답 메시지를 거짓(false)으로 판단하도록 하기 위한 제2 손실 함수에 기초한 제3 손실 함수를 이용하여 상기 자동 응답 모델을 학습시키는, 자동 응답 생성 장치.
Learning data ( training data generating unit for generating training data; and
On the basis of the learning data, the second response message generated by the automatic response model includes a model learning unit that trains the automatic response model so that the similarity with the personality data is close, and the similarity with the interference data is farther away,
The automatic response model receives the learning data and generates the second response message based on the personality data. Based on the similarity between the interruption data and the second response message by receiving the learning data and receiving the learning data. to include a discriminator for determining the authenticity of the interference of the second response message,
The model learning unit sets the first loss function based on the degree of similarity between the personality data and the second response message and the disturbance authenticity label of the disturbance data to be true and the second response message to false. An apparatus for generating an automatic response that trains the automatic response model by using a third loss function based on a second loss function for determining.
청구항 1에 있어서,
상기 성격 데이터는, 특정한 성격을 가진 사람에 의해 발화된 것으로 사전 분류된 복수의 문장을 포함하는, 자동 응답 생성 장치.
The method according to claim 1,
The personality data includes a plurality of sentences pre-classified as being uttered by a person having a specific personality.
청구항 2항에 있어서,
상기 방해 데이터는 상기 성격 데이터에 포함된 상기 복수의 문장에 포함된 단어와의 유사도에 기초하여 생성된 방해 문장 및 상기 방해 문장의 방해 진위 여부 레이블을 포함하는, 자동 응답 생성 장치.
3. The method of claim 2,
The interruption data includes an interruption sentence generated based on a degree of similarity with words included in the plurality of sentences included in the personality data and a label of whether the interruption sentence is authentic or not.
청구항 2항에 있어서,
상기 과거 대화 데이터는, 상기 성격 데이터에 포함된 복수의 문장과의 유사도에 기초하여 생성된 상기 제1 답변 요청 메시지에 대한 상기 제1 응답 메시지를 포함하는, 자동 응답 생성 장치.
3. The method of claim 2,
The past conversation data includes the first response message to the first response request message generated based on a degree of similarity with a plurality of sentences included in the personality data.
삭제delete 삭제delete 제1 답변 요청 메시지와 상기 제1 답변 요청 메시지에 대응하는 제1 응답 메시지 세트를 포함하는 과거 대화 데이터, 성격 데이터, 방해 데이터 및 제2 답변 요청 메시지에 대한 제2 응답 메시지에 기초하여 학습 데이터(training data)를 생성하는 단계; 및
상기 학습 데이터에 기초하여, 자동 응답 모델이 생성하는 상기 제2 응답 메시지가 상기 성격 데이터와의 유사도는 가까워지고, 상기 방해 데이터와의 유사도는 멀어지도록 자동 응답 모델을 학습시키는 단계를 포함하되,
상기 자동 응답 모델은, 상기 학습 데이터를 입력 받아 상기 성격 데이터에 기초하여 상기 제2 응답 메시지를 생성하는 생성자(Generator) 및 상기 학습 데이터를 입력 받아 상기 방해 데이터 및 상기 제2 응답 메시지의 유사도에 기초하여 상기 제2 응답 메시지의 방해 진위 여부를 판단하는 구분자(Discriminator)를 포함하고,
상기 학습시키는 단계는, 상기 성격 데이터와 상기 제2 응답 메시지 사이의 유사도에 기초한 제1 손실 함수 및 상기 방해 데이터의 상기 방해 진위 여부 레이블은 참(true)으로 상기 제2 응답 메시지를 거짓(false)으로 판단하도록 하기 위한 제2 손실 함수에 기초한 제3 손실 함수를 이용하여 상기 자동 응답 모델을 학습시키는, 자동 응답 생성 방법.
Learning data ( generating training data); and
On the basis of the learning data, the second response message generated by the automatic response model comprising the step of learning the automatic response model so that the similarity with the personality data is close, and the similarity with the interference data is far away,
The automatic response model receives the learning data and generates the second response message based on the personality data. Based on the similarity between the interruption data and the second response message by receiving the learning data and receiving the learning data. to include a discriminator for determining the authenticity of the interference of the second response message,
In the learning step, the first loss function based on the similarity between the personality data and the second response message and the interference authenticity label of the interference data are true, and the second response message is false. Learning the automatic response model using a third loss function based on the second loss function for determining as , automatic response generation method.
청구항 7에 있어서,
상기 성격 데이터는, 특정한 성격을 가진 사람에 의해 발화된 것으로 사전 분류된 복수의 문장을 포함하는, 자동 응답 생성 방법.
8. The method of claim 7,
The personality data includes a plurality of sentences pre-classified as being uttered by a person having a specific personality.
청구항 8항에 있어서,
상기 방해 데이터는 상기 성격 데이터에 포함된 상기 복수의 문장에 포함된 단어와의 유사도에 기초하여 생성된 방해 문장을 포함하고, 상기 성격 데이터에 대한 유사도에 기초하여 생성된 방해 문장의 방해 진위 여부 레이블을 포함하는, 자동 응답 생성 방법.
9. The method of claim 8,
The interruption data includes a disturbing sentence generated based on a degree of similarity with words included in the plurality of sentences included in the personality data, and a label of whether the interference sentence is generated based on the similarity to the personality data. A method for generating an automatic response, comprising:
청구항 8항에 있어서,
상기 과거 대화 데이터는, 상기 성격 데이터를 구성하는 복수의 문장과의 유사도에 기초하여 생성된 상기 제1 답변 요청 메시지에 대한 상기 제1 응답 메시지를 포함하는, 자동 응답 생성 방법.
9. The method of claim 8,
The past conversation data includes the first response message to the first response request message generated based on a degree of similarity with a plurality of sentences constituting the personality data.
삭제delete 삭제delete
KR1020210011429A 2021-01-27 2021-01-27 Apparatus and method for generating an automatic response KR102372642B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210011429A KR102372642B1 (en) 2021-01-27 2021-01-27 Apparatus and method for generating an automatic response

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210011429A KR102372642B1 (en) 2021-01-27 2021-01-27 Apparatus and method for generating an automatic response

Publications (1)

Publication Number Publication Date
KR102372642B1 true KR102372642B1 (en) 2022-03-08

Family

ID=80812189

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210011429A KR102372642B1 (en) 2021-01-27 2021-01-27 Apparatus and method for generating an automatic response

Country Status (1)

Country Link
KR (1) KR102372642B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102612206B1 (en) * 2022-12-21 2023-12-12 주식회사 마인드로 Interactive conversation system performing follow-up conversation using emtion and feeling analysis information appering in the conversation with wards, humans

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10152970B1 (en) * 2018-02-08 2018-12-11 Capital One Services, Llc Adversarial learning and generation of dialogue responses
KR20190125154A (en) * 2018-04-27 2019-11-06 아토머스 주식회사 An apparatus for machine learning the psychological counseling data and a method thereof
KR20200023049A (en) * 2018-08-24 2020-03-04 네이버 주식회사 Method and system for generating multi-turn conversation response using deep learing generation model and multi-modal distribution
KR20200042137A (en) 2018-10-15 2020-04-23 삼성전자주식회사 Electronic device providing variation utterance text and operating method thereof
KR20200114230A (en) * 2019-03-28 2020-10-07 서울대학교산학협력단 Conversational agent system and method based on user emotion

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10152970B1 (en) * 2018-02-08 2018-12-11 Capital One Services, Llc Adversarial learning and generation of dialogue responses
KR20190125154A (en) * 2018-04-27 2019-11-06 아토머스 주식회사 An apparatus for machine learning the psychological counseling data and a method thereof
KR20200023049A (en) * 2018-08-24 2020-03-04 네이버 주식회사 Method and system for generating multi-turn conversation response using deep learing generation model and multi-modal distribution
KR20200042137A (en) 2018-10-15 2020-04-23 삼성전자주식회사 Electronic device providing variation utterance text and operating method thereof
KR20200114230A (en) * 2019-03-28 2020-10-07 서울대학교산학협력단 Conversational agent system and method based on user emotion

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Chien-Hao Kao et al., Model of Multi-turn Dialogue in Emotional Chatbot, 2019 International Conference on Technologies and Applications of Arti?cial Intelligence, 2019.11.21. <DOI: 10.1109/TAAI48200.2019.8959855> 1부.* *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102612206B1 (en) * 2022-12-21 2023-12-12 주식회사 마인드로 Interactive conversation system performing follow-up conversation using emtion and feeling analysis information appering in the conversation with wards, humans

Similar Documents

Publication Publication Date Title
US20230252241A1 (en) Multi-turn dialogue response generation with persona modeling
JP7324772B2 (en) Personalized Gesture Recognition for User Interaction with Assistive Systems
US11720635B2 (en) Providing command bundle suggestions for an automated assistant
US20210117624A1 (en) Semantic Representations Using Structural Ontology for Assistant Systems
US20240038220A1 (en) Expediting interaction with a digital assistant by predicting user responses
JP2022551788A (en) Generate proactive content for ancillary systems
US11610579B2 (en) Processing natural language using machine learning to determine slot values based on slot descriptors
US20190361977A1 (en) Training data expansion for natural language classification
KR20180077691A (en) Apparatus and method for sentence abstraction
CN112805780A (en) Speaker segmentation using end-to-end model
KR20230029582A (en) Using a single request to conference in the assistant system
US11928985B2 (en) Content pre-personalization using biometric data
US11711469B2 (en) Contextualized speech to text conversion
US20240055003A1 (en) Automated assistant interaction prediction using fusion of visual and audio input
KR102372642B1 (en) Apparatus and method for generating an automatic response
US20220293093A1 (en) Mixed client-server federated learning of machine learning model(s)
CN110249326B (en) Natural language content generator
US11983464B2 (en) Neural network-based message communication framework with summarization and on-demand audio output generation
US20230178079A1 (en) Adversarial speech-text protection against automated analysis
US20240031339A1 (en) Method(s) and system(s) for utilizing an independent server to facilitate secure exchange of data
CN117377942A (en) Active listening of assistant systems
CN118522274A (en) Interactive editor for dialog design flow for assistant system

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant