KR102372642B1 - Apparatus and method for generating an automatic response - Google Patents
Apparatus and method for generating an automatic response Download PDFInfo
- Publication number
- KR102372642B1 KR102372642B1 KR1020210011429A KR20210011429A KR102372642B1 KR 102372642 B1 KR102372642 B1 KR 102372642B1 KR 1020210011429 A KR1020210011429 A KR 1020210011429A KR 20210011429 A KR20210011429 A KR 20210011429A KR 102372642 B1 KR102372642 B1 KR 102372642B1
- Authority
- KR
- South Korea
- Prior art keywords
- data
- response
- similarity
- personality
- response message
- Prior art date
Links
- 230000004044 response Effects 0.000 title claims abstract description 168
- 238000000034 method Methods 0.000 title claims abstract description 21
- 230000006870 function Effects 0.000 claims description 30
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 230000015654 memory Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 241001504424 Zosteropidae Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000003924 mental process Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/335—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/02—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Machine Translation (AREA)
Abstract
Description
개시되는 실시예들은 사용자의 답변 요청에 대한 자동 응답을 생성하기 위한 기술에 관한 것이다.Disclosed embodiments relate to techniques for generating an automatic response to a user's request for an answer.
메신저는 1990년대 중반부터 사용해 오던 서비스이다. PC(Personal Computer)를 중심으로 서비스를 연착륙시킨 뒤, 스마트폰이 등장하면서 사람들과 대화를 나눌 수 있는 대표 수단이 되었다. 모바일 메신저 업체는 이와 같은 메신저 영향력을 새로운 플랫폼으로 만들어 나가기 위해 인공지능과 메신저를 결합한 '챗봇(Chatbot)' 기술을 활용했다.Messenger is a service that has been in use since the mid-1990s. After the soft landing of services centered on PCs (Personal Computers), smartphones became a representative means of conversing with people with the advent of smartphones. Mobile messenger companies used 'Chatbot' technology that combines artificial intelligence and messenger to create a new platform for messenger influence.
그러나 챗봇 기술은 일관된 응답을 생성하지 못하는 문제점이 있었다. 이에, 일관된 성격이 부여된 응답을 생성하는 챗봇의 요구가 대두되었다.However, the chatbot technology had a problem in that it did not generate a consistent response. Accordingly, a demand for a chatbot that generates a response with a consistent character has emerged.
개시되는 실시예들은 사용자의 답변 요청에 대한 자동 응답을 생성에 필요한 학습 데이터를 구성하기 위한 기술적인 수단을 제공하기 위한 것이다.The disclosed embodiments are intended to provide a technical means for constructing learning data necessary for generating an automatic response to a user's response request.
일 실시예에 따라 자동 응답 생성 장치는, 제1 답변 요청 메시지와 상기 제1 답변 요청 메시지에 대응하는 제1 응답 메시지 세트를 포함하는 과거 대화 데이터, 성격 데이터, 방해 데이터 및 제2 답변 요청 메시지에 대한 제2 응답 메시지에 기초하여 학습 데이터(training data)를 생성하는 학습 데이터 생성부 및 상기 학습 데이터에 기초하여, 자동 응답 모델이 생성하는 상기 제2 응답 메시지가 상기 성격 데이터와의 유사도는 가까워지고, 상기 방해 데이터와의 유사도는 멀어지도록 자동 응답 모델을 학습시키는 모델 학습부를 포함한다. According to an embodiment, the automatic response generating apparatus includes a first response request message and past conversation data including a first response message set corresponding to the first response request message, personality data, interruption data, and a second response request message. The second response message generated by the automatic response model on the basis of the training data generator and the training data for generating training data based on the second response message to the second response message to the similarity with the personality data is close , and a model learning unit for learning the automatic response model so that the degree of similarity with the interference data is farther away.
상기 성격 데이터는 특정한 성격을 가진 사람에 의해 발화된 것으로 사전 분류된 복수의 문장을 포함할 수 있다. The personality data may include a plurality of sentences pre-classified as being uttered by a person having a specific personality.
상기 방해 데이터는 상기 성격 데이터에 포함된 상기 복수의 문장에 포함된 단어와의 유사도에 기초하여 생성된 방해 문장을 포함하고, 상기 성격 데이터에 대한 유사도에 기초하여 결정된 방해 문장의 방해 진위 여부 레이블을 포함할 수 있다.The interference data includes a disturbing sentence generated based on a degree of similarity with words included in the plurality of sentences included in the personality data, and a label of whether the interference is authentic or not determined based on the similarity to the personality data. may include
상기 과거 대화 데이터는, 상기 성격 데이터를 구성하는 복수의 문장과의 유사도에 기초하여 생성된 상기 제1 답변 요청 메시지에 대응하는 상기 제1 응답 메시지를 포함할 수 있다.The past conversation data may include the first response message corresponding to the first response request message generated based on a similarity with a plurality of sentences constituting the personality data.
상기 자동 응답 모델은, 상기 학습 데이터를 입력 받아 상기 성격 데이터에 기초하여 상기 제2 응답 메시지를 생성하는 생성자(Generator) 및The automatic response model includes a generator that receives the learning data and generates the second response message based on the personality data;
상기 학습 데이터를 입력 받아 상기 방해 데이터 및 상기 제2 응답 메시지의 유사도에 기초하여 상기 제2 응답 메시지의 방해 진위 여부를 판단하는 구분자(Discriminator)를 포함할 수 있다.and a discriminator that receives the learning data and determines whether the interference of the second response message is authentic or not based on the similarity between the interference data and the second response message.
상기 모델 학습부, 상기 성격 데이터와 상기 제2 응답 메시지 사이의 유사도에 기초한 제1 손실 함수, 상기 방해 데이터의 상기 방해 진위 여부 레이블은 참(true)으로 상기 제2 응답 메시지를 거짓(false)으로 판단하도록 제2 손실 함수를 이용하여 상기 구분자를 학습시키되, 상기 성격 데이터와의 유사도 및 상기 방해 진위 여부 레이블에 따른 제1 손실 함수 및 제2 손실 함수를 포함하는 제3 손실 함수의 출력 값에 기초하여 학습할 수 있다.The model learning unit, a first loss function based on the similarity between the personality data and the second response message, and the disturbance authenticity label of the disturbance data are true and the second response message is false. Learning the discriminator using a second loss function to determine, based on the output value of the third loss function including the first loss function and the second loss function according to the similarity with the personality data and the disturbance authenticity label so you can learn
일 실시예에 따른 동 응답 생성 방법은 제1 답변 요청 메시지와 상기 제1 답변 요청 메시지에 대응하는 제1 응답 메시지 세트를 포함하는 과거 대화 데이터, 성격 데이터, 방해 데이터 및 제2 답변 요청 메시지에 대한 제2 응답 메시지에 기초하여 학습 데이터(training data)를 생성하는 단계 및 상기 학습 데이터에 기초하여, 모델이 생성하는 상기 제2 응답 메시지가 상기 성격 데이터와의 유사도는 가까워지고, 상기 방해 데이터와의 유사도는 멀어지도록 자동 응답 모델을 학습시시키는 단계를 포함한다. The response generating method according to an embodiment includes a first response request message and a first response message set corresponding to the first response request message for past conversation data, personality data, interruption data, and a second response request message. Generating training data based on a second response message and based on the training data, the second response message generated by the model has a similarity with the personality data close to, and with the interference data Similarity involves training the autoresponder model to move away from it.
상기 성격 데이터는 특정한 성격을 가진 사람에 의해 발화된 것으로 사전 분류된 복수의 문장을 포함할수 있다.The personality data may include a plurality of sentences pre-classified as being uttered by a person having a specific personality.
상기 방해 데이터는 상기 성격 데이터에 포함된 상기 복수의 문장에 포함된 단어와의 유사도에 기초하여 생성된 방해 문장을 포함하고, 상기 성격 데이터에 대한 유사도에 기초하여 결정된 방해 문장의 방해 진위 여부 레이블을 포함할 수 있다.The interference data includes a disturbing sentence generated based on a degree of similarity with words included in the plurality of sentences included in the personality data, and a label of whether the interference is authentic or not determined based on the similarity to the personality data. may include
상기 과거 대화 데이터는, 상기 성격 데이터를 구성하는 복수의 문장과의 유사도에 기초하여 생성된 상기 제1 답변 요청 메시지에 대응하는 상기 제1 응답 메시지를 포함할 수 있다.The past conversation data may include the first response message corresponding to the first response request message generated based on a similarity with a plurality of sentences constituting the personality data.
상기 자동 응답 모델은, 상기 학습 데이터를 입력 받아 상기 성격 데이터에 기초하여 상기 제2 응답 메시지를 생성하는 생성자(Generator) 및 상기 학습 데이터를 입력 받아 상기 방해 데이터 및 상기 제2 응답 메시지의 유사도에 기초하여 상기 제2 응답 메시지의 방해 진위 여부를 판단하는 구분자(Discriminator)를 포함할 수 있다.The automatic response model receives the learning data and generates the second response message based on the personality data. Based on the similarity between the interruption data and the second response message by receiving the learning data and receiving the learning data. Thus, it may include a discriminator for determining whether the interference of the second response message is authentic.
상기 모델 학습부, 상기 성격 데이터와 상기 제2 응답 메시지 사이의 유사도에 기초한 제1 손실 함수 및 상기 방해 데이터의 상기 방해 진위 여부 레이블은 참(true)으로 상기 제2 응답 메시지를 거짓(false)으로 판단하도록 하기 위한 제2 손실 함수에 기초한 제3 손실 함수를 이용하여 상기 자동 응답 모델을 학습시킬 수 있다. The model learning unit, the first loss function based on the similarity between the personality data and the second response message, and the disturbance authenticity label of the disturbance data are true, and the second response message is false. The automatic response model may be trained by using a third loss function based on the second loss function for determining.
개시되는 실시예들에 따르면, 성격 데이터 정보를 입력하여, 성격 데이터에 기초하여 응답 메시지의 일관성을 유지할 수 있다. According to the disclosed embodiments, by inputting personality data information, it is possible to maintain consistency of a response message based on the personality data.
개시되는 실시예들에 따르면, 성격 데이터와 일관되지 않은 방해 데이터를 생성하는 것을 억제하여 응답 메시지의 일관성을 유지할 수 있다. According to the disclosed embodiments, it is possible to maintain the consistency of the response message by suppressing the generation of the interference data inconsistent with the personality data.
도 1은 일 실시예에 따른 자동 응답 생성 장치를 설명하기 위한 블록도
도 2는 일 실시예에 따른 학습 데이터를 구성하는 방법을 설명하기 위한 예시도
도 3은 일 실시예에 따른 자동 응답 생성을 위한 자동 응답 모델을 설명하기 위한 블록도
도 4은 일 실시예에 따른 자동 응답 생성 방법을 설명하기 위한 흐름도
도 5는 일 실시예에 따른 자동 응답 생성을 위한 자동 응답 모델을 설명하기 위한 블록도
도 6은 일 실시예에 따른 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도1 is a block diagram illustrating an apparatus for generating an automatic response according to an embodiment;
2 is an exemplary diagram for explaining a method of configuring learning data according to an embodiment;
3 is a block diagram illustrating an automatic response model for generating an automatic response according to an embodiment;
4 is a flowchart illustrating a method for generating an automatic response according to an embodiment;
5 is a block diagram illustrating an automatic response model for generating an automatic response according to an embodiment;
6 is a block diagram illustrating and explaining a computing environment including a computing device according to an embodiment;
이하, 도면을 참조하여 구체적인 실시 형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 개시되는 실시예들은 이에 제한되지 않는다.Hereinafter, specific embodiments will be described with reference to the drawings. The following detailed description is provided to provide a comprehensive understanding of the methods, apparatus, and/or systems described herein. However, this is merely an example, and the disclosed embodiments are not limited thereto.
실시예들을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 개시되는 실시예들의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 개시되는 실시예들에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.In the description of the embodiments, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the disclosed embodiments, the detailed description thereof will be omitted. And, the terms to be described later are terms defined in consideration of functions in the disclosed embodiments, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the content throughout this specification. The terminology used in the detailed description is for the purpose of describing the embodiments only, and should in no way be limiting. Unless explicitly used otherwise, expressions in the singular include the meaning of the plural. In this description, expressions such as “comprising” or “comprising” are intended to indicate certain features, numbers, steps, acts, elements, some or a combination thereof, one or more other than those described. It should not be construed to exclude the presence or possibility of other features, numbers, steps, acts, elements, or any part or combination thereof.
도 1은 일 실시예에 따른 자동 응답 장치를 설명하기 위한 블록도이다.1 is a block diagram illustrating an answering machine according to an exemplary embodiment.
일 실시예에 따른 자동 응답 장치(100)는 답변 요청 메시지에 대한 자동 응답 요청을 수신하고, 성격 데이터와 유사도가 가까운 응답 메시지를 생성하여 제공한다. The
자동 응답 장치(100)는 질의를 수신하고 기 설정된 응답 규칙에 따라 상기 질의에 대한 응답을 회신하도록 구성되는 컴퓨팅 시스템이다. 일 실시예에서, 자동 응답 장치(100)는 룰(rule) 또는 인공 지능(artificial intelligence) 등을 기반으로 하는 응답 규칙을 포함할 수 있으며, 상기 응답 규칙에 따라 상기 질의에 대한 응답을 생성할 수 있다.The
도시된 바와 같이, 일 실시예에 따른 자동 응답 장치(100)는 학습 데이터생성부(110) 및 모델 학습부(120)를 포함한다. As shown, the
학습 데이터 생성부(110)는 제1 답변 요청 메시지와 제1 답변 요청 메시지에 대응하는 제1 응답 메시지 세트를 포함하는 과거 대화 데이터, 성격 데이터, 방해 데이터 및 제2 답변 요청 메시지에 대한 제2 응답 메시지에 기초하여 학습 데이터(training data)를 생성한다.The learning
일 실시예에 따라 학습 데이터 생성부(110)는 답변 요청에 대응하는 응답의 일관성을 유지하도록 하기 위해 자동 응답 장치(100)의 응답 메시지에 일관된 패턴을 부여하는 성격 데이터를 획득할 수 있다. 이때, 성격(personality)은 개인의 기분 ·태도 ·의견을 포괄하며 타자와의 상호작용에서 분명하게 드러나는 것으로, 일관된 행동 패턴 또는 개인의 내부에서 일어나는 내적 정신 과정을 의미한다. According to an embodiment, the
일 실시예에 따라 특정한 성격을 가진 사람에 의해 발화된 것으로 사전 분류된 복수의 문장을 포함을 포함한다. According to an embodiment, including a plurality of sentences pre-classified as being uttered by a person having a specific personality.
구체적으로 성격 데이터는 직업, 가족 관계 및 재산 등의 사회적 지위와 관련된 정보뿐 아니라 개인이 접하는 상황에 대해 독특한 적응을 나타내는 예를 들어 외향/내향으로 구분되는 에너지의 방향, 감각/직관으로 구분되는 사물 인식의 기준, 사고/감정으로 구분되는 상황 구분 기준, 판단/인식으로 구분되는 생활 양식을 포함하는 사고와 감정을 표현하는 단어들로 구성될 수 있다. Specifically, personality data includes information related to social status such as occupation, family relationships, and wealth, as well as information that represents a unique adaptation to a situation encountered by an individual It may be composed of words expressing thoughts and emotions including a criterion for recognition, a criterion for classification of situations divided into thoughts/feelings, and a lifestyle divided into judgment/recognition.
일 실시예에 따라 방해 데이터는 성격 데이터에 포함된 복수의 문장에 포함된 단어과의 유사도에 기초하여 생성된 방해 문장을 포함하고, 성격 데이터에 대한 유사도에 기초하여 생성된 방해 문장의 방해 진위 여부 레이블을 포함한다. 구체적으로, 방해 데이터는 성격 데이터를 구성하는 복수의 문장에 포함된 단어에 대하여 유사도가 먼 단어로 구성된 방해 문장을 포함할 수 있다.According to an embodiment, the disturbance data includes a disturbance sentence generated based on a degree of similarity with words included in a plurality of sentences included in the personality data, and a label of whether the disturbance sentence is generated based on the similarity to the personality data includes In detail, the interruption data may include an interruption sentence composed of words having a far similarity to words included in a plurality of sentences constituting the personality data.
구체적으로 방해 문장이 성격 데이터와의 유사도가 먼 경우, 방해 진위 여부 레이블은 참(True) 값으로 설정될 수 있다.Specifically, when the disturbing sentence has a far similarity to the personality data, the interference authenticity label may be set to a true value.
일 실시예에 따라 과거 대화 데이터는 성격 데이터를 구성하는 복수의 문장과의 유사도에 기초하여 생성된 제1 답변 요청 메시지에 대응하는 제1 응답 메시지를 포함한다.According to an embodiment, the past conversation data includes a first response message corresponding to the first response request message generated based on a similarity with a plurality of sentences constituting the personality data.
일 실시예에 따라 과거 대화 데이터는 자동 응답 장치(100)에 요청된 응답 메시지 생성에 이용하기 위한 것으로 답변이 요청된 제2 답변 요청 메시지 이전의 모든 대화를 포함할 수 있다. According to an embodiment, the past conversation data is used to generate a response message requested by the
일 실시예에 따르면 학습 데이터 생성부(110)는 성격 데이터에 기초하여 과거 대화 데이터, 방해 데이터 및 제2 답변 요청 메시지를 구성하는 단어의 유사도를 결정하여 학습 데이터를 생성할 수 있다. According to an embodiment, the learning
모델 학습부(120)는 학습 데이터에 기초하여, 자동 응답 모델이 생성하는 제2 응답 메시지가 성격 데이터와의 유사도는 가까워지고, 방해 데이터와의 유사도는 멀어지도록 자동 응답 모델을 학습시킨다.Based on the training data, the
일 실시예에 따르면, 자동 응답 생성을 위한 자동 응답 모델은 생성적 모델(Generative Model) 및 구분적 모델(Discriminative Model)을 포함할 수 있다. According to an embodiment, the automatic response model for automatic response generation may include a generative model and a discriminative model.
일 실시예에 따라 모델 학습부(120)는 학습 데이터를 입력 받아 성격 데이터에 기초하여 제2 응답 메시지를 생성하는 생성자(Generator) 및 학습 데이터를 입력 받아 방해 데이터 및 제2 응답 메시지의 유사도에 기초하여 제2 응답 메시지의 방해 진위 여부를 판단하는 구분자(Discriminator)를 포함한다.According to an embodiment, the
일 실시예에 따라 모델 학습부(120)는 성격 데이터와 제2 응답 메시지 사이의 유사도에 기초한 제1 손실 함수, 방해 데이터의 방해 진위 여부 레이블은 참(true)으로 제2 응답 메시지를 거짓(false)으로 판단하도록 제2 손실 함수를 이용하여 구분자를 학습시키되, 성격 데이터와의 유사도 및 방해 진위 여부 레이블에 따른 제1 손실 함수 및 제2 손실 함수를 포함하는 제3 손실 함수의 출력 값에 기초하여 학습한다.According to an embodiment, the
도 2는 일 실시예에 따른 학습 데이터를 구성하는 방법을 설명하기 위한 예시도이다.2 is an exemplary diagram for explaining a method of configuring learning data according to an embodiment.
도2에 도시된 예와 같이 예시적인 학습 데이터를 생성하기 위한 문장(200)은 성격 데이터를 구성하는 복수의 문장(210), 과거 대화 데이터를 구성하는 문장(220), 제2 응답 메시지(230) 및 방해 데이터를 구성하는 방해 문장(240)을 포함할 수 있다. As in the example shown in FIG. 2 , the
일 실시예에 따라 학습 데이터(200)는 성격 데이터를 구성하는 문장(210), 과거 대화 데이터에 포함된 문장 및 방해 문장에 포함된 단어 각각에 대한 임베딩 벡터에 기초하여 생성될 수 있다. According to an embodiment, the learning
일 실시예에 따르면 학습 데이터는 수학식 1로 표현될 수 있다. According to an embodiment, the learning data may be expressed by Equation (1).
이때, 은 학습 데이터, p 는 성격 데이터를 구성하는 복수의 문장, 은 과거 대화 데이터에 포함된 제1 답변 요청 메시지와 제1 응답 메시지를 포함하는 과거 문장, 은 방해 데이터에 포함된 방해 문장, 은 제2 응답 메시지를 나타낸다. At this time, is the learning data, p is a plurality of sentences constituting the personality data, is a past sentence including the first response request message and the first response message included in the past conversation data, is the disturbance sentence included in the disturbance data; indicates the second response message.
일 실시예에 따르면 과거 문장은 수학식 2로 표현될 수 있다.According to an embodiment, the past sentence may be expressed by Equation (2).
이때, 은 제1 답변 요청 메시지와 제1 응답 메시지를 포함하는 과거 문장, 은 i번째 제1 답변 요청 메시지, 은 i번째 제1 응답 메시지를 나타낸다. At this time, is a past sentence including a first response request message and a first response message, is the i-th first response request message, denotes an i-th first response message.
구체적으로 따라 학습 데이터()는 성격 데이터에 포함된 복수의 문장(p), 과거 대화 데이터에 포함된 문장(), 방해 문장 () 및 제2 응답 메시지()로 구성될 수 있다.Specifically, according to the training data ( ) is a plurality of sentences (p) included in personality data, sentences (p) included in past conversation data ), interfering sentences ( ) and the second response message ( ) may consist of
다시 도 2를 참조하면, 성격 데이터를 구성하는 복수의 문장(210)은 식에서 p로 표현되며, '취미는 TV 드라마 시청하기', '주말에는 집에서 쉬는 걸 좋아한다', '크리스마스를 좋아한다.' 등의 복수의 문장을 포함할 수 있다. Referring back to FIG. 2 , the plurality of
다시 도 2를 참조하면, 과거 대화 데이터를 구성하는 문장(220)은 첫 번째 제1 답변 요청 메시지(), 'A: 1년 중에서 가장 좋아하는 연휴는 언제야?'와 첫 번째 제1 답변 요청 메시지()에 대응하여 자동 응답 장치(100)가 생성한 첫 번째 제1 응답 메시지(), 'B: 나는 크리스마스를 좋아해'의 문장()으로 표현될 수 있다.Referring back to FIG. 2 , the
다시 도 2를 참조하면, 방해 데이터를 구성하는 방해 문장(240)은 성격 데이터에 포함된 문장인 '크리스마스를 좋아한다.'라는 문장과 유사도가 먼 단어로 구성될 수 있으며, '나는 하얀 눈이 정말 좋아'라는 문장은 방해 문장()일 수 있다. 이때, 방해 데이터는 방해 문장()의 성격 데이터와의 유사도가 먼 방해 문장 여부를 판단하는 방해 진위 여부 레이블(TRUE)을 포함할 수 있다.Referring back to FIG. 2 , the
일 실시예에 따라 제2 응답 메시지를 구성하는 단어의 동시 등장 확률(Co-occurrence Probability)에 기초하여 제2 응답 메시지를 생성할 수 있다. 이때, 동시 등장 확률(P(k/i))은 i단어가 등장 했을 때, k 단어가 등장하는 횟수를 카운트하여 계산한 조건부 확률을 의미할 수 있다. According to an embodiment, the second response message may be generated based on co-occurrence probability of words constituting the second response message. In this case, the simultaneous appearance probability (P(k/i)) may mean a conditional probability calculated by counting the number of times that the k word appears when the i word appears.
일 실시예에 따라 자동 응답 장치(100)에 의해 생성되는 제2 응답 메시지의 생성 확률은 수학식 3으로 나타낼 수 있다. According to an embodiment, the generation probability of the second response message generated by the answering
은 자동 응답 장치(100)에 의해 학습 데이터에 포함된 단어에 기초하여 제2 응답 메시지 생성 확률, 은 학습 데이터, 은 학습 데이터를 구성하는 복수의 문장에 포함된 단어, 는 각각의 단어()가 선택될 확률을 나타낸다. is the second response message generation probability based on the word included in the learning data by the
이때, 제2 응답 메시지 생성 확률()은 각각의 단어()가 선택될 확률()의 곱으로 계산될 수 있다. 구체적으로 제2 응답 메시지는 성격 데이터에 포함된 단어와의 유사도가 가까운 단어가 선택되는 경우 확률()은 커지고, 방해 문장과 가까운 단어가 선택되는 경우 확률()은 작아질 수 있다. At this time, the second response message generation probability ( ) for each word ( ) will be chosen ( ) can be calculated by multiplying Specifically, the second response message is a probability ( ) increases, and the probability ( ) can be small.
예를 들어, 제2 답변 요청 메시지 '1년 중에서 가장 좋아하는 연휴는 언제야?'에 포함된 '연휴'라는 단어가 등장 했을 때, 성격 데이터에 포함된 '크리스마스'가 선택되는 경우 확률()은 커질 수 있으며, 방해 데이터에 포함된 '눈'이 선택되는 경우 확률()은 작아 질 수 있다. For example, when the word 'holiday' included in the second response request message 'When is your favorite holiday in a year?' ) can be large, and the probability ( ) can be small.
일 실시예에 따라 자동 응답 장치(100)는 학습 데이터와 생성된 제2 응답 메시지로 구성된 전체 대화의 생성 확률()을 수학식 4를 통해 구할 수 있다.According to an embodiment, the
이때, 은 전체 대화의 생성 확률, 은 학습 데이터, N은 전체를 문장의 수를 나타낸다. At this time, is the generation probability of the entire conversation, is the training data, and N is the total number of sentences.
구체적으로 전체 대화의 생성 확률()은 제2 응답 메시지 생성 확률()과 학습 데이터()의 조건부 확률 곱으로 계산할 수 있다. 즉, 성격 데이터에 포함된 단어와의 유사도가 가까운 단어가 선택되는 경우 전체 대화의 생성 확률()은 커지고, 방해 문장과 가까운 단어가 선택되는 경우 전체 대화의 생성 확률()은 작아질 수 있다. Specifically, the generation probability of the entire conversation ( ) is the second response message generation probability ( ) and training data ( ) can be calculated as the conditional probability product of That is, when a word with a close similarity to the word included in the personality data is selected, the generation probability of the entire conversation ( ) increases, and the probability of generation of the entire conversation ( ) can be small.
도 3은 일 실시예에 따른 자동 응답 장치 생성을 위한 자동 응답 모델을 설명하기 위한 블록도이다. 도시된 바와 같이, 일 실시예에 따른 자동 응답 모델은 생성자(310) 및 구분자(320)를 포함한다.3 is a block diagram illustrating an automatic answering model for generating an automatic answering apparatus according to an exemplary embodiment. As shown, the automatic response model according to an embodiment includes a
자동 응답 모델은 학습 데이터를 입력 받아 제2 응답 메시지를 생성할 수 있다. 이때, 제2 응답 메시지는 성격 데이터와는 유사도가 가깝고, 방해 데이터와는 유사도가 멀어지도록 제2 응답 메시지를 생성할 수 있다. The automatic response model may receive training data and generate a second response message. In this case, the second response message may generate a second response message such that the similarity to the personality data is close and the similarity to the interference data is farther away.
이때, 일 실시예에 따라 자동 응답 모델은 예를 들어, Masked Self Attention 기반 모델일 수 있다. In this case, according to an embodiment, the automatic response model may be, for example, a Masked Self Attention-based model.
일 실시예에 따르면, 예를 들어 자동 응답 모델은 아래의 수학식 5 에 기초하여 학습될 수 있다. According to an embodiment, for example, the automatic response model may be learned based on Equation 5 below.
이때, 은 자동 응답 모델의 전체 손실 함수, 은 자동 응답 모델의 생성 손실 함수, 은 자동 응답 모델의 방해 손실, 는 방해 손실 함수 조절 파라미터를 나타낸다. At this time, is the overall loss function of the autoresponse model, is the generation loss function of the autoresponse model, is the disturbance loss of the autoresponse model, is the disturbance loss function adjustment parameter.
일 실시예에 따라 생성자(310)가 생성한 제2 응답 메시지는 성격 데이터에 포함된 복수의 문장과 유사도가 가깝도록 생성 손실 함수의 손실을 감소시키고, 구분자(320)는 방해 문장을 생성하지 못하도록 방해 손실 함수의 손실을 감소시킬 수 있다. 이후, 생성 손실 함수 및 방해 손실 함수를 이용하여 전체 손실 함수를 이용하여 자동 응답 모델을 학습시킬 수 있다. According to an embodiment, the second response message generated by the
한편, 생성자(310)는 아래의 수학식 6 에 기초하여 생성 손실을 계산할 수 있다. Meanwhile, the
이때, 은 자동 응답 모델의 생성 손실 함수, 은 정답으로 입력된 제2 응답 메시지를 구성하는 단어의 성격 데이터에 기초한 유사도 확률을 나타내고, 은 예측된 제2 응답 메시지를 구성하는 단어의 성격 데이터에 기초한 유사도 확률, M은 단어 집합의 크기를 나타낸다. At this time, is the generation loss function of the autoresponse model, represents the similarity probability based on the personality data of the words constituting the second response message input as the correct answer, is a similarity probability based on personality data of words constituting the predicted second response message, and M represents a size of a word set.
구체적으로 생성자(310)는 성격 데이터를 구성하는 복수의 문장 및 제2 응답 메시지에 기초한 생성 손실 함수()를 통해 성격 데이터를 구성하는 복수의 문장과 유사도 차이에 의한 손실을 계산할 수 있다. Specifically, the
한편, 구분자(320)는 아래의 수학식 7 에 기초하여 방해 손실을 계산할 수 있다. Meanwhile, the
이때, 은 입력된 학습 데이터에 포함된 방해 진위 여부 레이블, 은 생성자(310)가 생성한 제2 응답 데이터의 성격 데이터에 기초한 유사도에 기초하여 방해 진위 여부의 확률을 나타낸다. At this time, is the authenticity label of the disturbance contained in the input training data; denotes the probability of whether the interference is authentic or not based on the similarity based on the personality data of the second response data generated by the
구분자(320)는 입력된 학습 데이터에 포함된 방해 진위 여부 레이블()이 참인지 거짓인지 판단하며, 구체적으로 방해 데이터의 방해 진위 여부 레이블()은 참(true), 정답으로 입력된 제2 응답 메시지의 방해 진위 여부를 거짓(false)으로 판단하도록 방해 손실 함수를 통해 방해 손실을 계산할 수 있다. The
구체적으로 구분자(320)는 방해 진위 여부 레이블()이 참인 경우, 방해 손실 함수()가 커지도록 하여 방해 문장을 생성하지 못하도록 할 수 있다. Specifically, the
도 4은 일 실시예에 따른 자동 응답 생성 방법을 설명하기 위한 흐름도이다. 4 is a flowchart illustrating an automatic response generating method according to an exemplary embodiment.
도 4에 도시된 방법은 예를 들어, 전술한 자동 응답 장치(100)에 의해 수행될 수 있다.The method shown in FIG. 4 may be performed, for example, by the aforementioned
410 단계에서, 자동 응답 장치(100)는 제1 답변 요청 메시지와 제1 답변 요청 메시지에 대응하는 제1 응답 메시지 세트를 포함하는 과거 대화 데이터, 성격 데이터, 방해 데이터 및 제2 답변 요청 메시지에 대한 제2 응답 메시지에 기초하여 학습 데이터(training data)를 생성한다.In
420 단계에서, 학습 데이터에 기초하여, 자동 응답 모델이 생성하는 제2 응답 메시지가 성격 데이터와의 유사도는 가까워지고, 방해 데이터와의 유사도는 멀어지도록 자동 응답 모델을 학습시킨다.In
도시된 흐름도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.In the illustrated flowchart, the method is described by dividing the method into a plurality of steps, but at least some of the steps are performed in a different order, are performed together in combination with other steps, are omitted, are performed in sub-steps, or are not shown. One or more steps may be added and performed.
도 5는 일 실시예에 따른 컴퓨팅 장치를 포함하는 컴퓨팅 환경(10)을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술된 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.5 is a block diagram illustrating and describing a
도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 자동 응답 생성 장치(100)일 수 있다.The illustrated
컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.
컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.Computer-
통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.
컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.
한편, 본 발명의 실시예는 본 명세서에서 기술한 방법들을 컴퓨터상에서 수행하기 위한 프로그램, 및 상기 프로그램을 포함하는 컴퓨터 판독 가능 기록매체를 포함할 수 있다. 상기 컴퓨터 판독 가능 기록매체는 프로그램 명령, 로컬 데이터 파일, 로컬 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나, 또는 컴퓨터 소프트웨어 분야에서 통상적으로 사용 가능한 것일 수 있다. 컴퓨터 판독 가능 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광 기록 매체, 및 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 상기 프로그램의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다.Meanwhile, an embodiment of the present invention may include a program for performing the methods described in this specification on a computer, and a computer-readable recording medium including the program. The computer-readable recording medium may include program instructions, local data files, local data structures, etc. alone or in combination. The medium may be specially designed and configured for the present invention, or may be commonly used in the field of computer software. Examples of the computer-readable recording medium include hard disks, magnetic media such as floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and program instructions specially configured to store and execute program instructions such as ROMs, RAMs, flash memories, etc. Hardware devices are included. Examples of the program may include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine language codes such as those generated by a compiler.
이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 청구범위뿐만 아니라 이 청구범위와 균등한 것들에 의해 정해져야 한다.Although representative embodiments of the present invention have been described in detail above, those of ordinary skill in the art to which the present invention pertains will understand that various modifications are possible within the limits without departing from the scope of the present invention with respect to the above-described embodiments. . Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined by the following claims as well as the claims and equivalents.
10: 컴퓨팅 환경
12: 컴퓨팅 장치
14: 프로세서
16: 컴퓨터 판독 가능 저장 매체
18: 통신 버스
20: 프로그램
22: 입출력 인터페이스
24: 입출력 장치
26: 네트워크 통신 인터페이스
100: 자동 응답 생성 장치
110: 학습 데이터 생성부
120: 모델 학습부
121: 생성자
123: 구분자10: Computing Environment
12: computing device
14: Processor
16: computer readable storage medium
18: communication bus
20: Program
22: input/output interface
24: input/output device
26: network communication interface
100: automatic response generating device
110: training data generation unit
120: model training unit
121: constructor
123: delimiter
Claims (12)
상기 학습 데이터에 기초하여, 자동 응답 모델이 생성하는 상기 제2 응답 메시지가 상기 성격 데이터와의 유사도는 가까워지고, 상기 방해 데이터와의 유사도는 멀어지도록 자동 응답 모델을 학습시키는 모델 학습부를 포함하되,
상기 자동 응답 모델은, 상기 학습 데이터를 입력 받아 상기 성격 데이터에 기초하여 상기 제2 응답 메시지를 생성하는 생성자(Generator) 및 상기 학습 데이터를 입력 받아 상기 방해 데이터 및 상기 제2 응답 메시지의 유사도에 기초하여 상기 제2 응답 메시지의 방해 진위 여부를 판단하는 구분자(Discriminator)를 포함하고,
상기 모델 학습부는, 상기 성격 데이터와 상기 제2 응답 메시지 사이의 유사도에 기초한 제1 손실 함수 및 상기 방해 데이터의 상기 방해 진위 여부 레이블은 참(true)으로 상기 제2 응답 메시지를 거짓(false)으로 판단하도록 하기 위한 제2 손실 함수에 기초한 제3 손실 함수를 이용하여 상기 자동 응답 모델을 학습시키는, 자동 응답 생성 장치. Learning data ( training data generating unit for generating training data; and
On the basis of the learning data, the second response message generated by the automatic response model includes a model learning unit that trains the automatic response model so that the similarity with the personality data is close, and the similarity with the interference data is farther away,
The automatic response model receives the learning data and generates the second response message based on the personality data. Based on the similarity between the interruption data and the second response message by receiving the learning data and receiving the learning data. to include a discriminator for determining the authenticity of the interference of the second response message,
The model learning unit sets the first loss function based on the degree of similarity between the personality data and the second response message and the disturbance authenticity label of the disturbance data to be true and the second response message to false. An apparatus for generating an automatic response that trains the automatic response model by using a third loss function based on a second loss function for determining.
상기 성격 데이터는, 특정한 성격을 가진 사람에 의해 발화된 것으로 사전 분류된 복수의 문장을 포함하는, 자동 응답 생성 장치.The method according to claim 1,
The personality data includes a plurality of sentences pre-classified as being uttered by a person having a specific personality.
상기 방해 데이터는 상기 성격 데이터에 포함된 상기 복수의 문장에 포함된 단어와의 유사도에 기초하여 생성된 방해 문장 및 상기 방해 문장의 방해 진위 여부 레이블을 포함하는, 자동 응답 생성 장치.3. The method of claim 2,
The interruption data includes an interruption sentence generated based on a degree of similarity with words included in the plurality of sentences included in the personality data and a label of whether the interruption sentence is authentic or not.
상기 과거 대화 데이터는, 상기 성격 데이터에 포함된 복수의 문장과의 유사도에 기초하여 생성된 상기 제1 답변 요청 메시지에 대한 상기 제1 응답 메시지를 포함하는, 자동 응답 생성 장치.3. The method of claim 2,
The past conversation data includes the first response message to the first response request message generated based on a degree of similarity with a plurality of sentences included in the personality data.
상기 학습 데이터에 기초하여, 자동 응답 모델이 생성하는 상기 제2 응답 메시지가 상기 성격 데이터와의 유사도는 가까워지고, 상기 방해 데이터와의 유사도는 멀어지도록 자동 응답 모델을 학습시키는 단계를 포함하되,
상기 자동 응답 모델은, 상기 학습 데이터를 입력 받아 상기 성격 데이터에 기초하여 상기 제2 응답 메시지를 생성하는 생성자(Generator) 및 상기 학습 데이터를 입력 받아 상기 방해 데이터 및 상기 제2 응답 메시지의 유사도에 기초하여 상기 제2 응답 메시지의 방해 진위 여부를 판단하는 구분자(Discriminator)를 포함하고,
상기 학습시키는 단계는, 상기 성격 데이터와 상기 제2 응답 메시지 사이의 유사도에 기초한 제1 손실 함수 및 상기 방해 데이터의 상기 방해 진위 여부 레이블은 참(true)으로 상기 제2 응답 메시지를 거짓(false)으로 판단하도록 하기 위한 제2 손실 함수에 기초한 제3 손실 함수를 이용하여 상기 자동 응답 모델을 학습시키는, 자동 응답 생성 방법.Learning data ( generating training data); and
On the basis of the learning data, the second response message generated by the automatic response model comprising the step of learning the automatic response model so that the similarity with the personality data is close, and the similarity with the interference data is far away,
The automatic response model receives the learning data and generates the second response message based on the personality data. Based on the similarity between the interruption data and the second response message by receiving the learning data and receiving the learning data. to include a discriminator for determining the authenticity of the interference of the second response message,
In the learning step, the first loss function based on the similarity between the personality data and the second response message and the interference authenticity label of the interference data are true, and the second response message is false. Learning the automatic response model using a third loss function based on the second loss function for determining as , automatic response generation method.
상기 성격 데이터는, 특정한 성격을 가진 사람에 의해 발화된 것으로 사전 분류된 복수의 문장을 포함하는, 자동 응답 생성 방법.8. The method of claim 7,
The personality data includes a plurality of sentences pre-classified as being uttered by a person having a specific personality.
상기 방해 데이터는 상기 성격 데이터에 포함된 상기 복수의 문장에 포함된 단어와의 유사도에 기초하여 생성된 방해 문장을 포함하고, 상기 성격 데이터에 대한 유사도에 기초하여 생성된 방해 문장의 방해 진위 여부 레이블을 포함하는, 자동 응답 생성 방법.9. The method of claim 8,
The interruption data includes a disturbing sentence generated based on a degree of similarity with words included in the plurality of sentences included in the personality data, and a label of whether the interference sentence is generated based on the similarity to the personality data. A method for generating an automatic response, comprising:
상기 과거 대화 데이터는, 상기 성격 데이터를 구성하는 복수의 문장과의 유사도에 기초하여 생성된 상기 제1 답변 요청 메시지에 대한 상기 제1 응답 메시지를 포함하는, 자동 응답 생성 방법.9. The method of claim 8,
The past conversation data includes the first response message to the first response request message generated based on a degree of similarity with a plurality of sentences constituting the personality data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210011429A KR102372642B1 (en) | 2021-01-27 | 2021-01-27 | Apparatus and method for generating an automatic response |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210011429A KR102372642B1 (en) | 2021-01-27 | 2021-01-27 | Apparatus and method for generating an automatic response |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102372642B1 true KR102372642B1 (en) | 2022-03-08 |
Family
ID=80812189
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210011429A KR102372642B1 (en) | 2021-01-27 | 2021-01-27 | Apparatus and method for generating an automatic response |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102372642B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102612206B1 (en) * | 2022-12-21 | 2023-12-12 | 주식회사 마인드로 | Interactive conversation system performing follow-up conversation using emtion and feeling analysis information appering in the conversation with wards, humans |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10152970B1 (en) * | 2018-02-08 | 2018-12-11 | Capital One Services, Llc | Adversarial learning and generation of dialogue responses |
KR20190125154A (en) * | 2018-04-27 | 2019-11-06 | 아토머스 주식회사 | An apparatus for machine learning the psychological counseling data and a method thereof |
KR20200023049A (en) * | 2018-08-24 | 2020-03-04 | 네이버 주식회사 | Method and system for generating multi-turn conversation response using deep learing generation model and multi-modal distribution |
KR20200042137A (en) | 2018-10-15 | 2020-04-23 | 삼성전자주식회사 | Electronic device providing variation utterance text and operating method thereof |
KR20200114230A (en) * | 2019-03-28 | 2020-10-07 | 서울대학교산학협력단 | Conversational agent system and method based on user emotion |
-
2021
- 2021-01-27 KR KR1020210011429A patent/KR102372642B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10152970B1 (en) * | 2018-02-08 | 2018-12-11 | Capital One Services, Llc | Adversarial learning and generation of dialogue responses |
KR20190125154A (en) * | 2018-04-27 | 2019-11-06 | 아토머스 주식회사 | An apparatus for machine learning the psychological counseling data and a method thereof |
KR20200023049A (en) * | 2018-08-24 | 2020-03-04 | 네이버 주식회사 | Method and system for generating multi-turn conversation response using deep learing generation model and multi-modal distribution |
KR20200042137A (en) | 2018-10-15 | 2020-04-23 | 삼성전자주식회사 | Electronic device providing variation utterance text and operating method thereof |
KR20200114230A (en) * | 2019-03-28 | 2020-10-07 | 서울대학교산학협력단 | Conversational agent system and method based on user emotion |
Non-Patent Citations (1)
Title |
---|
Chien-Hao Kao et al., Model of Multi-turn Dialogue in Emotional Chatbot, 2019 International Conference on Technologies and Applications of Arti?cial Intelligence, 2019.11.21. <DOI: 10.1109/TAAI48200.2019.8959855> 1부.* * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102612206B1 (en) * | 2022-12-21 | 2023-12-12 | 주식회사 마인드로 | Interactive conversation system performing follow-up conversation using emtion and feeling analysis information appering in the conversation with wards, humans |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230252241A1 (en) | Multi-turn dialogue response generation with persona modeling | |
JP7324772B2 (en) | Personalized Gesture Recognition for User Interaction with Assistive Systems | |
US11720635B2 (en) | Providing command bundle suggestions for an automated assistant | |
US20210117624A1 (en) | Semantic Representations Using Structural Ontology for Assistant Systems | |
US20240038220A1 (en) | Expediting interaction with a digital assistant by predicting user responses | |
JP2022551788A (en) | Generate proactive content for ancillary systems | |
US11610579B2 (en) | Processing natural language using machine learning to determine slot values based on slot descriptors | |
US20190361977A1 (en) | Training data expansion for natural language classification | |
KR20180077691A (en) | Apparatus and method for sentence abstraction | |
CN112805780A (en) | Speaker segmentation using end-to-end model | |
KR20230029582A (en) | Using a single request to conference in the assistant system | |
US11928985B2 (en) | Content pre-personalization using biometric data | |
US11711469B2 (en) | Contextualized speech to text conversion | |
US20240055003A1 (en) | Automated assistant interaction prediction using fusion of visual and audio input | |
KR102372642B1 (en) | Apparatus and method for generating an automatic response | |
US20220293093A1 (en) | Mixed client-server federated learning of machine learning model(s) | |
CN110249326B (en) | Natural language content generator | |
US11983464B2 (en) | Neural network-based message communication framework with summarization and on-demand audio output generation | |
US20230178079A1 (en) | Adversarial speech-text protection against automated analysis | |
US20240031339A1 (en) | Method(s) and system(s) for utilizing an independent server to facilitate secure exchange of data | |
CN117377942A (en) | Active listening of assistant systems | |
CN118522274A (en) | Interactive editor for dialog design flow for assistant system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |