KR102059015B1 - 인공 지능 기반의 대화 시스템 및 그 응답 제어 방법 - Google Patents
인공 지능 기반의 대화 시스템 및 그 응답 제어 방법 Download PDFInfo
- Publication number
- KR102059015B1 KR102059015B1 KR1020170158345A KR20170158345A KR102059015B1 KR 102059015 B1 KR102059015 B1 KR 102059015B1 KR 1020170158345 A KR1020170158345 A KR 1020170158345A KR 20170158345 A KR20170158345 A KR 20170158345A KR 102059015 B1 KR102059015 B1 KR 102059015B1
- Authority
- KR
- South Korea
- Prior art keywords
- response
- similarity
- chunk
- encoding
- input message
- Prior art date
Links
- 230000004044 response Effects 0.000 title claims abstract description 350
- 238000000034 method Methods 0.000 title claims abstract description 93
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 16
- 239000013598 vector Substances 0.000 claims abstract description 89
- 238000011156 evaluation Methods 0.000 claims abstract description 61
- 238000004422 calculation algorithm Methods 0.000 claims description 16
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 4
- 230000008569 process Effects 0.000 description 41
- 230000009118 appropriate response Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 7
- 238000012854 evaluation process Methods 0.000 description 6
- 230000015654 memory Effects 0.000 description 6
- 241000282414 Homo sapiens Species 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000059 patterning Methods 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000000275 quality assurance Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
Description
도 2는 본 발명의 일 실시 예에 따른 응답 정확도 평가에 기반한 대화 시스템의 응답 생성 과정을 도시한다.
도 3은 본 발명의 일 실시 예에 따른 유사도 평가에 기반하여 정확도 높은 응답을 출력하기 위한 구체적 과정을 도시한다.
도 4는 본 발명의 일 실시 예에 따른 질문과 응답 사이의 유사도를 산출하는 흐름도를 도시한다.
도 5는 본 발명의 일 실시 예에 따른 대화 내 잠재된 토픽(latent topic) 정보에 기반하여 질문과 응답 사이의 유사도를 산출하는 흐름도를 도시한다.
Claims (15)
- 인공 지능 기반의 대화 시스템에서 응답 제어 방법으로서,
입력 메시지가 응답이 필요한 질문인지 판단하는 대화 인식 단계;
상기 대화 인식에 기반하여 신경망 알고리즘의 Generative Model을 통해 상기 입력 메시지에 대한 응답을 생성하는 단계;
대화 이력에 기반하여 상기 입력 메시지와 상기 생성된 응답을 인코딩한 인코딩 벡터 사이의 유사도가 미리 설정된 임계치보다 큰 값을 가지는지에 따른 유사도를 평가하는 단계; 및
상기 유사도 평가에 기반하여, 상기 생성된 응답을 응답 메시지로 출력하거나, 새로운 응답을 생성하여 유사도를 다시 평가하는 단계를 포함하고,
상기 유사도를 평가하는 단계는,
상기 입력 메시지와 상기 응답 중 적어도 하나를 복수개의 chunk로 분리하는 단계;
상기 대화 이력에 기반하여, 상기 복수개의 chunk 각각에 속하는 단어들에 대해 순서대로, 각 chunk의 이전 단어에 대한 단어-레벨 RNN 인코딩 벡터와 현재 단어를 입력 값으로 하여 현재 단어에 대한 단어-레벨 RNN 인코딩 벡터를 구하는 방식으로, 상기 복수개의 chunk 각각에 속하는 단어들에 대한 단어-레벨 RNN 인코딩을 수행하는 단계;
상기 단어-레벨 RNN 인코딩된 결과를 이용하여, 상기 복수개의 chunk 각각에 대해 순서대로, 이전 chunk에 대한 chunk-레벨 RNN 인코딩 벡터와 현재 chunk의 마지막 단어-레벨 RNN의 인코딩 벡터를 입력 값으로 하여 현재 chunk의 chunk-레벨 RNN 인코딩 벡터를 구하는 방식으로, 상기 복수개의 chunk 각각에 대한 chunk-레벨 RNN 인코딩을 수행하는 단계; 및
상기 chunk-레벨 RNN 인코딩의 마지막 chunk의 chunk-레벨 RNN 인코딩 벡터를 이용하여 상기 입력 메시지와 상기 응답의 유사도를 산출하는 단계를 포함하는, 방법. - 청구항 1에 있어서,
상기 입력 메시지에 대한 응답을 생성하는 단계는,
상기 입력 메시지가 질문 형태인 경우, 상기 입력 메시지에 대한 응답을 생성하는 단계를 포함하는, 방법. - 청구항 1에 있어서,
상기 입력 메시지가 질문 형태가 아닌 경우, 상기 응답 메시지 출력 없이 상기 입력 메시지를 대화 이력 DB에 저장하는 단계를 더 포함하는, 방법. - 청구항 1에 있어서,
상기 유사도를 평가하는 단계는,
상기 chunk-레벨 RNN 인코딩의 마지막 hidden state 벡터에 기반하여 상기 입력 메시지와 상기 응답의 유사도를 산출하는 단계를 더 포함하는, 방법. - 청구항 4에 있어서,
상기 유사도를 산출하는 단계는,
상기 입력 메시지와 상기 응답 중 적어도 하나에 대한 상기 chunk-레벨 RNN 인코딩의 마지막 hidden state 벡터에 토픽 정보를 추가하여 인코딩된 벡터를 산출하는 단계; 및
상기 토픽 정보가 추가 인코딩된 벡터에 기반하여 상기 입력 메시지와 상기 응답의 유사도를 산출하는 단계를 포함하는, 방법. - 청구항 1에 있어서,
상기 유사도 평가에 기반하여, 상기 생성된 응답을 응답 메시지로 출력하거나, 새로운 응답을 생성하여 유사도를 다시 평가하는 단계는,
상기 인코딩 벡터 사이의 유사도가 미리 설정된 임계치보다 큰 값을 가지는 경우, 상기 생성된 응답을 상기 입력 메시지에 대한 응답 메시지로 출력하고,
상기 인코딩 벡터 사이의 유사도가 미리 설정된 임계치 이하인 경우, 상기 입력 메시지에 대한 응답을 다시 생성하고 유사도 평가를 반복하여, 산출된 유사도가 미리 설정된 임계치보다 큰 값을 가지는 응답을 상기 입력 메시지에 대한 응답 메시지로 출력하는 단계를 포함하는, 방법. - 인공 지능 기반의 대화 시스템으로서,
입력 메시지가 응답이 필요한 질문인지 결정하는 대화 인식 모듈;
상기 결정에 기반하여 신경망 알고리즘의 Generative Model을 통해 상기 입력 메시지에 대한 응답을 생성하는 응답 생성 모듈; 및
대화 이력에 기반하여 상기 입력 메시지와 상기 생성된 응답을 인코딩한 인코딩 벡터 사이의 유사도가 미리 설정된 임계치보다 큰 값을 가지는지에 따른 유사도를 평가하고, 상기 유사도 평가에 기반하여, 상기 생성된 응답을 응답 메시지로 출력하거나, 새로운 응답을 생성하여 유사도를 다시 평가하도록 제어하는 응답 평가 모듈을 포함하고,
상기 응답 평가 모듈은, 상기 입력 메시지와 상기 응답 중 적어도 하나를 복수개의 chunk로 분리하고, 상기 대화 이력에 기반하여, 상기 복수개의 chunk 각각에 속하는 단어들에 대해 순서대로, 각 chunk의 이전 단어에 대한 단어-레벨 RNN 인코딩 벡터와 현재 단어를 입력 값으로 하여 현재 단어에 대한 단어-레벨 RNN 인코딩 벡터를 구하는 방식으로, 상기 복수개의 chunk 각각에 속하는 단어들에 대한 단어-레벨 RNN 인코딩을 수행하고, 상기 단어-레벨 RNN 인코딩된 결과를 이용하여, 상기 복수개의 chunk 각각에 대해 순서대로, 이전 chunk에 대한 chunk-레벨 RNN 인코딩 벡터와 현재 chunk의 마지막 단어-레벨 RNN의 인코딩 벡터를 입력 값으로 하여 현재 chunk의 chunk-레벨 RNN 인코딩 벡터를 구하는 방식으로, 상기 복수개의 chunk 각각에 대한 chunk-레벨 RNN 인코딩을 수행하고, 상기 chunk-레벨 RNN 인코딩의 마지막 chunk의 chunk-레벨 RNN 인코딩 벡터를 이용하여 상기 입력 메시지와 상기 응답의 유사도를 산출하는, 대화 시스템. - 청구항 8에 있어서,
상기 응답 생성 모듈은,
상기 입력 메시지가 질문 형태인 경우, 상기 입력 메시지에 대한 응답을 생성하는, 대화 시스템. - 청구항 8에 있어서,
상기 대화 인식 모듈은,
상기 입력 메시지가 질문 형태가 아닌 경우, 상기 응답 메시지 출력 없이 상기 입력 메시지를 대화 이력 DB에 저장하는, 대화 시스템. - 청구항 8에 있어서,
상기 응답 평가 모듈은,
상기 chunk-레벨 RNN 인코딩의 마지막 hidden state 벡터에 기반하여 상기 입력 메시지와 상기 응답의 유사도를 산출하는, 대화 시스템. - 청구항 11에 있어서,
상기 응답 평가 모듈은,
상기 입력 메시지와 상기 응답 중 적어도 하나에 대한 상기 chunk-레벨 RNN 인코딩의 마지막 hidden state 벡터에 토픽 정보를 추가하여 인코딩된 벡터를 산출하고,
상기 토픽 정보가 추가 인코딩된 벡터에 기반하여 상기 입력 메시지와 상기 응답의 유사도를 산출하는, 대화 시스템. - 청구항 8에 있어서,
상기 응답 평가 모듈은,
상기 인코딩 벡터 사이의 유사도가 미리 설정된 임계치보다 큰 값을 가지는 경우, 상기 생성된 응답을 상기 입력 메시지에 대한 응답 메시지로 출력하고,
상기 인코딩 벡터 사이의 유사도가 미리 설정된 임계치 이하인 경우, 상기 입력 메시지에 대한 응답을 다시 생성하도록 상기 응답 생성 모듈로 피드백하고, 유사도 평가를 반복하여, 산출된 유사도가 미리 설정된 임계치보다 큰 값을 가지는 응답을 상기 입력 메시지에 대한 응답 메시지로 출력하는, 대화 시스템. - 명령들을 저장하고 있는 저장 매체로서,
상기 명령들은 적어도 하나의 프로세서에 의하여 실행될 때에 상기 적어도 하나의 프로세서로 하여금 적어도 하나의 단계를 수행하도록 설정된 것으로서, 상기 적어도 하나의 단계는,
입력 메시지가 응답이 필요한 질문인지 판단하는 대화 인식 단계;
상기 대화 인식에 기반하여 신경망 알고리즘의 Generative Model을 통해 상기 입력 메시지에 대한 응답을 생성하는 단계;
대화 이력에 기반하여 상기 입력 메시지와 상기 생성된 응답을 인코딩한 인코딩 벡터 사이의 유사도가 미리 설정된 임계치보다 큰 값을 가지는지에 따른 유사도를 평가하는 단계; 및
상기 유사도 평가에 기반하여, 상기 생성된 응답을 응답 메시지로 출력하거나, 새로운 응답을 생성하여 유사도를 다시 평가하는 단계를 포함하고,
상기 유사도를 평가하는 단계는,
상기 입력 메시지와 상기 응답 중 적어도 하나를 복수개의 chunk로 분리하는 단계;
상기 대화 이력에 기반하여, 상기 복수개의 chunk 각각에 속하는 단어들에 대해 순서대로, 각 chunk의 이전 단어에 대한 단어-레벨 RNN 인코딩 벡터와 현재 단어를 입력 값으로 하여 현재 단어에 대한 단어-레벨 RNN 인코딩 벡터를 구하는 방식으로, 상기 복수개의 chunk 각각에 속하는 단어들에 대한 단어-레벨 RNN 인코딩을 수행하는 단계;
상기 단어-레벨 RNN 인코딩된 결과를 이용하여, 상기 복수개의 chunk 각각에 대해 순서대로, 이전 chunk에 대한 chunk-레벨 RNN 인코딩 벡터와 현재 chunk의 마지막 단어-레벨 RNN의 인코딩 벡터를 입력 값으로 하여 현재 chunk의 chunk-레벨 RNN 인코딩 벡터를 구하는 방식으로, 상기 복수개의 chunk 각각에 대한 chunk-레벨 RNN 인코딩을 수행하는 단계; 및
상기 chunk-레벨 RNN 인코딩의 마지막 chunk의 chunk-레벨 RNN 인코딩 벡터를 이용하여 상기 입력 메시지와 상기 응답의 유사도를 산출하는 단계를 포함하는 동작을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능한 저장 매체.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170158345A KR102059015B1 (ko) | 2017-11-24 | 2017-11-24 | 인공 지능 기반의 대화 시스템 및 그 응답 제어 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170158345A KR102059015B1 (ko) | 2017-11-24 | 2017-11-24 | 인공 지능 기반의 대화 시스템 및 그 응답 제어 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190060285A KR20190060285A (ko) | 2019-06-03 |
KR102059015B1 true KR102059015B1 (ko) | 2019-12-24 |
Family
ID=66849221
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170158345A KR102059015B1 (ko) | 2017-11-24 | 2017-11-24 | 인공 지능 기반의 대화 시스템 및 그 응답 제어 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102059015B1 (ko) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111709247B (zh) * | 2020-05-20 | 2023-04-07 | 北京百度网讯科技有限公司 | 数据集处理方法、装置、电子设备和存储介质 |
KR102215286B1 (ko) * | 2020-08-25 | 2021-02-10 | 건국대학교 산학협력단 | 문서 이해에 기반한 문장 생성 챗봇 서비스 제공 방법 및 장치 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10606846B2 (en) * | 2015-10-16 | 2020-03-31 | Baidu Usa Llc | Systems and methods for human inspired simple question answering (HISQA) |
-
2017
- 2017-11-24 KR KR1020170158345A patent/KR102059015B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20190060285A (ko) | 2019-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110046304B (zh) | 一种用户推荐方法和装置 | |
Mai et al. | Locally confined modality fusion network with a global perspective for multimodal human affective computing | |
CN112487182B (zh) | 文本处理模型的训练方法、文本处理方法及装置 | |
KR102071582B1 (ko) | 딥 뉴럴 네트워크(Deep Neural Network)를 이용하여 문장이 속하는 클래스(class)를 분류하는 방법 및 장치 | |
Qian et al. | Hierarchical CVAE for fine-grained hate speech classification | |
CN109635253B (zh) | 文本风格转换方法、装置及存储介质、计算机设备 | |
Penha et al. | Curriculum learning strategies for IR: An empirical study on conversation response ranking | |
US20230027526A1 (en) | Method and apparatus for classifying document based on attention mechanism and semantic analysis | |
CN107836000A (zh) | 用于语言建模和预测的改进的人工神经网络 | |
Sun et al. | Dynamic emotion modelling and anomaly detection in conversation based on emotional transition tensor | |
CN112528637A (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
Zhang et al. | Word semantic representations using bayesian probabilistic tensor factorization | |
WO2019220113A1 (en) | Device and method for natural language processing | |
CN111309878B (zh) | 检索式问答方法、模型训练方法、服务器及存储介质 | |
CN111125323B (zh) | 一种聊天语料标注方法、装置、电子设备及存储介质 | |
CN113392179A (zh) | 文本标注方法及装置、电子设备、存储介质 | |
CN113392640A (zh) | 一种标题确定方法、装置、设备及存储介质 | |
CN113505198A (zh) | 关键词驱动的生成式对话回复方法、装置及电子设备 | |
CN114329181A (zh) | 一种题目推荐方法、装置及电子设备 | |
EP3783537A1 (en) | Controlling submission of content | |
Sadr et al. | Improving the performance of text sentiment analysis using deep convolutional neural network integrated with hierarchical attention layer | |
KR102059015B1 (ko) | 인공 지능 기반의 대화 시스템 및 그 응답 제어 방법 | |
Dehghani et al. | Sentiment analysis of Persian political tweets using ParsBERT embedding model with convolutional neural network | |
CN114492669B (zh) | 关键词推荐模型训练方法、推荐方法和装置、设备、介质 | |
KR20210094324A (ko) | 속성 맵을 이용한 속성 기반 감정 분석 방법 및 전자 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20171124 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20190320 Patent event code: PE09021S01D |
|
AMND | Amendment | ||
PG1501 | Laying open of application | ||
E601 | Decision to refuse application | ||
PE0601 | Decision on rejection of patent |
Patent event date: 20190926 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20190320 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |
|
AMND | Amendment | ||
PX0901 | Re-examination |
Patent event code: PX09011S01I Patent event date: 20190926 Comment text: Decision to Refuse Application Patent event code: PX09012R01I Patent event date: 20190520 Comment text: Amendment to Specification, etc. |
|
PX0701 | Decision of registration after re-examination |
Patent event date: 20191125 Comment text: Decision to Grant Registration Patent event code: PX07013S01D Patent event date: 20191025 Comment text: Amendment to Specification, etc. Patent event code: PX07012R01I Patent event date: 20190926 Comment text: Decision to Refuse Application Patent event code: PX07011S01I Patent event date: 20190520 Comment text: Amendment to Specification, etc. Patent event code: PX07012R01I |
|
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20191218 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20191219 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20221122 Start annual number: 4 End annual number: 4 |