KR102133825B1 - 단어자질을 강화한 음성 대화 방법 및 시스템 - Google Patents

단어자질을 강화한 음성 대화 방법 및 시스템 Download PDF

Info

Publication number
KR102133825B1
KR102133825B1 KR1020180072234A KR20180072234A KR102133825B1 KR 102133825 B1 KR102133825 B1 KR 102133825B1 KR 1020180072234 A KR1020180072234 A KR 1020180072234A KR 20180072234 A KR20180072234 A KR 20180072234A KR 102133825 B1 KR102133825 B1 KR 102133825B1
Authority
KR
South Korea
Prior art keywords
information
sentence
sentences
embedding
question
Prior art date
Application number
KR1020180072234A
Other languages
English (en)
Other versions
KR20200000216A (ko
Inventor
구명완
김병재
서정연
Original Assignee
서강대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서강대학교 산학협력단 filed Critical 서강대학교 산학협력단
Priority to KR1020180072234A priority Critical patent/KR102133825B1/ko
Priority to US16/447,373 priority patent/US10984785B2/en
Publication of KR20200000216A publication Critical patent/KR20200000216A/ko
Application granted granted Critical
Publication of KR102133825B1 publication Critical patent/KR102133825B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • G10L15/197Probabilistic grammars, e.g. word n-grams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3346Query execution using probabilistic model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명에 따르는 단어자질을 강화한 음성 대화 방법은, 다수의 문장으로 구성되는 질의 응답 말뭉치를 입력받아 다수의 문장 각각에 대해 단어들로 구성되는 제1메타 데이터를 생성하는 단계; 상기 다수의 문장 각각에 대한 제1메타 데이터를 입력받아, 상기 제1메타 데이터의 단어들 각각에 대해 제1임베딩 벡터를 부가하여 제1단어벡터들을 생성하고, 상기 제1단어벡터들을 양방향 LSTM 처리하여 제1문장 임베딩 정보를 생성하고, 상기 제1메타 데이터의 단어들 각각에 대해 제2임베딩 벡터를 부가하여 제2단어벡터들을 생성하고, 상기 제2단어벡터들을 양방향 LSTM 처리하여 제2문장 임베딩 정보를 생성하는 단계; 질문 문장에 대해 단어들로 구성되는 제2메타 데이터를 생성하고, 상기 제2메타 데이터의 단어들 각각에 대해 제3임베딩 벡터를 부가하여 제3단어벡터들을 생성하고, 상기 제3단어벡터들을 양방향 LSTM 처리하여 질문문장 임베딩 정보를 생성하는 단계; 상기 다수의 문장들 각각에 대한 제1문장 임베딩 정보와 상기 질문문장 임베딩 정보를 입력받아, 상기 다수의 문장들 각각에 대한 제1문장 임베딩 정보와 상기 질문 임베딩 정보 사이의 관련성을 나타내는 제1정보를 생성하는 단계; 상기 다수의 문장들 각각에 대한 제1정보와 상기 다수의 문장들 각각에 대한 제2문장 임베딩 정보의 웨이티드 썸을 이행하여 제2정보를 생성하는 단계; 상기 다수의 문장들 각각에 대해 제2정보와 상기 질문정보를 가산하여 제3정보를 출력하는 단계; 및 상기 제3정보를 통해 상기 다수의 문장과 질문정보 사이의 확률을 산출하고, 가장 높은 확률을 가진 문장을 답변 문장으로 예측하여 출력하는 단계;를 포함하는 것을 특징으로 한다.

Description

단어자질을 강화한 음성 대화 방법 및 시스템{VOICE CONVERSATION METHOD AND SYSTEM OF ENHANCED WORD FEATURES}
본 발명은 자연어 처리 기술에 관한 것으로, 더욱 상세하게는 질의응답 말뭉치를 구성하는 문장들과 질문 문장에 대해 문장을 구성하는 단어의 자질을 강화하여 자연어인 질문 문장에 대해 적절한 답변 문장을 생성할 수 있게 하는 단어자질을 강화한 음성 대화 시스템 및 방법에 관한 것이다.
자연어 질의응답기술은 자연어인 질문 문장이 사용자로부터 입력되면, 상기 사용자의 질문 의도에 맞는 답변들을 검색하고, 상기 답변들 중 어느 하나를 선택하여 사용자에게 반환하는 기술이다.
이러한 자연어 질의응답기술은 모바일 시대의 도래와 함께 모바일 기기의 하드웨어적인 한계, 즉 작은 화면으로 검색 결과를 제시하여야 하는 한계를 극복하기 위한 기술로 다시 각광을 받고 있다. 예를들어, 아이폰의 경우에는 '시리'라는 기술을 제안하여 음성으로 사용자가 질문을 하면 그 질문에 응답하는 기술을 선보인 바 있다.
이러한 기술로는 Sainbayar Sukhbaatar, Arthur Szlam, Jason Weston, Rob Fergus. "End-To-End Memory Networks." Proceedings of the NIPS2015 Symposium. Advances in Neural Information Processing Systems, 2015.에 개시된 엔드 투 엔드 메모리 네트워크가 있다. 상기 엔드 투 엔드 메모리 네트워크는 질의응답 문제에 대해 탁월한 성능을 보이는 모델로 문맥과 질문이 주어질 때 문맥 안에서 그에 맞는 적절한 답을 찾아내 주는 프로그램이다. 이 프로그램에 따르면 답은 한 단어로 되어 있으며, 불필요한 정보가 들어 있는 문맥에서도 필요한 정보만을 뽑아내어 적절한 답을 유추할 수 있었다.
그러나 상기한 엔드 투 엔드 메모리 네트워크는 비교적 간단한 질의응답만 가능하였으며 답이 단어로 된 것에서는 잘 동작하였으나, 정보의 수가 많은 문맥이 복잡한 질의문에 대해서는 성능이 많이 감소되는 문제가 있었다. 즉, 제시되는 정보의 개수가 3개일 때, 에러율이 21.9 퍼센트이다.
또한 상기한 엔드 투 엔드 메모리 네트워크는 단어의 의미를 잘 반영하지 못하는 문제가 있었다. 예를 들어, four apples와 six apples가 있으면 four와 six를 구분하지 못하고 그냥 숫자로만 인식하였다. 이에 사과가 몇 개 있는가에 대한 질문에 가짜 정보가 추가되면 제대로 답을 하지 못하였다.
또한 상기 엔드 투 엔드 메모리 네트워크는 훈련 데이터에 포함되지 않은 고유명사에 대해서는 전혀 대비되지 않아, 훈련 데이터에 포함되지 않은 고유명사가 질문에 포함되는 경우에는 대응할 수 없는 문제가 있었다.
대한민국 특허공개 제1020160060247호 대한민국 특허공개 제1020150041908호 대한민국 특허공개 제1020160114668호 대한민국 특허공개 제1020170096282호
본 발명은 질의응답 말뭉치를 구성하는 문장들과 질문 문장에 대해 문장을 구성하는 단어의 자질을 강화하여 자연어인 질문 문장에 대해 적절한 답변 문장을 생성할 수 있게 하는 단어자질을 강화한 음성 대화 시스템 및 방법을 제공하는 것을 목적으로 한다.
또한 본 발명의 다른 목적은 질의응답 말뭉치에 포함되지 않았던 고유명사가 포함된 질문문장에 대해서도 적절한 답변 문장을 검출할 수 있는 단어자질을 강화한 음성 대화 시스템 및 방법을 제공하는 것이다.
상기한 목적을 달성하기 위한 본 발명에 따르는 단어자질을 강화한 음성 대화 방법은, 다수의 문장으로 구성되는 질의 응답 말뭉치를 입력받아 다수의 문장 각각에 대해 단어들로 구성되는 제1메타 데이터를 생성하는 단계; 상기 다수의 문장 각각에 대한 제1메타 데이터를 입력받아, 상기 제1메타 데이터의 단어들 각각에 대해 제1임베딩 벡터를 부가하여 제1단어벡터들을 생성하고, 상기 제1단어벡터들을 양방향 LSTM 처리하여 제1문장 임베딩 정보를 생성하고, 상기 제1메타 데이터의 단어들 각각에 대해 제2임베딩 벡터를 부가하여 제2단어벡터들을 생성하고, 상기 제2단어벡터들을 양방향 LSTM 처리하여 제2문장 임베딩 정보를 생성하는 단계; 질문 문장에 대해 단어들로 구성되는 제2메타 데이터를 생성하고, 상기 제2메타 데이터의 단어들 각각에 대해 제3임베딩 벡터를 부가하여 제3단어벡터들을 생성하고, 상기 제3단어벡터들을 양방향 LSTM 처리하여 질문문장 임베딩 정보를 생성하는 단계; 상기 다수의 문장들 각각에 대한 제1문장 임베딩 정보와 상기 질문문장 임베딩 정보를 입력받아, 상기 다수의 문장들 각각에 대한 제1문장 임베딩 정보와 상기 질문 임베딩 정보 사이의 관련성을 나타내는 제1정보를 생성하는 단계; 상기 다수의 문장들 각각에 대한 제1정보와 상기 다수의 문장들 각각에 대한 제2문장 임베딩 정보의 웨이티드 썸을 이행하여 제2정보를 생성하는 단계; 상기 다수의 문장들 각각에 대해 제2정보와 상기 질문정보를 가산하여 제3정보를 출력하는 단계; 및 상기 제3정보를 통해 상기 다수의 문장과 질문 문장 임베딩 정보 사이의 확률을 산출하고, 가장 높은 확률을 가진 문장을 답변 문장으로 예측하여 출력하는 단계;를 포함하는 것을 특징으로 한다.
상기한 본 발명은 질의응답 말뭉치를 구성하는 문장들과 질문 문장에 대해 문장을 구성하는 단어의 자질을 강화하여 자연어인 질문 문장에 대해 적절한 답변 문장을 생성할 수 있게 하는 효과를 야기한다.
또한 본 발명은 질의응답 말뭉치에 포함되지 않았던 고유명사가 포함된 질문문장에 대해서도 적절한 답변 문장을 검출할 수 있는 효과를 야기한다.
도 1은 본 발명의 바람직한 실시예에 따르는 단어자질을 강화한 음성 대화 시스템의 구성도.
도 2는 도 1의 단어자질을 강화한 음성 대화 처리부의 구성도.
도 3은 도 2의 전처리부의 처리절차도.
도 4는 도 2의 답변문장 출력부의 처리절차도.
본 발명은 질의응답 말뭉치를 구성하는 문장들과 질문 문장에 대해 문장을 구성하는 단어의 자질을 강화하여 자연어인 질문 문장에 대해 적절한 답변 문장을 생성한다.
또한 본 발명은 질의응답 말뭉치에 포함되지 않았던 고유명사가 포함된 질문문장에 대해서도 적절한 답변 문장을 검출한다.
상기한 본 발명에 따르는 단어자질을 강화한 음성 대화 시스템의 구성 및 동작을 도면을 참조하여 상세히 설명한다.
<단어자질을 강화한 음성 대화 시스템의 구성>
도 1은 본 발명의 바람직한 실시예에 따르는 단어자질을 강화한 음성 대화 시스템의 구성도이다. 상기 도 1을 참조하면, 상기 음성 대화 서비스 시스템(100)은 음성 대화 서비스 서버(102)와 데이터베이스(104)로 구성된다.
상기 음성 대화 서비스 서버(102)는 본 발명의 바람직한 실시예에 따라 단어자질을 강화한 음성 대화 서비스를 사용자 단말기(200)에 제공한다.
상기 데이터베이스(104)는 상기 음성 대화 서비스 서버(102)에서 요구되는 다양한 정보를 저장하며, 특히 상기 데이터베이스(104)는 다수의 문장들로 구성되는 질의응답 말뭉치와 질문문장에 대해 문장을 구성하는 단어들을 치환하기 위한 참조정보와, 상기 참조정보를 토대로 단어들을 치환한 치환된 단어정보와, 상기 치환된 단어정보에 대응되는 원래의 단어정보를 저장한다.
상기 사용자 단말기(200)는 네트워크를 통해 상기 음성 대화 서비스 시스템(100)에 접속하여 사용자에게 본 발명의 바람직한 실시예에 따르는 단어 자질을 강화한 음성 대화 서비스를 제공한다. 상기한 사용자 단말기(200)는 음성 대화 서비스를 위해 사용자 단말기(200)의 각부를 제어하는 제어장치(202)와, 상기 제어장치(202)의 처리 프로그램을 포함하는 다양한 정보를 저장하는 메모리부(204)와, 상기 제어장치(202)의 제어에 따르는 오디오 및 비디오를 출력하는 오디오 및 비디오 출력부(210)와, 상기 제어장치(202)와 음성 대화 서비스 서버(102) 사이의 통신을 담당하는 통신부(212)를 구비한다.
상기한 본 발명의 바람직한 실시예에서는 음성 대화 서비스 시스템(100)에 접속한 사용자 단말기(200)를 통해, 상기 음성 대화 서비스 시스템(100)이 사용자에게 음성 대화 서비스를 제공하는 것만을 개시하였으나, 음성 대화 서비스 실행을 위한 프로그램 및 데이터베이스를 사용자 단말기에 구축하여 독립적으로 음성 대화 서비스를 실행할 수도 있으며, 이는 본 발명에 의해 당업자에게 자명하다.
이제 본 발명의 바람직한 실시예에 따르는 단어자질을 강화한 음성 대화 서비스 방법을 설명한다.
<단어자질을 강화한 음성 대화 서비스 프로그램의 구성>
도 2는 본 발명의 바람직한 실시예에 따르는 단어자질을 강화한 음성 대화 서비스 서버에 구축되는 프로그램의 구성도를 도시한 것이다. 상기 도 2를 참조하면, 상기 음성 대화 서비스 프로그램은 제1 및 제2전처리부(3001,3002)와 제1임베딩 처리부(400)와 제2임베딩 처리부(500)와 제3임베딩 처리부(600)와 메모리 네트워크 처리부(700)와 정답출력부(800)로 구성된다.
이러한 음성 대화 서비스 프로그램에서 사용되는 말뭉치 데이터는 DSTC 6 경진대회에서 제공한 레스토랑 예약 관련 질의 응답 말뭉치 데이터가 사용될 수 있으며, bAbI보다 약간 더 난이도 있는 문제이며 답변은 문장으로 구성되며, 본 발명은 10개의 후보문장 중에서 정답문장을 선택하여 출력한다.
<제1 및 제2전처리부(3001,3002)>
상기한 본 발명에 따르는 제1 및 제2전처리부(3001,3002)의 처리절차는 동일하므로, 이하 제1전처리부(3001)의 처리 절차만을 도 3을 참조하여 설명한다.
상기 제1전처리부(3001)는 다수의 문장들로 구성되는 질의응답 말뭉치 데이터가 입력되면(304단계), 상기 질의 응답 말뭉치를 구성하는 다수의 문장 각각에 대해 단어들로 구성되는 메타 데이터로 변환하고(306단계), 데이터베이스(104)의 참조정보를 토대로 상기 다수의 문장 각각에 대한 메타 데이터의 단어들을 데이타 타입정보와 식별번호로 치환하여 치환된 단어정보를 생성하고, 상기 치환된 단어정보와 원래의 단어정보를 대응시켜 상기 데이터베이스(104)에 기록한다(308단계).
상기 제1전처리부(3001)는 상기 다수의 문장 각각에 대해 상기 치환된 단어정보들을 결합하여 단어열 정보를 생성하고, 상기 단어열 정보의 단어수가 미리 정해진 수, 즉 가장 긴 문장이라고 임의 결정한 문장에 속한 단어들의 수보다 작으면, 상기 미리 정해진 수보다 부족한 단어에 대해서는 널(null)을 패딩하여 출력 메타 데이터를 생성하여 출력한다(310단계). 여기서, 상기 널은 임베딩을 거치면 벡터 0으로 치환한다.
이로서 상기 제1전처리부(3001)는 다수의 문장들 각각에 대해 해당 문장을 구성하는 단어들 각각을 데이타 타입정보와 식별번호로 치환하여 치환된 단어정보를 생성하고, 상기 치환된 단어정보를 결합하여 단어열 정보를 생성하고, 상기 단어열 정보의 단어수가 미리 정해진 수보다 부족하면 부족한 단어에 대해서는 널을 패딩하여 출력 메타 데이터를 생성하여 제1 내지 제2임베딩 처리부(400,500)로 입력한다.
그리고 상기 제2전처리부(3002)는 질문 문장을 입력받아 메타 데이터로 변환하고, 상기 메터 데이터에 속한 단어들 각각을 타입정보와 식별정보로 치환하고, 상기 타입정보로 치환된 단어들을 결합하여 단어열 정보를 생성하며, 상기 단어열의 단어수가 미리 정해둔 수보다 작으면 그 수보다 부족한 단어에 대해서는 널을 패딩하여 출력 메타 데이터를 생성하여 제3임베딩 처리부(600)로 입력한다.
<제1임베딩 처리부(400)>
상기 제1임베딩 처리부(400)는 임베딩 행렬 A부(402)와 제1순방향 LSTM부들(4061~406n)과 제1역방향 LSTM부들(4081~408n)과 제1LSTM 셀 추가부(410)로 구성된다.
상기 임베딩 행렬 A부(402)는 상기 제1전처리부(3001)로부터 질의응답 말뭉치 데이터를 구성하는 다수의 문장 각각에 대한 출력 메타 데이터의 단어들 각각에 대해 제1임베딩 벡터를 부가하여 제1단어벡터들 w1~wn(4041~404n)를 생성하여 출력한다. 상기 제1순방향 LSTM부들(4061~406n)은 순방향으로 연결된 셀들로 구성되어 상기 제1단어벡터들 w1~wn(4041~404n) 각각에 대해 단어위치에 따라 순방향으로 정렬된 제1정보를 생성한다. 상기 제1역방향 LSTM부들(4081~408n)은 역방향으로 연결된 셀들로 구성되어 상기 단어벡터들 w1~wn(4041~404n) 각각에 대해 단어위치에 따라 역방향으로 정렬된 제2정보를 생성한다. 여기서, 상기 제1순방향 LSTM부들(4061~406n)과 제1역방향 LSTM부들(4081~408n)에 구비되는 셀의 개수는 문장 단어열의 생성시에 미리 정해진 수, 즉 가장 긴 문장이라고 임의 결정한 문장에 속한 단어들의 수에 대응되게 결정된다.
상기 제1LSTM 셀 추가부(410)는 상기 제1순방향 LSTM부들(4061~406n)의 마지막 부분에 히든 스테이트 벡터를 부가하고, 상기 제1역방향 LSTM부들(4081~408n)의 첫 부분에 히든 스테이트 벡터를 부가하여, 제1문장 임베딩 정보 mi를 생성하여 출력한다. 여기서, 상기 히든 스테이트 벡터의 벡터값은 0으로 초기화된다.
이와 같이 제1임베딩 처리부(400)는 질의 응답 말뭉치를 구성하는 다수의 문장 각각에 대한 출력 메타 데이터를 입력받아, 상기 출력 메타 데이터의 단어들 각각에 대해 제1임베딩 벡터를 부가하여 제1단어벡터들 w1~wn(4041~404n)을 생성하고, 상기 제1단어벡터들 w1~wn(4041~404n)을 양방향 LSTM 처리하여 제1문장 임베딩 정보 mi를 생성하여 출력한다.
<제2임베딩 처리부(500)>
상기 제2임베딩 처리부(500)는 임베딩 행렬 C부(502)와 제2순방향 LSTM부들(5061~506n)과 제2역방향 LSTM부들(5081~508n)과 제2LSTM 셀 추가부(510)로 구성된다.
상기 임베딩 행렬 C부(502)는 상기 제1전처리부(3001)로부터 질의응답 말뭉치 데이터를 구성하는 다수의 문장 각각에 대한 출력 메타 데이터의 단어들 각각에 대해 임베딩 벡터를 부가하여 단어벡터들 w1~wn(5041~504n)을 생성하여 출력한다. 상기 제2순방향 LSTM부들(5061~506n)은 순방향으로 연결된 셀들로 구성되어 상기 단어벡터들 w1~wn(5041~504n) 각각에 대해 단어위치에 따라 순방향으로 정렬된 제3정보를 생성한다. 상기 제2역방향 LSTM부들(5081~508n)은 역방향으로 연결된 셀들로 구성되어 상기 단어벡터들 w1~wn(5041~504n) 각각에 대해 단어위치에 따라 역방향으로 정렬된 제4정보를 생성한다. 여기서, 상기 제2순방향 LSTM부들(5061~506n)과 제2역방향 LSTM부들(5081~508n)에 구비되는 셀의 개수는 문장 단어열의 생성시에 미리 정해진 수, 즉 가장 긴 문장이라고 임의 결정한 문장에 속한 단어들의 수에 대응되게 결정된다.
상기 제2LSTM 셀 추가부(510)는 상기 제2순방향 LSTM부들(5061~506n)의 마지막 부분에 히든 스테이트 벡터를 부가하고, 상기 제2역방향 LSTM부들(5081~508n)의 첫 부분에 히든 스테이트 벡터를 부가하여 제2문장 임베딩 정보 ci를 생성하여 출력한다. 여기서, 상기 히든 스테이트 벡터의 벡터값은 0으로 결정된다.
이와 같이 제2임베딩 처리부(500)는 질의 응답 말뭉치를 구성하는 다수의 문장 각각에 대한 출력 메타 데이터를 입력받아, 상기 출력 메타 데이터의 단어들 각각에 대해 제2임베딩 벡터를 부가하여 제2단어벡터들 w1~wn(5041~504n)을 생성하고, 상기 제2단어벡터들을 양방향 LSTM 처리하여 제2문장 임베딩 정보 ci를 생성하여 출력한다.
<제3임베딩 처리부(600)>
상기 제3임베딩 처리부(600)는 상기 임베딩 행렬 B부(602)와 제3순방향 LSTM부들(6061~606n)과 제3역방향 LSTM부들(6081~608n)과 제4LSTM 셀 추가부(610)로 구성된다.
상기 임베딩 행렬 B부(602)는 상기 제2전처리부(3002)로부터 질문 문장에 대한 출력 메타 데이터의 단어들 각각에 대해 제3임베딩 벡터를 부가하여 제3단어벡터들 w1~wn(6041~604n)을 출력한다. 상기 제3순방향 LSTM부들(6061~606n)은 순방향으로 연결된 셀들로 구성되어 상기 제3단어벡터들 w1~wn(6041~604n)을 문장내 단어의 위치에 따라 순방향으로 정렬된 제5정보를 생성한다. 상기 제3역방향 LSTM부들(6081~608n)은 역방향으로 연결된 셀들로 구성되어 상기 제3단어벡터들 w1~wn(6041~604n)을 문장내 단어의 위치에 따라 역방향으로 정렬된 제6정보를 생성한다. 여기서, 상기 제3순방향 LSTM부들(6061~606n)과 제3역방향 LSTM부들(6081~608n)을 구성하는 셀의 개수는 문장 단어열의 생성시에 미리 정해진 수, 즉 가장 긴 문장이라고 임의 결정한 문장에 속한 단어들의 수에 대응되게 결정된다.
상기 제3LSTM 셀 추가부(610)는 상기 제3순방향 LSTM부들(6061~606n)의 마지막 부분에 히든 스테이트 벡터를 부가하고, 상기 제3역방향 LSTM부들(6081~608n)의 첫 부분에 히든 스테이트 벡터를 부가하여 질문 임베딩 정보 u를 생성하여 출력한다. 여기서, 상기 히든 스테이트 벡터의 벡터값은 0으로 결정된다.
이와 같이 제3임베딩 처리부(600)는 질문 문장에 대한 출력 메타 데이터를 입력받아, 상기 출력 메타 데이터의 단어들 각각에 대해 제3임베딩 벡터를 부가하여 제3단어벡터들 w1~wn(6041~604n)을 생성하고, 상기 제3단어벡터들 w1~wn(6041~604n)을 양방향 LSTM 처리하여 질문문장 임베딩 정보 u를 생성하여 출력한다.
이러한 제1 내지 제3임베딩 처리부(400,500,600)는 단어의 의미가 훼손되는 문제를 해결하기 위해서 단어의 위치정보를 반영하도록 양방향 LSTM을 적용하며, 양방향 LSTM의 양쪽 종단에 히든 스테이트 벡터를 부가하여 더 풍부한 벡터 차원으로 문장을 나타내고 뒤에 나오는 단어와 앞에 나오는 단어의 의미를 균형있게 반영할 수 있게 한다.
특히 상기한 양방향 LSTM이 적용되는 부분은 입력 메모리부와 출력 메모리부에 저장될 문장 임베딩들과 질문문장에 대한 임베딩에 적용되며 LSTM의 각 셀마다 들어가는 입력은 문장을 이루는 단어들이다. 여기서, 하나의 단어는 하나의 셀에 들어가며 단어는 해당 단어에 해당하는 임베딩 벡터로 치환되어 입력된다. 상기 임베딩 벡터는 초기에는 랜덤으로 결정되나 훈련과정을 통해 최적의 값으로 튜닝된다. 이와같이 문장 임베딩을 구성하면 문장내에 똑같이 숫자를 나타내는 단어가 있더라도 서로 다른 벡터값으로 임베딩되어 의미가 구분된다.
또한 상기 양방향 LSTM으로 학습을 진행하게 되면 학습을 통해 축약된 정보를 가진 벡터가 LSTM의 출력으로 나오기 때문에 단어 자질이 강화된다. 상기 자질 중에 특히 문장내에서 단어의 위치정보가 강화되며, 이는 LSTM의 특성에 따라 시간적 및 위치적 정보가 반영되기 때문이다. 즉 i번째 문장 xi는 임베딩 행렬 A부(402)와 임베딩 행렬 C부(502)를 거치며, 두 행렬에는 각 단어들과 매칭되는 벡터들이 저장된다. 이러한 행렬을 거쳐서 문장에 있는 단어들은 각 단어들에 매칭되는 벡터 값으로 변환된다. 상기 입력 메모리(702)에 들어갈 mi를 생성하는 양방향 LSTM(406n,408n,410)에는 임베딩 행렬 A부(402)를 거친 벡터 값이 입력으로 제공되고, 출력 메모리(706)에 제공되는 ci를 생성하는 양방향 LSTM(5061~506n,5081~508n,510)에는 임베딩 행렬 C부(502)를 거친 벡터 값이 입력으로 제공된다. 그리고 질문 문장에 대해서는 임베딩 행렬 B부(302)를 거쳐 위와 같은 방법으로 u를 생성한다.
상기한 임베딩 행렬 A부(402)와 임베딩 행렬 C부(502)와 임베딩 B부(602)는 각기 별도의 학습을 진행한다.
즉, 상기 임베딩 행렬 A부(402)와 임베딩 행렬 C부(502)는 초기에 랜덤하게 정의된 값을 가지나 학습을 진행함에 따라 각기 다른 값을 가지게 된다. 이에따라 상기 제1 및 제2임베딩 처리부(400,500)의 LSTM의 내부의 히든 스테이트(hidden state) 값도 다르게 학습되어, mi와 ci의 값이 상이하게 된다.
이와 같이 제1 및 제2임베딩 처리부(400,500)가 서로 상이하게 학습하는 것은 입력 및 출력 메모리의 용도가 다르기 때문이다. 즉, 입력 부분은 히스토리 문장들과 질문 문장의 관련성을 구하기 위한 것으로, 입력 메모리에서 질문 문장과 관련이 깊은 문장일수록 웨이트 소프트맥스 벡터에서 큰 값을 출력하도록 하는 것이다. 그리고 출력 부분은 질문 문장과 관련성을 띄는 부분이 부각된 출력정보 o을 생성하도록 하는 것이다.
그리고 마지막으로 임베딩 행렬 B부(302)는 질문 문장에 대해 임베딩을 하면서 학습을 이행하며, 입력 및 출력 메모리(702,704)에 쓰이는 임베딩과는 용도가 다르게 질문 문장을 벡터화하는 데에 특화된 학습을 이행한다.
<메모리 네트워크 처리부(700)>
상기 메모리 네트워크 처리부(700)는 입력 메모리부(702)와 출력 메모리부(706)와 출력정보 저장부(708)와 결합부(710)로 구성된다.
상기 입력 메모리부(702)는 제1임베딩 처리부(400)가 출력하는 제1문장 임베딩 정보 mi 및 제3임베딩 처리부(600)가 출력하는 질문문장 임베딩 정보 u를 입력받아, 히스토리 문장들 각각과 질문 문장 사이의 관련성을 나타내는 제1정보 pi를 생성하여 출력하고,
상기 출력 메모리부(706)는 상기 제2임베딩 처리부(500)가 출력하는 제2문장 임베딩 정보 ci 및 상기 히스토리 문장들 각각과 질문 문장 사이의 관련성을 나타내는 제1정보 pi를 제공받아 질문 문장에 대한 답변 후보 문장들을 추출하고, 상기 답변 후보 문장들 각각과 질문문장 임베딩 정보 u를 가산하여 출력한다.
좀더 설명하면, 상기 입력 메모리부(702)는 제1임베딩 처리부(400)가 출력하는 mi 및 제3임베딩 처리부(600)가 출력하는 질문문장정보 u를 입력받아 수학식 1에 따라 처리한다.
Figure 112018061640684-pat00001
상기 수학식 1에서 pi는 상기 제1문장 임베딩 정보 mi와 질문문장 임베딩 정보 u의 관련정도를 나타내는 정보이고, i는 입력문장의 식별정보이고, k는 소프트맥스 수식에 입력되는 구성요소(element)들의 총 개수이고, ·은 행렬곱(matrix multiplication)을 나타낸다.
여기서, 일반적으로 자연어 처리에서 임베딩 값이 비슷하면 관련성이 있다고 판단하며 그 비슷함을 구할때 코사인 시밀러리티(cosine similarity)를 사용한다. 상기 코사인 시밀러리티 수식을 간단화하면 이너 프로덕트와 같아지며, 히스토리의 문장 벡터인 mi와 질문문장 벡터인 u가 이너 프로덕트 된 것들이 관련성을 나타낸다.
상기 출력 메모리부(408)는 수학식 2에 따라 상기 제2임베딩 처리부(200)의 출력 ci와 상기 입력 메모리부(702)의 처리결과 pi를 제공받아 웨이티드 썸을 이행하고 그 결과정보인 o를 출력한다.
Figure 112018061640684-pat00002
상기 수학식 2에서 pi는 입력 메모리부(702)의 출력이고, 상기 ci는 상기 제2임베딩 처리부(500)가 출력하는 제2문장 임베딩 정보로서, 답변후보 문장이 아닌 히스토리 문장에 대해 출력(output)용으로 정보전달을 위해 따로 임베딩한 것이다. 그리고 o는 답변 후보문장 중에서 정답을 고르기 위하여 히스토리 문장에서 적절한 문장 정보를 골라 출력하는 역할을 이행한다.
상기 웨이티드 썸 결과정보 o는 결합부(714)에 제공된다.
상기 결합부(714)는 상기 웨이티드 썸 결과정보 o와 질문정보 u를 수학식 3에 따라 가산하여 출력한다.
Figure 112018061640684-pat00003
상기 수학식 3에서 상기 웨이티드 썸 결과정보 o와 질문정보 u는 같은 차원의 벡터이기 때문에 가산하는 것이 가능하다.
상기 결합부(714)는 상기 웨이티드 썸 결과정보 o와 질문정보 u를 결합하여 정답출력부(800)로 제공한다.
<정답출력부(800)>
상기 정답출력부(800)는 w부(802)와 예측된 답변 a 저장부(506)로 구성된다.
상기 w부(802)의 처리 절차는 도 4에 도시한 바와 같다. 상기 도 4를 참조하면, 상기 w부(802)는 수학식 4에 따라 전체 후보 문장에 대해 가장 높은 확률을 가지는 문장부터 탐색하여 후보 문장과 일치하는 문장이 탐색되면, 그것을 답변 문장으로 예측한다(900단계).
Figure 112018061640684-pat00004
상기 수학식 4에서 a의 차원은 전체후보(global candidate) 개수와 같고 소프트매스로 정규화했기 때문에 a는 총합 1인 각 후보에 대한 확률값들을 나타낸다. 여기서 가장 높은 확률을 가지는 후보 문장부터 해당 대화에 있는 10개의 후보 문장 중에 일치하는 것이 있는지를 탐색하고, 후보 문장에 해당 대화에 있는 10개의 후보 문장이 있는 문장을 최종 정답인 답변 문장으로 선택한다.
상기 w부(802)는 상기 답변 문장이 예측되면, 데이터베이스(104)에 저장된 단어와 치환정보를 이용하여 예측된 답변의 메타 데이터들을 원래의 단어로 치환하여 완성된 답변 문장을 출력한다(902,904단계).
이러한 본 발명은 훈련 데이터에 등장할 가능성이 적은 고유명사 등에 대비하여 위해 데이터베이스를 참조하여 메타 데이터 타입으로 단어를 변환하여 학습한다. 이러한 방식은 데이터베이스에 등록된 단어들에 대해 대비가 되어 성능을 향상시킨다. 또한 본 발명은 변화된 단어를 복구하기 위해 원형을 별도 저장한다.
만약 고유명사를 그대로 둔 채로 학습을 진행하면 단어 종류의 폭이 매우 크게 늘어나게 되며, 테스트 단계에서 사용되지 않은 단어가 나올 경우에는 모르는 단어로 인식되어 제대로 된 답변을 찾기가 어렵다. 이러한 상황을 방지하기 위해 본 발명은 주어진 데이터베이스를 참고하여 등록되어 있는 고유명사 등에 해당하는 단어들을 특정 형식으로 치환한다. 여기서, 치환하는 종류에는 레스토랑 이름, 전화번호, 가격, 인원수, 음식 종류, 음식점의 장소 등이 있다.
도 5는 상기 메타 데이터 타입의 변환을 예시한 것이다. 상기 도 5를 참조하여 치환되는 형식을 설명하면, ‘<R_cuisine.1>’과 같이 뒤에 ‘.’과 숫자가 부여되며, 이는 한 대화 안에서 음식 관련 단어가 여러 개 나올 수 있으므로 그것들을 구분하기 위한 식별정보이다. 즉, 첫 번째 음식은 ‘<R_cuisine.1>’으로 두 번째 음식 단어는 ‘<R_cuisine.2>’로 나타내게 된다.
또한 본 발명은 메타 데이터 타입으로 변환된 단어를 원형으로 복구할 수 이도록 단어들을 사전 형식으로 저장하여 원문손상을 미연에 방지한다.
이와 같이 본 발명은 단어를 정해진 형식으로 치환을 함으로써 단어의 종류 폭이 좁아져서 원활한 학습이 이루어지고, 테스트 단계에서 처음 보는 단어도 데이터베이스에 존재만 하면 음식인지, 장소인지 등을 알 수 있어 적절한 정답 문장을 찾아 치환된 단어들을 원래 단어들로 복원하여 제대로 된 답변 문장을 출력할 수 있게 한다.
이러한 본 발명에 따르는 치환은 파이썬 코드를 통해 자동적으로 이루어지며 입력된 데이터베이스에 존재하는 고유명사들에 대해서 치환작업을 하게 된다. 또한 각 대화와 후보문장에는 고유한 식별정보(ID)가 붙어 있기 때문에 치환되었더라도 고유 식별정보(ID)를 통해 알맞은 치환 정보를 찾을 수가 있다. 그리고 최종적으로 선택된 고유 식별정보(ID)와 답변 문장에 대해 고유 식별정보(ID)를 통해 찾은 치환 정보를 이용하여 치환 이전의 원래 문장으로 복구한다.
100 : 음성 대화 서비스 시스템
102 : 음성 대화 서비스 서버
104 : 데이터베이스

Claims (5)

  1. 단어자질을 강화한 음성 대화 방법에 있어서,
    다수의 문장으로 구성되는 질의 응답 말뭉치를 입력받아 다수의 문장 각각에 대해 단어들로 구성되는 제1메타 데이터를 생성하는 단계;
    상기 다수의 문장 각각에 대한 제1메타 데이터를 입력받아, 상기 제1메타 데이터의 단어들 각각에 대해 제1임베딩 벡터를 부가하여 제1단어벡터들을 생성하고, 상기 제1단어벡터들을 양방향 LSTM 처리하여 제1문장 임베딩 정보를 생성하는 단계;
    상기 제1메타 데이터의 단어들 각각에 대해 제2임베딩 벡터를 부가하여 제2단어벡터들을 생성하고, 상기 제2단어벡터들을 양방향 LSTM 처리하여 제2문장 임베딩 정보를 생성하는 단계;
    질문 문장에 대해 단어들로 구성되는 제2메타 데이터를 생성하고, 상기 제2메타 데이터의 단어들 각각에 대해 제3임베딩 벡터를 부가하여 제3단어벡터들을 생성하고, 상기 제3단어벡터들을 양방향 LSTM 처리하여 질문문장 임베딩 정보를 생성하는 단계;
    메모리 네트워크의 입력 메모리로 상기 제1문장 임베딩 정보와 상기 질문문장 임베딩 정보를 입력하고, 메모리 네트워크의 출력 메모리로 상기 제2 문장 임베딩 정보를 입력하는 단계;
    상기 입력 메모리의 상기 다수의 문장들 각각에 대한 제1문장 임베딩 정보와 상기 질문 문장 임베딩 정보 사이의 관련성을 나타내는 제1정보를 생성하는 단계;
    상기 다수의 문장들 각각에 대한 제1정보와 상기 다수의 문장들 각각에 대한 제2문장 임베딩 정보의 웨이티드 썸을 이행하여 제2정보를 생성하는 단계;
    상기 다수의 문장들 각각에 대해 제2정보와 상기 질문 문장 임베딩 정보를 가산하여 제3정보를 출력하는 단계; 및
    상기 제3정보를 통해 상기 질문 문장에 대한 답변 문장을 예측하여 출력하는 단계;를 포함하며,
    상기 제1 정보는 히스토리 문장들 각각과 질문 문장 사이의 관련성을 나타내는 가중치 정보이며, 상기 제2 정보는 메모리 네트워크의 출력 메모리에 의해 상기 다수의 문장들 각각에 대한 제1정보와 상기 다수의 문장들 각각에 대한 제2문장 임베딩 정보를 웨이티드 썸한 결과 정보이며, 제3 정보는 제2 정보와 질문 문장 임베딩 정보를 가산한 예측 정보인 것을 특징으로 하는 단어자질을 강화한 음성 대화 방법.
  2. 제1항에 있어서,
    상기 제1 내지 제3메터 데이터의 단어들은 데이터 타입과 식별번호로 치환되며,
    상기 데이터 타입과 식별번호에 대응되게 치환된 단어들은 예측된 답변 문장을 구성하는 치환된 단어들을 원래의 단어로 치환함을 특징으로 하는 단어자질을 강화한 음성 대화 방법.
  3. 제1항에 있어서,
    다수의 문장들 각각에 대한 제1문장 임베딩 정보와 상기 질문 문장 임베딩 정보 사이의 관련성을 나타내는 제1정보는 수학식 5에 따라 산출됨을 특징으로 하는 단어자질을 강화한 음성 대화 방법.
    수학식 5
    Figure 112020018059638-pat00005

    상기 수학식 5에서 pi는 제1문장 임베딩 정보와 상기 질문 문장 임베딩 정보의 관련정도를 나타내는 제1정보이고, u는 질문 문장 임베딩 정보이고, mi는 제1 문장 임베딩 정보이고, i는 제1문장 임베딩 정보의 식별정보이고, k는 소프트맥스 수식에 입력되는 구성요소(element)들의 총 개수이고, ·은 행렬곱(matrix multiplication)을 나타냄.
  4. 제3항에 있어서,
    상기 다수의 문장들 각각에 대한 제1정보와 상기 다수의 문장들 각각에 대한 제2문장 임베딩 정보의 웨이티드 썸을 수학식 6에 따라 산출함을 특징으로 하는 단어자질을 강화한 음성 대화 방법.
    수학식 6
    Figure 112020018059638-pat00006

    상기 수학식 6에서, 상기 pi는 제1 문장 임베딩 정보와 질문 문장 임베딩 정보의 관련정도를 나타내는 제1정보이고, 상기 ci는 상기 제2문장 임베딩 정보임.
  5. 제4항에 있어서,
    상기 제3정보를 이용하여 전체 후보 문장에 대하여 수학식 7에 따라 확률을 산출하고, 가장 높은 확률을 가진 문장을 답변 문장으로 예측하여 출력함을 특징으로 하는 단어자질을 강화한 음성 대화 방법.
    수학식 7
    a=softmax(W(o+u))
    상기 수학식 7에서, a의 차원은 전체 후보(global candidate) 개수와 같으며 상기 다수의 문장들인 후보 문장 각각에 대한 확률값들을 나타냄.
KR1020180072234A 2018-06-22 2018-06-22 단어자질을 강화한 음성 대화 방법 및 시스템 KR102133825B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180072234A KR102133825B1 (ko) 2018-06-22 2018-06-22 단어자질을 강화한 음성 대화 방법 및 시스템
US16/447,373 US10984785B2 (en) 2018-06-22 2019-06-20 Voice conversation method and system with enhanced word features

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180072234A KR102133825B1 (ko) 2018-06-22 2018-06-22 단어자질을 강화한 음성 대화 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20200000216A KR20200000216A (ko) 2020-01-02
KR102133825B1 true KR102133825B1 (ko) 2020-07-16

Family

ID=68980751

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180072234A KR102133825B1 (ko) 2018-06-22 2018-06-22 단어자질을 강화한 음성 대화 방법 및 시스템

Country Status (2)

Country Link
US (1) US10984785B2 (ko)
KR (1) KR102133825B1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110377721B (zh) * 2019-07-26 2022-05-10 京东方科技集团股份有限公司 自动问答方法、装置、存储介质及电子设备
US11055494B2 (en) * 2019-08-09 2021-07-06 Microsoft Technology Licensing, Llc. Matrix based bot implementation
KR20210084123A (ko) * 2019-12-27 2021-07-07 삼성전자주식회사 전자 장치 및 그 제어 방법
CN111259130B (zh) * 2020-02-14 2023-04-07 支付宝(杭州)信息技术有限公司 用于在对话中提供答复语句的方法及装置
CN111782779B (zh) * 2020-05-28 2022-08-23 厦门快商通科技股份有限公司 语音问答方法、系统、移动终端及存储介质
KR102593907B1 (ko) * 2020-11-23 2023-10-25 한국과학기술원 의미역 결정 기반 신경망 연산 방법 및 장치
US11830490B2 (en) * 2021-08-11 2023-11-28 International Business Machines Corporation Multi-user voice assistant with disambiguation
CN113674732B (zh) * 2021-08-16 2022-05-17 北京百度网讯科技有限公司 语音置信度检测方法、装置、电子设备和存储介质
CN113973156B (zh) * 2021-12-22 2022-04-08 杭州远传新业科技有限公司 一种话务量预测方法及系统、话务量预测装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101545050B1 (ko) 2013-10-10 2015-08-17 포항공과대학교 산학협력단 정답 유형 자동 분류 방법 및 장치, 이를 이용한 질의 응답 시스템
KR102425917B1 (ko) 2014-01-28 2022-07-26 스피치 센츠 게엠베하 자동으로 텍스트의 의미를 검출하고 텍스트의 일의성을 측정하기 위한 방법
KR102033435B1 (ko) 2014-11-19 2019-11-11 한국전자통신연구원 자연어 질의응답 시스템과 방법 및 패러프라이즈 모듈
KR101763407B1 (ko) * 2015-10-14 2017-07-31 주식회사 시스트란인터내셔널 음성 대화 시스템 및 그 시스템에서의 음성 대화 방법
KR101837262B1 (ko) 2016-02-15 2018-04-20 한국과학기술원 단어 자질 가중치를 적용한 딥 러닝 기반 개체 유형 분류 방법
CN107885756B (zh) * 2016-09-30 2020-05-08 华为技术有限公司 基于深度学习的对话方法、装置及设备
CN106649768B (zh) * 2016-12-27 2021-03-16 北京百度网讯科技有限公司 基于深度问答的问答澄清方法和装置
US10380259B2 (en) * 2017-05-22 2019-08-13 International Business Machines Corporation Deep embedding for natural language content based on semantic dependencies
JP2019106054A (ja) * 2017-12-13 2019-06-27 株式会社東芝 対話システム
US10629193B2 (en) * 2018-03-09 2020-04-21 Microsoft Technology Licensing, Llc Advancing word-based speech recognition processing

Also Published As

Publication number Publication date
US10984785B2 (en) 2021-04-20
US20190392824A1 (en) 2019-12-26
KR20200000216A (ko) 2020-01-02

Similar Documents

Publication Publication Date Title
KR102133825B1 (ko) 단어자질을 강화한 음성 대화 방법 및 시스템
CN111046152B (zh) Faq问答对自动构建方法、装置、计算机设备及存储介质
CN110046221B (zh) 一种机器对话方法、装置、计算机设备及存储介质
CN109840287B (zh) 一种基于神经网络的跨模态信息检索方法和装置
CN110309283B (zh) 一种智能问答的答案确定方法及装置
CN107590192B (zh) 文本问题的数学化处理方法、装置、设备和存储介质
CN110321419B (zh) 一种融合深度表示与交互模型的问答匹配方法
CN113312500B (zh) 一种面向大坝安全运行的事件图谱构建方法
US20190244609A1 (en) Adversarial learning and generation of dialogue responses
CN110795552B (zh) 一种训练样本生成方法、装置、电子设备及存储介质
CN110245221B (zh) 训练对话状态跟踪分类器的方法和计算机设备
CN110377916B (zh) 词预测方法、装置、计算机设备及存储介质
US8019594B2 (en) Method and apparatus for progressively selecting features from a large feature space in statistical modeling
CN113268609A (zh) 基于知识图谱的对话内容推荐方法、装置、设备及介质
US8019593B2 (en) Method and apparatus for generating features through logical and functional operations
CN111783478B (zh) 机器翻译质量估计方法、装置、设备及存储介质
CN112417855A (zh) 文本意图识别方法、装置以及相关设备
CN112084435A (zh) 搜索排序模型训练方法及装置、搜索排序方法及装置
CN111428750A (zh) 一种文本识别模型训练及文本识别方法、装置及介质
CN110717027B (zh) 多轮智能问答方法、系统以及控制器和介质
CN116341651A (zh) 实体识别模型训练方法、装置、电子设备及存储介质
CN116304728A (zh) 一种基于句子表征的短文本相似度匹配方法及应用
CN111626059B (zh) 一种信息处理方法及装置
CN115204143A (zh) 一种基于prompt的文本相似度计算方法及系统
CN114238549A (zh) 文本生成模型的训练方法、装置、存储介质及计算机设备

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant