KR20210088463A - 다중 라운드 대화 검색 방법, 장치, 저장매체 및 전자기기 - Google Patents

다중 라운드 대화 검색 방법, 장치, 저장매체 및 전자기기 Download PDF

Info

Publication number
KR20210088463A
KR20210088463A KR1020210082458A KR20210082458A KR20210088463A KR 20210088463 A KR20210088463 A KR 20210088463A KR 1020210082458 A KR1020210082458 A KR 1020210082458A KR 20210082458 A KR20210082458 A KR 20210082458A KR 20210088463 A KR20210088463 A KR 20210088463A
Authority
KR
South Korea
Prior art keywords
information
context
candidate response
sample
generating
Prior art date
Application number
KR1020210082458A
Other languages
English (en)
Inventor
샤오펑 유
시야오 린
유 한
리타오 정
Original Assignee
바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 filed Critical 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드
Publication of KR20210088463A publication Critical patent/KR20210088463A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2453Query optimisation
    • G06F16/24534Query rewriting; Transformation
    • G06F16/24542Plan optimisation
    • G06F16/24545Selectivity estimation or determination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • G06F16/313Selection or weighting of terms for indexing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0445
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Operations Research (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

본 출원은 다중 라운드 대화 검색 방법, 장치, 저장매체 및 전자기기를 공개하였는 바, 이는 인공지능, 자연 언어 처리, 딥 러닝 기술분야에 관한 것이다. 구체적인 실시방안은, 현재 질문 정보를 획득하고, 현재 질문 정보의 컨텍스트 정보를 획득하며; 현재 질문 정보의 복수의 후보 응답 정보를 획득하고; 컨텍스트 정보에 따라 컨텍스트 특징을 생성하고, 복수의 후보 응답 정보에 따라 복수의 후보 응답 특징을 생성하며; 컨텍스트 특징과 복수의 후보 응답 특징 간의 일치성 정보를 각각 계산하고; 컨텍스트 특징과 복수의 후보 응답 특징 간의 일치성 정보에 따라 복수의 후보 응답 정보에서 하나의 후보 응답 정보를 선택하여 응답한다. 본 출원은 응답 정보와 현재 질문 정보의 매칭 정도를 효과적으로 향상시키고, 다중 라운드 대화의 대화 효과를 향상시킴으로써 사용자의 대화 경험을 향상시킬 수 있다.

Description

다중 라운드 대화 검색 방법, 장치, 저장매체 및 전자기기{METHOD AND APPARATUS FOR RETRIEVING MULTI-ROUND CONVERSATIONSMULTI-TURN DIALOGUE, STORAGE MEDIUM, AND ELECTRONIC DEVICE}
본 출원은 컴퓨터 기술분야에 관한 것으로, 구체적으로 인공지능, 자연 언어 처리, 딥 러닝 기술분야에 관한 것인 바, 특히 다중 라운드 대화 검색 방법, 장치, 저장매체 및 전자기기에 관한 것이다.
질문 응답 시스템(Question Answering System, QA)은 현재 인공지능 및 자연 언어 처리 기술분야에서 많은 주목을 받고 있으며 광범위한 발전 전망을 가진 연구 방향이고, 또한 최근 대형 인터넷 업체들은 질문 응답 로봇, 지능형 고객 서비스 등 질문 응답 시스템 연구개발에 박차를 가하고 있으며, 특히 의료, 교육 등 업계에서 지능형 질문 응답 시스템은 중요한 역할을 하고 있다.
응답 정보와 현재 질문 정보의 매칭 정도를 효과적으로 향상시키고, 다중 라운드 대화의 대화 효과를 향상시킴으로써 사용자의 대화 경험을 향상시킬 수 있는 다중 라운드 대화 검색 방법, 장치, 저장매체 및 전자기기를 제공한다.
제1 측면에 따르면, 다중 라운드 대화 검색 방법을 제공하였는 바, 현재 질문 정보를 획득하고, 상기 현재 질문 정보의 컨텍스트 정보를 획득하는 단계; 상기 현재 질문 정보의 복수의 후보 응답 정보를 획득하는 단계; 상기 컨텍스트 정보에 따라 컨텍스트 특징을 생성하고, 상기 복수의 후보 응답 정보에 따라 복수의 후보 응답 특징을 생성하는 단계; 상기 컨텍스트 특징과 상기 복수의 후보 응답 특징 간의 일치성 정보를 각각 계산하는 단계; 상기 컨텍스트 특징과 상기 복수의 후보 응답 특징 간의 일치성 정보에 따라 상기 복수의 후보 응답 정보에서 하나의 후보 응답 정보를 선택하여 응답하는 단계를 포함한다.
제2 측면에 따르면, 다중 라운드 대화 검색 장치를 제공하였는 바, 현재 질문 정보를 획득하고, 상기 현재 질문 정보의 컨텍스트 정보를 획득하기 위한 제1 획득 모듈; 상기 현재 질문 정보의 복수의 후보 응답 정보를 획득하기 위한 제2 획득 모듈; 상기 컨텍스트 정보에 따라 컨텍스트 특징을 생성하고, 상기 복수의 후보 응답 정보에 따라 복수의 후보 응답 특징을 생성하기 위한 생성 모듈; 상기 컨텍스트 특징과 상기 복수의 후보 응답 특징 간의 일치성 정보를 각각 계산하는 계산 모듈; 및 상기 컨텍스트 특징과 상기 복수의 후보 응답 특징 간의 일치성 정보에 따라 상기 복수의 후보 응답 정보에서 하나의 후보 응답 정보를 선택하여 응답하기 위한 응답 모듈을 포함한다.
제3 측면에 따르면, 전자기기를 제공하였는 바, 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서와 통신 연결되는 메모리; 를 포함하고, 상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되고, 상기 명령이 상기 적어도 하나의 프로세서에 의해 실행될 경우, 상기 적어도 하나의 프로세서가 본 출원의 실시예의 다중 라운드 대화 검색 방법이 수행된다.
제4 측면에 따르면, 컴퓨터 프로그램이 저장되는 비 일시적 컴퓨터 판독가능 저장매체를 제공하였는 바, 상기 컴퓨터 프로그램의 명령이 실행될 경우, 본 출원의 실시예에서 제공되는 다중 라운드 대화 검색 방법이 수행된다.
제5 측면에 따르면, 컴퓨터 판독 가능 저장 매체에 저장되는 컴퓨터 프로그램을 제공하였는 바, 상기 컴퓨터 프로그램의 명령이 실행될 경우, 본 출원의 실시예에서 제공되는 다중 라운드 대화 검색 방법이 수행된다.
본 출원의 기술에 따르면, 다중 라운드 대화의 대화 효과를 향상시킬 수 있다.
이해해야 할 것은, 본 부분에 기술된 내용은 본 공개의 실시예의 핵심 또는 중요특징을 알려주는 것이 목적이 아닐 뿐더러, 본 공개의 범위를 한정하기 위한 것도 아니다. 본 공개의 기타 특징은 이하의 명세서에 의하여 이해하기 쉽게 된다.
첨부된 도면은 본 방안을 더 잘 이해하기 위한 것으로, 본 출원을 한정하지 않는다. 여기서,
도 1은 본 출원의 제1 실시예에 따른 모식도이다.
도 2는 본 출원의 제2 실시예에 따른 모식도이다.
도 3은 본 출원의 실시예의 응용 효과 모식도이다.
도 4는 본 출원의 제3 실시예에 따른 모식도이다.
도 5는 본 출원의 실시예의 모델링 장면 모식도이다.
도 6은 본 출원의 제4 실시예에 따른 모식도이다.
도 7은 본 출원의 제5 실시예에 따른 모식도이다.
도 8은 본 출원의 실시예의 다중 라운드 대화 검색 방법을 구현하기 위한 전자기기의 블록도이다.
이하, 첨부된 도면을 결부하여 본 출원의 예시적인 실시예들을 설명하고자 하며, 이해를 돕기 위해 본 출원의 실시예들의 다양한 세부 사항들이 포함되는데, 이들은 단지 예시적인 것으로 간주되어야 한다. 따라서, 본 출원의 기술 분야의 통상의 지식을 가진 자라면 본 출원의 범위 및 사상을 벗어나지 않으면서 본 명세서에 설명된 실시예들에 대해 다양한 변경 및 수정이 이루어질 수 있음을 알아야 한다. 또한, 명확성 및 간결성을 위해, 공지된 기능 및 구조에 대한 설명은 아래 설명에서 생략된다.
도 1은 본 출원의 제1 실시예에 따른 모식도이다. 여기서, 설명할 필요가 있는 것은, 본 실시예의 다중 라운드 대화 검색 방법의 수행주체는 다중 라운드 대화 검색 장치이고, 상기 장치는 소프트웨어 및/또는 하드웨어의 형태로 구현될 수 있으며, 상기 장치는 전자기기에 구성될 수 있고, 전자기기에는 단말기, 서버 등이 포함될 수 있으나 이에 한정되지는 않는다.
본 출원의 실시예는 인공지능 기술분야, 자연 언어 처리 기술분야, 딥 러닝 기술분야에 관한 것으로, 여기서, 인공지능(Artificial Intelligence)은 영어로 AI로 약칭한다. 이는 인간의 지능을 시뮬레이션, 연장 및 확장하기 위한 이론, 방법, 기술 및 응용 시스템을 연구하고 개발하는 새로운 기술 과학이다. 딥 러닝은 샘플 데이터의 내재적 법칙과 표현 수준을 학습하는 것으로, 이러한 학습 과정에서 얻은 정보는 문자, 이미지, 소리 등 데이터 해석에 큰 도움이 된다. 딥 러닝의 최종 목표는 기계가 인간처럼 분석 및 학습 능력을 구비하여 문자, 이미지 및 소리 등 데이터를 인식할 수 있도록 하는 것이다. 자연 언어 처리는 인간과 컴퓨터 간의 효과적인 통신을 위한 다양한 이론과 방법을 자연 언어로 구현할 수 있다. 딥 러닝은 샘플 데이터의 내재적 법칙과 표현 수준을 학습하는 것으로, 이러한 학습 과정에서 얻은 정보는 문자, 이미지, 소리 등 데이터 해석에 큰 도움이 된다. 딥 러닝의 최종 목표는 기계가 인간처럼 분석 및 학습 능력을 구비하여 문자, 이미지 및 소리 등데이터를 인식할 수 있도록 하는 것이다.
도 1에 도시된 바와 같이, 상기 다중 라운드 대화 검색 방법은 하기와 같은 단계를 포함한다.
S101: 현재 질문 정보를 획득하고, 현재 질문 정보의 컨텍스트 정보를 획득한다.
여기서, 사용자가 현재 입력한 질문을 현재 질문이라고 지칭할 수 있으며, 현재 질문 정보는 예를 들어 현재 질문의 콘텐츠일 수 있는 바 즉, 다중 라운드 대화 과정에서, 사용자가 입력한 현재 질문 정보를 인식하고 현재 질문 정보를 획득하는 동시에 현재 질문 정보의 컨텍스트 정보를 획득할 수 있는데, 상기 컨텍스트 정보는 구체적으로 예를 들어 현재 질문 컨텍스트의 텍스트 콘텐츠 등일 수 있으나 이에 한정되지 않는다.
다중 라운드 대화가 U = {u1, u2, …, un}로 표시될 수 있다고 가정하면, 여기서un은 현재 질문으로 지칭될 수 있고, un에 포함된 콘텐츠, 특징 등은 현재 질문 정보로 지칭될 수 있으며, u1, u2, …에 포함된 콘텐츠, 특징 등은 컨텍스트 정보로 지칭될 수 있다.
S102: 현재 질문 정보의 복수의 후보 응답 정보를 획득한다.
상기 현재 질문 정보를 획득하고, 현재 질문 정보의 컨텍스트 정보를 획득한 후, 대화 지식 베이스 내에서 현재 질문 정보의 복수의 후보 응답 정보를 획득하되, 여기서 대화 지식 베이스는 외부 지식 베이스일 수 있는 바, 즉, 상기 외부 지식 베이스는 다중 라운드 대화 검색 장치의 로컬 지식 베이스에 액세스되어 응답 정보 결정 시 외부 지식 베이스에서 제공하는 콘텐츠를 참조할 수 있다.
예를 들어, 복수의 후보 응답은 하기와 같이 표시될 수 있다. R={r1, r2, …, rm}은 후보 응답 리스트이고, Y={y1, y2, …, ym}은 해당하는 두 분류 라벨이며, 여기서 yi = 1은 ri가 정확한 응답임을 의미하고, 그렇지 않으면 yi =0이며, 후보 응답 R={r1, r2, …, rm}와 관련된 일부 콘텐츠, 특징 등은 후보 응답 정보로 지칭될 수 있다.
S103: 컨텍스트 정보에 따라 컨텍스트 특징을 생성하며, 복수의 후보 응답 정보에 따라 복수의 후보 응답 특징을 생성한다.
상기 현재 질문 정보의 복수의 후보 응답 정보를 획득한 후, 컨텍스트 정보에 따라 컨텍스트 특징을 생성하며, 복수의 후보 응답 정보에 따라 복수의 후보 응답 특징을 생성하되, 여기서, 컨텍스트 특징은 컨텍스트 정보 간의 특징 상황을 기술하기 위한 것이고, 후보 응답 특징은 해당 후보 응답 정보의 특징 상황을 기술하기 위한 것이며, 상기 컨텍스트 특징 및 후보 응답 특징은 후속 단계에서 가장 적합한 후보 응답을 결정하는데 사용된다.
일부 실시예에서, 컨텍스트 정보에 대해 특징 인식을 수행하여 인식된 특징을 컨텍스트 특징으로 사용하고, 각 후보 응답 정보에 대해 특징 인식을 수행하여 인식된 특징을 후보 응답 특징으로 사용할 수 있다.
본 출원의 실시예에서, 후보 응답과 현재 질문의 적응성을 보장하는 동시에 특징 매칭 효율을 높이기 위해, 컨텍스트 정보가 복수일 경우, 복수의 컨텍스트 정보를 스티칭하여 컨텍스트 집계 정보를 형성하도록 하고, 컨텍스트 집계 정보에 따라 컨텍스트 특징을 생성할 수 있는 바, 즉, 컨텍스트 정보가 복수이고, 각 컨텍스트 정보가 하나의 컨텍스트 어구에 대응하는 경우, 본 출원의 실시예는 복수의 컨텍스트 정보를 집계하여 데이터 양을 압축하고 후속 모델 매칭 효율을 향상시킨다.
여기서 컨텍스트 집계 정보는 컨텍스트 정보의 집계 특징을 기술하기 위한 것일 수 있는 바, 상기 컨텍스트 집계 정보는 복수의 컨텍스트 정보를 직접 스티칭하여 얻을 수 있거나, 또는 각 컨텍스트 정보에서 적어도 하나의 특징어를 추출하고 각 특징어를 스티칭하여 컨텍스트 집계 정보를 얻을 수 있거나, 또는 기타 임의의 가능한 방식을 사용하여 컨텍스트 집계 정보를 형성할 수도 있다.
본 출원의 실시예에서, 컨텍스트 집계 정보에 따라 컨텍스트 특징을 생성하는 경우, 각 컨텍스트 정보에 대응하는 코딩 특징 및 가중치를 결정하고 가중치를 기반으로 복수의 코딩 특징을 집계하여 컨텍스트 특징을 얻을 수 있으며, 컨텍스트 특징을 결정하는 경우, 컨텍스트 정보에 대응하는 코딩 특징 뿐만 아니라 컨텍스트 환경에서 각 코딩 특징의 가중치도 고려하여 컨텍스트 특징의 정확도를 효과적으로 향상시키고 후속 모델 분석 효과를 보장한다.
일예로, 각 컨텍스트 정보를 사전 트레이닝을 통해 얻을 수 있는 코딩 모델에 입력하여 상기 코딩 정보를 사용하여 컨텍스트 정보에 대응하는 코딩 특징 및 가중치를 결정한 후, 가중치를 기반으로 복수의 코딩 특징을 집계하여 컨텍스트 특징을 얻을 수 있다.
다른 일부 실시예에서, 컨텍스트 집계 정보에 따라 컨텍스트 특징을 생성하고, 또한 복수의 컨텍스트 정보 간의 교차 특징을 결정하고, 교차 특징을 컨텍스트 특징으로 사용할 수도 있고, 복수의 컨텍스트 정보 간의 교차 특징은 컨텍스트 정보 간의 관련성을 기술하기 위한 것일 수 있어, 전체 다중 라운드 대화에서 컨텍스트 정보의 내재적인 관련성 특징을 구현할 수 있으므로, 컨텍스트 정보 간의 관련성 및 전체 다중 라운드 대화에서 컨텍스트 정보의 내재적인 관련성 특징을 인식함으로써 더욱 매칭된 후보 응답의 후속 결정을 보조하고 다중 라운드 대화 효과를 향상시킬 수 있다.
일예로, 다중 계층 순환 신경망(Recurrent Neural Network, RNNs) 모델을 사전 트레이팅하고 복수의 컨텍스트 정보를 상기 RNNs 모델에 입력하여 얻을 수 있되, 상기 RNNs 모델은 다중 계층 BiLSTM 모델을 포함하고, BiLSTM 모델은(Bi-directional Long Short-Term Memory, 양방향 장단기 메모리) 모델의 약자로서, 순방향 LSTM과 역방향 LSTM의 조합으로 구성되므로 각 계층 BiLSTM의 출력에 따라 복수의 컨텍스트 정보 간의 교차 특징을 결정하나 이에 한정되지 않는다.
S104: 컨텍스트 특징과 복수의 후보 응답 특징 간의 일치성 정보를 각각 계산한다.
상기 컨텍스트 정보에 따라 컨텍스트 특징을 생성하며, 복수의 후보 응답 정보에 따라 복수의 후보 응답 특징을 생성한 후, 각 후보 응답 특징에 대해 이와 컨텍스트 특징 간의 일치성 정보를 결정할 수 있다.
여기서, 상기 일치성 정보는 각 후보 응답 특징과 컨텍스트 특징 간의 매칭 정도를 기술하기 위한 것이다.
일부 실시예에서, 컨텍스트 특징과 복수의 후보 응답 특징 간의 일치성 정보를 각각 계산하는 것은, 컨텍스트 특징 및 복수의 후보 응답 특징을 외부의 대화 지식 베이스를 사용하여 트레이닝함으로써 획득되는 일치성 매칭 모델에 입력하여 컨텍스트 특징과 복수의 후보 응답 특징 간의 일치성 정보를 생성하도록 함으로써 각 후보 응답 특징과 컨텍스트 특징 간의 매칭 정도를 학습할 수 있고, 또한 일치성 매칭 모델은 외부의 대화 지식 베이스를 사용하여 트레이닝함으로써 획득되므로 후보 응답의 매칭 정확도를 강화하고, 배경 지식 간의 차이, 즉 대화 시스템과 사람 간의 차이를 효과적으로 보완하여, 일치성 정보의 획득 효율을 높이고, 일치성 정보의 설명 효과를 보장하면서 전체 다중 라운드 대화의 응답 효율을 향상시키고 사용자의 대화 경험을 향상시킨다.
S105: 컨텍스트 특징과 복수의 후보 응답 특징 간의 일치성 정보에 따라 복수의 후보 응답 정보에서 하나의 후보 응답 정보를 선택하여 응답한다.
일예로, 도 2를 참조하면, 도 2는 본 출원의 제2 실시예에 따른 모식도로서, 입력된 다중 라운드 대화는 U = {u1, u2, …, un}로 표시될 수 있고, 대화의 컨텍스트 u1, u2, …, 및 현재 질문 un을 각각 다중 계층 순환 신경망 모델에 입력한 후, 복수의 후보 응답 정보에 따라 생성된 복수의 후보 응답 특징 역시 다중 계층 순환 신경망 모델에 입력하고, RNNs 모델을 통해 컨텍스트 정보에 따라 컨텍스트 특징을 생성하며, 복수의 후보 응답 정보에 따라 복수의 후보 응답 특징을 생성한 후, 일치성 매칭 모델을 통해 컨텍스트 특징과 복수의 후보 응답 특징 간의 일치성 정보를 각각 계산할 수도 있는 바, 즉, 일치성 매칭 모델은 담화 문장의 코딩 특징을 매칭하여 컨텍스트 특징과 복수의 후보 응답 특징 간의 일치성 정보를 결정하고, 일치성 정보를 분류 모델에 입력하여, 분류 모델에 의해 복수의 후보 응답 정보에서 하나의 후보 응답 정보를 선택하여 응답한다.
상기 도 2를 함께 참조하면, 일치성 매칭 모델의 특징을 강화하기 위해, 다중 계층 RNNs를 사용하여 대화 컨텍스트 중 모든 컨텍스트 정보를 컨텍스트 집계 정보로 스티칭하고, 컨텍스트 특징과 후보 응답 특징 간의 교차 특징을 계산하고, 일치성 매칭 모델을 트레이닝하는 경우, 하나의 초기 시계열 모델을 트레이닝하여 다중 라운드 대화를 모델링하고, 모든 컨텍스트 정보를 집계하여, 마지막으로 다층 퍼셉트론(Multi-Layer Perceptron, MLP)을 분류 모델의 최후 계층으로 사용하여 매칭 점수를 반환하고 매칭 점수에 따라 복수의 후보 응답 정보에서 하나의 후보 응답 정보를 선택하여 응답한다.
위에서 언급한 도 2에서 L 계층의 BiLSTM 모델은 컨텍스트 정보의 코딩 특징을 추출하고, 각 계층 BiLSTM의 출력을 해당 컨텍스트의 코딩 특징으로 가중 및 합산하되, 여기서 wl은 주의력 attention의 가중치로서, 일치성 매칭 모델 트레이닝 과정에서 학습을 통해 획득된다.
Figure pat00001
여기서,
Figure pat00002
은 학습된 BILSTM 각 계층 컨텍스트에서 단어의 특징을 나타내고,
Figure pat00003
은 제1 계층 BILSTM 컨텍스트 특징을 나타내며,
Figure pat00004
는 컨텍스트에서 단어 수를 나타내고,
Figure pat00005
은 학습된 BILSTM 각 계층 후보 응답에서 단어의 특징을 나타내며,
Figure pat00006
은 제1 계층 BILSTM 후보 응답 특징을 나타내고,
Figure pat00007
은 후보 응답에서 단어 수를 나타내며, L은 BILSTM의 계층 수를 나타냄으로써, 일치성 매칭 모델이 글로벌 방식으로 각 후보 응답을 전체 컨텍스트와 매칭시킬 수 있는 바, 즉 전체 컨텍스트를 하나의 시퀀스로 간주하여 컨텍스트 콘텐츠 중 가장 관련성이 높은 후보 응답을 선택하여 최종 결정된 후보 응답으로 사용하고, 컨텍스트 콘텐츠 중 가장 관련성이 높은 후보 응답을 선택하여 최종 결정된 후보 응답으로 사용하는 과정에서, 관련이 없는 노이즈도 필터링할 수 있어 후보 응답의 매칭 정도를 효과적으로 향상시킬 수 있다.
컨텍스트 특징과 복수의 후보 응답 특징 간의 일치성 정보를 얻기 위해 일치성 매칭 모델에 대해 컨텍스트 특징 및 복수의 후보 응답 특징을 처리하는 것을 예를 들어 설명하면 다음과 같다.
각 후보 응답 특징과 컨텍스트 특징 간의 유사성 행렬(similar matrix)은
Figure pat00008
으로 계산되고, 후보 응답
Figure pat00009
중의 단어
Figure pat00010
의 경우, 그 컨텍스트 정보의 교차 특징은
Figure pat00011
으로 계산된다.
마찬가지로, 스티칭된 컨텍스트의 단어
Figure pat00012
의 경우, 그 후보 응답의 정렬 특징은
Figure pat00013
으로 계산되고, 여기서,
Figure pat00014
는 후보 응답 특징에서 단어의 주의력 attention의 가중치를 나타내고,
Figure pat00015
은 i번째 컨텍스트 특징을 나타내며,
Figure pat00016
는 j번째 후보 응답 특징을 나타내고,
Figure pat00017
은 유사성 행렬을 나타내며,
Figure pat00018
는 구체적으로 유사성 행렬 내의 요소로서, i번째 컨텍스트 특징과 j번째 후보 응답 특징 간의 주의력 attention의 가중치를 나타내고,
Figure pat00019
는 컨텍스트 스티칭된 단어 수를 나타내며,
Figure pat00020
는 응답 후보 중 단어 수를 나타내고,
Figure pat00021
는 컨텍스트 특징 중 단어의 정렬 특징을 나타내고, 그다음, 후보 응답 특징 및 컨텍스트 특징 중 각 단어에 대해 모두 상기 계산을 수행하여 후보 응답 특징과 컨텍스트 특징의 매칭 행렬을 형성함으로써, 상기 매칭 행렬을 사용하여 일치성 정보를 결정한다.
본 출원의 실시예에서, 인공지능 및 자연 언어 처리 방법을 다중 라운드 대화 검색 방법에 응용하고, 또한 외부 지식 베이스의 콘텐츠를 사용하여 하나의 딥 러닝 중 수학적 모델을 트레이닝하는 바, 즉 딥 러닝 중 모델링 방법을 사용하여 외부 지식 베이스의 콘텐츠가 결합된 일치성 매칭 모델을 트레이닝하여 컨텍스트 특징과 복수의 후보 응답 특징 간의 일치성 정보 결정을 보조하고, 다중 라운드 대화 중의 후보 응답을 고효율적이고 정확하게 결정하고, 외부 지식 베이스의 콘텐츠가 결합되므로 배경 지식 간의 차이, 즉 대화 시스템과 사람 간의 차이를 보완할 수 있고, 상기 일치성 매칭 모델은 지식 베이스 중의 사실을 참조하여 질문에 대한 자연스럽고 정확한 답안을 생성할 수 있다.
도 3을 참조하면, 도 3은 본 출원의 실시예의 응용 효과 모식도이다.
본 실시예에서, 현재 질문 정보를 획득하고, 현재 질문 정보의 컨텍스트 정보를 획득하며, 현재 질문 정보의 복수의 후보 응답 정보를 획득하고, 컨텍스트 정보에 따라 컨텍스트 특징을 생성하며, 복수의 후보 응답 정보에 따라 복수의 후보 응답 특징을 생성하고, 컨텍스트 특징과 복수의 후보 응답 특징 간의 일치성 정보에 따라 복수의 후보 응답 정보에서 하나의 후보 응답 정보를 선택하여 응답함으로써, 응답 정보와 현재 질문 정보의 매칭 정도를 효과적으로 향상시키고, 다중 라운드 대화의 대화 효과를 향상시킴으로써 사용자의 대화 경험을 향상시킬 수 있다.
도 4는 본 출원의 제3 실시예에 따른 모식도이다.
도 4에 도시된 바와 같이, 상기 다중 라운드 대화 검색 방법은 하기와 같은 단계를 더 포함한다.
S401: 대화 지식 베이스를 획득한다.
여기서 대화 지식 베이스는 외부 지식 베이스(KB)일 수 있는 바, 즉, 상기 외부 지식 베이스(KB)는 다중 라운드 대화 검색 장치의 로컬 지식 베이스에 액세스되어 응답 정보 결정 시 외부 지식 베이스에 제공하는 콘텐츠를 참조할 수 있다.
S402: 샘플 후보 응답 정보에 따라 대화 지식 베이스에서 복수의 샘플 질문 답안 쌍을 선택하되, 샘플 질문 답안 쌍은 샘플 컨텍스트 정보 및 샘플 응답 정보를 포함한다.
여기서, 복수의 샘플 질문 답안 쌍은 QA 쌍으로 표시될 수 있는데, 즉, 샘플 후보 응답 정보 rj를 검색어로 사용하여 외부 지식 베이스 KB에서 검색하되, 다시 말하면, 샘플 후보 응답 정보 rj를 기반으로 검색된 관련 QA 쌍은
Figure pat00022
으로 표시될 수 있는 바, 여기서 샘플 질문 답안 쌍은 샘플 컨텍스트 정보 및 샘플 응답 정보를 포함한다.
S403: 샘플 응답 정보 및 샘플 후보 응답 정보에 따라 목표 일치성 정보를 생성한다.
상기 샘플 후보 응답 정보에 따라 대화 지식 베이스에서 복수의 샘플 질문 답안 쌍을 선택한 후, 아래 공식을 참조하여 샘플 응답 정보 및 샘플 후보 응답 정보에 따라 목표 일치성 정보를 생성할 수 있는데, 여기서 상기 목표 일치성 정보는 일치성 매칭 모델을 트레이닝하기 위한 캘리브레이션된 일치성 정보이다.
일예로, tri 및 tuj로 샘플 후보 응답 정보 rj 중 i번째 단어 및 대화 컨텍스트 중 j번째 단어를 각각 표시하면, 일치성 매칭 행렬은 다음과 같이 계산될 수 있는 바 mij는 행렬 요소이고:
Figure pat00023
여기서, p는 검색된 관련 QA 쌍의 수를 나타내고, 분자는 검색된 관련 QA 쌍 전체에서 Q가 tuj를 포함하는 동시에 A가 tri를 포함할 확률을 나타내며, 분모의 제1항은 A가 tri를 포함할 확률을 나타내고, 제2항은 Q가 tuj를 포함할 확률을 나타내며,
Figure pat00024
는 일치성 매칭 행렬 중의 행렬 요소를 나타내고,
Figure pat00025
는 동시 발생 정보 연산의 함수 식별자를 나타내며,
Figure pat00026
는 컨텍스트 중 k번째 질문을 나타내고,
Figure pat00027
는 k번째 질문의 응답을 나타낸다. 상기 공식을 통해 검색된 관련 QA 쌍의 Q, A 중 tri 및 tuj의 상호 정보를 tri 및 tuj에 대한 일치성 특징으로 코딩하여 목표 일치성 정보를 얻을 수 있다.
S404: 샘플 컨텍스트 정보 및 샘플 후보 응답 정보를 일치성 매칭 모델에 입력하여 예측 일치성 정보를 생성한다.
S405: 예측 일치성 정보 및 목표 일치성 정보에 따라 일치성 매칭 모델을 트레이닝한다.
상기 샘플 응답 정보 및 샘플 후보 응답 정보에 따라 목표 일치성 정보를 생성한 후, 샘플 컨텍스트 정보 및 샘플 후보 응답 정보를 일치성 매칭 모델에 입력하여 예측 일치성 정보를 생성하도록 하고, 예측 일치성 정보 및 목표 일치성 정보에 따라 일치성 매칭 모델을 트레이닝할 수 있는데, 예를 들어, 예측 일치성 정보 및 목표 일치성 정보 간의 손실값을 생성할 수 있으며, 손실값이 설정된 역치 미만이면 일치성 매칭 모델에 대한 트레이닝이 완료된 것으로 결정하고, 손실값이 설정된 역치보다 크면 계속해서 일치성 매칭 모델을 트레이닝한다.
도 5를 참조하면, 도 5는 본 출원의 실시예의 모델링 장면 모식도이다.
본 실시예에서, 대화 지식 베이스를 획득하고, 샘플 후보 응답 정보에 따라 대화 지식 베이스에서 복수의 샘플 질문 답안 쌍을 선택하되, 여기서, 샘플 질문 답안 쌍은 샘플 컨텍스트 정보 및 샘플 응답 정보를 포함하며, 샘플 응답 정보 및 샘플 후보 응답 정보에 따라 목표 일치성 정보를 생성하고, 샘플 컨텍스트 정보 및 샘플 후보 응답 정보를 일치성 매칭 모델에 입력하여 예측 일치성 정보를 생성하도록 하며, 예측 일치성 정보 및 목표 일치성 정보에 따라 일치성 매칭 모델을 트레이닝하여, 트레이닝을 통해 일치성 매칭 모델을 획득함으로써 트레이닝을 통해 획득된 일치성 매칭 모델이 우수한 일치성 정보 획득 성능을 구비하여 상기 일치성 매칭 모델이 효과적으로 다중 라운드 대화의 진행을 보조하고 다중 라운드 대화 효율 및 효과를 보장한다.
도 6은 본 출원의 제4 실시예에 따른 모식도이다.
도 6에 도시된 바와 같이, 상기 다중 라운드 대화 검색 장치(600)는,
현재 질문 정보를 획득하고, 상기 현재 질문 정보의 컨텍스트 정보를 획득하기 위한 제1 획득 모듈(601);
상기 현재 질문 정보의 복수의 후보 응답 정보를 획득하기 위한 제2 획득 모듈(602);
상기 컨텍스트 정보에 따라 컨텍스트 특징을 생성하고, 상기 복수의 후보 응답 정보에 따라 복수의 후보 응답 특징을 생성하기 위한 생성 모듈(603);
상기 컨텍스트 특징과 상기 복수의 후보 응답 특징 간의 일치성 정보를 각각 계산하기 위한 계산 모듈(604); 및
상기 컨텍스트 특징과 상기 복수의 후보 응답 특징 간의 일치성 정보에 따라 상기 복수의 후보 응답 정보에서 하나의 후보 응답 정보를 선택하여 응답하는 응답 모듈(605)을 포함한다.
본 출원의 일부 실시예에서, 상기 계산 모듈(604)은 구체적으로,
상기 컨텍스트 특징과 상기 복수의 후보 응답 특징을 일치성 매칭 모델에 입력하여 상기 컨텍스트 특징과 상기 복수의 후보 응답 특징 간의 일치성 정보를 획득하도록 한다.
본 출원의 일부 실시예에서, 도 7을 참조하면, 도 7은 본 출원의 제5 실시예에 따른 모식도로서,
대화 지식 베이스를 획득하고, 샘플 후보 응답 정보에 따라 상기 대화 지식 베이스에서 복수의 샘플 질문 답안 쌍을 선택하되, 여기서, 상기 샘플 질문 답안 쌍은 샘플 컨텍스트 정보 및 샘플 응답 정보를 포함하며, 상기 샘플 응답 정보 및 상기 샘플 후보 응답 정보에 따라 목표 일치성 정보를 생성하고, 상기 샘플 컨텍스트 정보 및 상기 샘플 후보 응답 정보를 상기 일치성 매칭 모델에 입력하여 예측 일치성 정보를 생성하며, 상기 예측 일치성 정보 및 상기 목표 일치성 정보에 따라 상기 일치성 매칭 모델을 트레이닝하기 위한 트레이닝 모듈(606)을 더 포함한다.
본 출원의 일부 실시예에서, 상기 컨텍스트 정보는 복수이고, 상기 생성 모듈(603)은 구체적으로,
상기 복수의 컨텍스트 정보를 스티칭하여 컨텍스트 집계 정보를 형성하고;
상기 컨텍스트 집계 정보에 따라 상기 컨텍스트 특징을 생성한다.
본 출원의 일부 실시예에서, 상기 생성 모듈(603)은 또한,
상기 각 컨텍스트 정보에 대응하는 코딩 특징 및 가중치를 결정하고;
상기 가중치를 기반으로 복수의 상기 코딩 특징을 집계하여 상기 컨텍스트 특징을 획득한다.
본 출원의 일부 실시예에서, 상기 생성 모듈(603)은 또한,
상기 복수의 컨텍스트 정보 간의 교차 특징을 결정하고, 상기 교차 특징을 상기 컨텍스트 특징으로 사용한다.
설명할 필요가 있는 것은, 상기 다중 라운드 대화 검색 방법에 대한 해석 설명은 본 실시예의 다중 라운드 대화 검색 장치에도 적용되는 바, 여기서는 더 이상 설명하지 않는다.
본 실시예에서, 현재 질문 정보를 획득하고, 현재 질문 정보의 컨텍스트 정보를 획득하며, 현재 질문 정보의 복수의 후보 응답 정보를 획득하고, 컨텍스트 정보에 따라 컨텍스트 특징을 생성하며, 복수의 후보 응답 정보에 따라 복수의 후보 응답 특징을 생성하고, 컨텍스트 특징과 복수의 후보 응답 특징 간의 일치성 정보에 따라 복수의 후보 응답 정보에서 하나의 후보 응답 정보를 선택하여 응답함으로써, 응답 정보와 현재 질문 정보의 매칭 정도를 효과적으로 향상시키고, 다중 라운드 대화의 대화 효과를 향상시킴으로써 사용자의 대화 경험을 향상시킬 수 있다.
본 출원의 실시예에 따르면, 본 출원은 전자기기와 판독가능 저장매체를 더 제공한다.
도 8에 도시된 바와 같이, 이는 본 출원의 실시예에 따른 다중 라운드 대화 검색 방법을 구현하는 전자기기의 블록도이다. 전자기기는 랩톱 컴퓨터, 데스크톱 컴퓨터, 워크 벤치, 개인용 정보 단말기, 서버, 블레이드 서버, 메인 프레임 컴퓨터 및 다른 적합한 컴퓨터 등의 다양한 형태의 디지털 컴퓨터를 가리킨다. 전자기기는 또한 개인 디지털 프로세서, 셀룰러 폰, 스마트 폰, 웨어러블 장치 및 다른 유사한 컴퓨팅 장치와 같은 다양한 형태의 모바일 장치를 나타낼 수 있다. 본 명세서에서 나타낸 부품, 그들의 연결 및 관계, 및 그 기능은 단지 예시에 불과하며, 본 명세서에 기술 및/또는 요구하는 본 출원의 구현을 제한하도록 의도되지 않는다.
도 8에 도시된 바와 같이, 상기 전자기기는 하나 또는 복수의 프로세서(801), 메모리(802), 및 고속 인터페이스 및 저속 인터페이스를 포함하는 각 부품을 연결하기 위한 인터페이스를 포함한다. 각 부품은 상이한 버스를 이용하여 상호 연결되고, 공용 마더보드 상에 장착되거나 또는 필요에 따라 다른 방식으로 장착될 수 있다. 프로세서는 전자기기 내에서 실행되는 명령을 처리할 수 있고, 외부 입력/출력장치(예를 들어, 인터페이스에 결합된 표시장치)에 GUI의 그래픽 정보를 표시하도록, 메모리에 저장된 명령을 포함한다. 다른 실시방식에서, 필요에 따라 복수의 프로세서 및/또는 복수의 버스를 복수의 메모리와 함께 사용할 수 있다. 마찬가지로, 복수의 전자기기를 연결할 수 있고, 각 단말기는 필요한 일부 동작을 제공할 수 있다(예를 들어, 서버 어레이, 한 그룹의 블레이드 서버, 또는 멀티 프로세서 시스템). 도 8에서는 하나의 프로세서(801)를 예로 든다.
메모리(802)는 본 출원에 의해 제공된 비 일시적 컴퓨터 판독 가능 저장 매체이다. 여기서, 적어도 하나의 프로세서에 의해 본 출원에서 제공되는 다중 라운드 대화 검색 방법을 수행하도록, 상기 메모리에는 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장된다. 본 출원의 비 일시적 컴퓨터 판독 가능 저장 매체에는 컴퓨터로 하여금 본 출원에서 제공되는 다중 라운드 대화 검색 방법을 수행하도록 하는 컴퓨터 명령이 저장된다.
메모리(802)는 비 일시적 컴퓨터 판독 가능 저장 매체로서, 비 일시적 소프트웨어 프로그램, 비 일시적 컴퓨터 실행 가능 프로그램 및 모듈을 저장하기 위한 것으로, 이를테면 본 출원의 실시예의 다중 라운드 대화 검색 방법에 대응하는 프로그램 명령/모듈(예를 들어, 도 6에 도시된 제1 획득 모듈(601), 제2 획득 모듈(602), 생성 모듈(603), 계산 모듈(604) 및 응답 모듈(605))을 저장한다. 프로세서(801)는 메모리(802)에 저장된 비 일시적 소프트웨어 프로그램, 명령 및 모듈을 실행하여 서버의 다양한 기능적 애플리케이션 및 데이터 처리를 실행하는 바, 즉, 상기 방법 실시예의 다중 라운드 대화 검색 방법을 구현한다.
메모리(802)는 프로그램 저장영역 및 데이터 저장영역을 포함할 수 있고, 여기서 프로그램 저장영역은 운영 체제 및 적어도 하나의 기능에 필요한 응용 프로그램이 저장될 수 있고; 데이터 저장영역에는 다중 라운드 대화 검색 방법을 구현하는 전자기기를 사용하여 생성된 데이터가 저장될 수 있다. 이밖에, 메모리(802)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 또한 적어도 하나의 자기 디스크 저장 장치, 플래시 메모리 장치 또는 다른 비 일시적 솔리드 스테이트 저장 장치와 같은 비 일시적 메모리를 포함할 수 있다. 일부 실시예에서, 메모리(802)는 프로세서(801)에 대해 원격으로 설정된 메모리를 선택적으로 포함할 수 있고, 이러한 원격 메모리는 네트워크를 통해 상기 전자기기에 연결될 수 있다. 상기 네트워크의 구현예는 인터넷, 인트라넷, 로컬 영역 네트워크, 이동 통신 네트워크 및 이들의 조합을 포함하지만 이에 한정되지는 않는다.
상기 전자기기는 입력장치(803) 및 출력장치(804)를 더 포함할 수 있다. 프로세서(801), 메모리(802), 입력장치(803) 및 출력장치(804)는 버스를 통해 연결되거나 또는 다른 방식으로 연결될 수 있으며, 도 8은 버스를 통한 연결을 예시한 것이다.
입력장치(803)는 입력된 숫자 또는 문자 정보를 수신할 수 있고, 지도 정보 포인트의 표시방법을 수행하는 전자 기기의 사용자 설정 및 기능 제어와 관련된 키 신호 입력을 생성할 수 있는 바, 예를 들어 터치 스크린, 키패드, 마우스, 트랙 패드, 터치 패드, 포인팅 스틱, 하나 또는 복수의 마우스 버튼, 트랙볼, 조이스틱 등 입력장치일 수 있다. 출력장치(804)는 표시장치, 보조 조명 장치(예를 들어, LED), 촉각 피드백 장치(예를 들어, 진동 모터) 등을 포함할 수 있다. 상기 표시장치는 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이 및 플라즈마 디스플레이를 포함할 수 있지만, 이에 한정되지는 않는다. 일부 실시 방식에서, 표시장치는 터치 스크린일 수 있다.
본 출원의 실시예에 따르면, 컴퓨터 판독 가능 저장 매체에 저장되는 컴퓨터 프로그램을 더 제공한다. 당해 컴퓨터 프로그램의 명령이 실행될 경우, 본 출원의 임의의 실시예의 다중 라운드 대화 검색 방법이 수행된다.
본 명세서에 설명된 시스템 및 기술의 다양한 실시 방식은 디지털 전자 회로 시스템, 집적 회로 시스템, 전용 ASIC(특정 용도 지향 집적 회로), 컴퓨터 하드웨어, 펌웨어, 소프트웨어 및/또는 이들의 조합에 의해 구현될 수 있다. 이러한 다양한 실시 방식은 하나 또는 복수의 컴퓨터 프로그램에 의해 실시될 수 있고, 상기 하나 또는 복수의 컴퓨터 프로그램은 적어도 하나의 프로그램 가능 프로세서를 포함하는 프로그램 가능 시스템에 의해 실행 및/또는 해석될 수 있으며, 상기 프로그램 가능 프로세서는 전용 또는 범용 프로그램 가능 프로세서일 수 있고, 저장 시스템, 적어도 하나의 입력장치 및 적어도 하나의 출력장치로부터 데이터 및 명령을 수신하며, 데이터 및 명령을 상기 저장 시스템, 상기 적어도 하나의 입력장치 및 상기 적어도 하나의 출력장치에 전송할 수 있다.
이러한 컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 응용 프로그램 또는 코드라고도 함)에는 프로그램 가능 프로세서의 기계 명령이 포함되고, 고급 프로세스 및/또는 객체 지향 프로그래밍 언어 및/또는 어셈블리/기계어를 사용하여 이러한 컴퓨터 프로그램을 구현할 수 있다. 본 명세서에서 사용되는 용어 "기계 판독 가능 매체" 및 "컴퓨터 판독 가능 매체"는 프로그램 가능 프로세서에 기계 명령 및/또는 데이터를 제공하기 위해 사용되는 임의의 컴퓨터 프로그램 제품, 기기 및/또는 장치(예를 들어, 자기 디스크, 광 디스크, 메모리, 프로그램 가능 논리 장치(PLD))를 지칭하며, 기계 판독 가능 신호로서 기계 명령을 수신하는 기계 판독 가능 매체를 포함한다. 용어 "기계 판독 가능 신호"는 기계 명령 및/또는 데이터를 프로그램 가능 프로세서에 제공하기 위한 임의의 신호를 지칭한다.
사용자와의 인터랙션(Interaction)을 제공하기 위해, 컴퓨터에서 여기에 설명된 시스템 및 기술을 구현할 수 있는 바, 상기 컴퓨터는 사용자에게 정보를 표시하기 위한 디스플레이 장치(예를 들어, CRT(음극선관) 또는 LCD(액정 디스플레이) 모니터); 키보드 및 포인팅 장치(예를 들어, 마우스 또는 트랙볼)를 포함하고, 사용자는 상기 키보드 및 상기 포인팅 장치를 통해 컴퓨터에 입력할 수 있다. 다른 종류의 장치를 사용하여 사용자와의 인터랙션을 제공할 수도 있고; 예를 들어, 사용자에게 제공되는 피드백은 임의의 형태의 감각 피드백(예를 들어, 시각적 피드백, 청각 피드백 또는 촉각 피드백) 일 수 있고, 임의의 형태(음성 입력, 스피치 입력 또는 촉각 입력 포함함)로 사용자로부터의 입력을 수신할 수 있다.
본 명세서에 설명된 시스템 및 기술은 백그라운드 컴포넌트를 포함하는 컴퓨팅 시스템(예를 들어, 데이터 서버) 또는 미들웨어 컴포넌트를 포함하는 컴퓨팅 시스템(예를 들어, 애플리케이션 서버) 또는 프론트 엔드 컴포넌트를 포함하는 컴퓨팅 시스템(예를 들어, 그래픽 사용자 인터페이스 또는 웹 브라우저를 가진 사용자 컴퓨터일 수 있으며, 사용자는 상기 그래픽 사용자 인터페이스 또는 상기 웹 브라우저를 통해 여기에 설명된 시스템 및 기술의 실시방식과 인터랙션할 수 있음), 또는 이러한 백그라운드 컴포넌트, 미들웨어 컴포넌트 또는 프론트 엔드 컴포넌트의 임의의 조합을 포함하는 컴퓨팅 시스템에 의해 구현될 수 있다. 시스템의 컴포넌트는 임의의 형태 또는 매체의 디지털 데이터 통신(예를 들어, 통신 네트워크)에 의해 상호 연결될 수 있다. 통신 네트워크의 예로는 로컬 영역 네트워크(LAN), 광역통신망(WAN), 인터넷이 포함된다.
컴퓨터 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트와 서버는 일반적으로 서로 멀리 떨어져 있으며, 일반적으로 통신 네트워크를 통해 인터랙션한다. 클라이언트와 서버 간의 관계는 상응한 컴퓨터에서 실행되고 서로 클라이언트-서버 관계가 있는 컴퓨터 프로그램에 의해 발생된다.
상기에 도시된 다양한 형태의 과정을 통해 단계를 재정렬, 추가 또는 삭제할 수 있다는 것을 이해해야 한다. 예를 들어, 본 출원에 기재된 각 단계들은 병행, 순차적 또는 상이한 순서로 수행될 수 있으며, 본 출원에 개시된 기술적 해결수단이 원하는 결과를 달성할 수만 있으면, 본 명세서에서는 한정되지 않는다.
상기 구체적인 실시 방식은 본 출원의 보호 범위를 제한하지 않는다. 당업자는 설계 요건 및 다른 요인에 따라 다양한 수정, 조합, 서브 조합 및 대체가 이루어질 수 있다는 것을 이해해야 한다. 본 출원의 사상과 원칙 내에서 이루어진 모든 수정, 동등한 대체 및 개선 등은 모두 본 출원의 청구범위에 포함되어야 한다.

Claims (15)

  1. 현재 질문 정보를 획득하고, 상기 현재 질문 정보의 컨텍스트 정보를 획득하는 단계;
    상기 현재 질문 정보의 복수의 후보 응답 정보를 획득하는 단계;
    상기 컨텍스트 정보에 따라 컨텍스트 특징을 생성하고, 상기 복수의 후보 응답 정보에 따라 복수의 후보 응답 특징을 생성하는 단계;
    상기 컨텍스트 특징과 상기 복수의 후보 응답 특징 간의 일치성 정보를 각각 계산하는 단계; 및
    상기 컨텍스트 특징과 상기 복수의 후보 응답 특징 간의 일치성 정보에 따라 상기 복수의 후보 응답 정보에서 하나의 후보 응답 정보를 선택하여 응답하는 단계; 를 포함하는,
    것을 특징으로 하는 다중 라운드 대화 검색 방법.
  2. 제 1 항에 있어서,
    상기 컨텍스트 특징과 상기 복수의 후보 응답 특징 간의 일치성 정보를 각각 계산하는 단계는,
    상기 컨텍스트 특징과 상기 복수의 후보 응답 특징을 일치성 매칭 모델에 입력하여 상기 컨텍스트 특징과 상기 복수의 후보 응답 특징 간의 일치성 정보를 획득하는 단계; 를 포함하고,
    상기 일치성 매칭 모델은 외부의 대화 지식 베이스를 사용하하여 트레이닝함으로써 획득되는,
    것을 특징으로 하는 다중 라운드 대화 검색 방법.
  3. 제 2 항에 있어서,
    상기 일치성 매칭 모델은,
    대화 지식 베이스를 획득하는 단계;
    샘플 후보 응답 정보에 따라 상기 대화 지식 베이스에서 복수의 샘플 질문 답안 쌍을 선택하는 단계 - 상기 샘플 질문 답안 쌍은 샘플 컨텍스트 정보 및 샘플 응답 정보를 포함함 - ;
    상기 샘플 응답 정보 및 상기 샘플 후보 응답 정보에 따라 목표 일치성 정보를 생성하는 단계;
    상기 샘플 컨텍스트 정보 및 상기 샘플 후보 응답 정보를 상기 일치성 매칭 모델에 입력하여 예측 일치성 정보를 생성하는 단계; 및
    상기 예측 일치성 정보 및 상기 목표 일치성 정보에 따라 상기 일치성 매칭 모델을 트레이닝하는 단계; 를 통해 트레이닝하여 획득되는,
    것을 특징으로 하는 다중 라운드 대화 검색 방법.
  4. 제 1 항에 있어서,
    상기 컨텍스트 정보는 복수이고,
    상기 컨텍스트 정보에 따라 컨텍스트 특징을 생성하는 단계는,
    상기 복수의 컨텍스트 정보를 스티칭하여 컨텍스트 집계 정보를 형성하는 단계; 및
    상기 컨텍스트 집계 정보에 따라 상기 컨텍스트 특징을 생성하는 단계; 를 포함하는,
    것을 특징으로 하는 다중 라운드 대화 검색 방법.
  5. 제 4 항에 있어서,
    상기 컨텍스트 집계 정보에 따라 상기 컨텍스트 특징을 생성하는 단계는,
    상기 각 컨텍스트 정보에 대응하는 코딩 특징 및 가중치를 결정하는 단계; 및
    상기 가중치를 기반으로 복수의 상기 코딩 특징을 집계하여 상기 컨텍스트 특징을 획득하는 단계; 를 포함하는,
    것을 특징으로 하는 다중 라운드 대화 검색 방법.
  6. 제 4 항에 있어서,
    상기 컨텍스트 집계 정보에 따라 상기 컨텍스트 특징을 생성하는 단계는,
    상기 복수의 컨텍스트 정보 간의 교차 특징을 결정하고, 상기 교차 특징을 상기 컨텍스트 특징으로 사용하는 단계를 포함하는,
    것을 특징으로 하는 다중 라운드 대화 검색 방법.
  7. 현재 질문 정보를 획득하고, 상기 현재 질문 정보의 컨텍스트 정보를 획득하기 위한 제1 획득 모듈;
    상기 현재 질문 정보의 복수의 후보 응답 정보를 획득하기 위한 제2 획득 모듈;
    상기 컨텍스트 정보에 따라 컨텍스트 특징을 생성하고, 상기 복수의 후보 응답 정보에 따라 복수의 후보 응답 특징을 생성하기 위한 생성 모듈;
    상기 컨텍스트 특징과 상기 복수의 후보 응답 특징 간의 일치성 정보를 각각 계산하기 위한 계산 모듈; 및
    상기 컨텍스트 특징과 상기 복수의 후보 응답 특징 간의 일치성 정보에 따라 상기 복수의 후보 응답 정보에서 하나의 후보 응답 정보를 선택하여 응답하기 위한 응답 모듈; 을 포함하는,
    것을 특징으로 하는 다중 라운드 대화 검색 장치.
  8. 제 7 항에 있어서,
    상기 계산 모듈은,
    상기 컨텍스트 특징과 상기 복수의 후보 응답 특징을 일치성 매칭 모델에 입력하여 상기 컨텍스트 특징과 상기 복수의 후보 응답 특징 간의 일치성 정보를 획득하도록 하고;
    상기 일치성 매칭 모델은 외부의 대화 지식 베이스를 사용하여 트레이닝함으로써 획득되는,
    것을 특징으로 하는 다중 라운드 대화 검색 장치.
  9. 제 8 항에 있어서,
    대화 지식 베이스를 획득하고, 샘플 후보 응답 정보에 따라 상기 대화 지식 베이스에서 복수의 샘플 질문 답안 쌍을 선택하되, 상기 샘플 질문 답안 쌍은 샘플 컨텍스트 정보 및 샘플 응답 정보를 포함하고, 상기 샘플 응답 정보 및 상기 샘플 후보 응답 정보에 따라 목표 일치성 정보를 생성하며, 상기 샘플 컨텍스트 정보 및 상기 샘플 후보 응답 정보를 상기 일치성 매칭 모델에 입력하여 예측 일치성 정보를 생성하고, 상기 예측 일치성 정보 및 상기 목표 일치성 정보에 따라 상기 일치성 매칭 모델을 트레이닝하기 위한 트레이닝 모듈;을 더 포함하는,
    것을 특징으로 하는 다중 라운드 대화 검색 장치.
  10. 제 7 항에 있어서,
    상기 컨텍스트 정보는 복수이고,
    상기 생성 모듈은,
    상기 복수의 컨텍스트 정보를 스티칭하여 컨텍스트 집계 정보를 형성하고;
    상기 컨텍스트 집계 정보에 따라 상기 컨텍스트 특징을 생성하는,
    것을 특징으로 하는 다중 라운드 대화 검색 장치.
  11. 제 10 항에 있어서,
    상기 생성 모듈은 또한,
    상기 각 컨텍스트 정보에 대응하는 코딩 특징 및 가중치를 결정하고;
    상기 가중치를 기반으로 복수의 상기 코딩 특징을 집계하여 상기 컨텍스트 특징을 획득하는,
    것을 특징으로 하는 다중 라운드 대화 검색 장치.
  12. 제 10 항에 있어서,
    상기 생성 모듈은 또한,
    상기 복수의 컨텍스트 정보 간의 교차 특징을 결정하고, 상기 교차 특징을 상기 컨텍스트 특징으로 사용하는,
    것을 특징으로 하는 다중 라운드 대화 검색 장치.
  13. 전자기기에 있어서,
    적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 연결되는 메모리; 를 포함하고,
    상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되고, 상기 명령이 상기 적어도 하나의 프로세서에 의해 실행될 경우, 상기 적어도 하나의 프로세서가 제 1항 내지 제 6항 중 어느 한 항의 다중 라운드 대화 검색 방법이 수행되는,
    것을 특징으로 하는 전자기기.
  14. 컴퓨터 프로그램이 저장되는 비 일시적 컴퓨터 판독가능 저장매체에 있어서,
    상기 컴퓨터 프로그램의 명령이 실행될 경우, 제 1항 내지 제 6항 중 어느 한 항의 다중 라운드 대화 검색 방법이 수행되는,
    것을 특징으로 하는 컴퓨터 프로그램이 저장되는 비 일시적 컴퓨터 판독가능 저장매체.
  15. 컴퓨터 판독 가능 저장 매체에 저장되는 컴퓨터 프로그램에 있어서,
    상기 컴퓨터 프로그램의 명령이 실행될 경우, 제 1항 내지 제 6항 중 어느 한 항의 다중 라운드 대화 검색 방법이 수행되는,
    것을 특징으로 하는 컴퓨터 판독 가능 저장 매체에 저장되는 컴퓨터 프로그램.
KR1020210082458A 2020-06-29 2021-06-24 다중 라운드 대화 검색 방법, 장치, 저장매체 및 전자기기 KR20210088463A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010605457.0A CN111966782B (zh) 2020-06-29 2020-06-29 多轮对话的检索方法、装置、存储介质及电子设备
CN202010605457.0 2020-06-29

Publications (1)

Publication Number Publication Date
KR20210088463A true KR20210088463A (ko) 2021-07-14

Family

ID=73360980

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210082458A KR20210088463A (ko) 2020-06-29 2021-06-24 다중 라운드 대화 검색 방법, 장치, 저장매체 및 전자기기

Country Status (5)

Country Link
US (1) US11947578B2 (ko)
EP (1) EP3862891A3 (ko)
JP (1) JP2021108178A (ko)
KR (1) KR20210088463A (ko)
CN (1) CN111966782B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116737888A (zh) * 2023-01-11 2023-09-12 北京百度网讯科技有限公司 对话生成模型的训练方法和答复文本的确定方法、装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113312521B (zh) * 2021-06-15 2023-08-01 北京百度网讯科技有限公司 内容检索方法、装置、电子设备和介质
CN115757749B (zh) * 2023-01-05 2023-05-16 北京红棉小冰科技有限公司 一种对话处理方法、装置、电子设备及存储介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8275803B2 (en) * 2008-05-14 2012-09-25 International Business Machines Corporation System and method for providing answers to questions
US8935277B2 (en) * 2012-03-30 2015-01-13 Sap Se Context-aware question answering system
US10902342B2 (en) * 2016-09-16 2021-01-26 International Business Machines Corporation System and method for scoring the geographic relevance of answers in a deep question answering system based on geographic context of an input question
CN108038209A (zh) * 2017-12-18 2018-05-15 深圳前海微众银行股份有限公司 答案选择方法、装置和计算机可读存储介质
CN108280218A (zh) * 2018-02-07 2018-07-13 逸途(北京)科技有限公司 一种基于检索和生产混合问答的流程系统
WO2019172868A1 (en) * 2018-03-05 2019-09-12 Clinc, Inc. Systems and method for automatically configuring machine learning models
CN109271496B (zh) * 2018-08-30 2021-12-24 广东工业大学 一种基于文本、知识库及序列到序列的自然问答方法
CN109597876B (zh) * 2018-11-07 2023-04-11 中山大学 一种基于强化学习的多轮对话答复选择模型及其方法
US11194973B1 (en) * 2018-11-12 2021-12-07 Amazon Technologies, Inc. Dialog response generation
EP3885937A4 (en) 2018-11-22 2022-01-19 Sony Group Corporation RESPONSE GENERATION DEVICE, RESPONSE GENERATION METHOD AND RESPONSE GENERATION PROGRAM
US10664527B1 (en) * 2019-01-18 2020-05-26 PolyAI Limited Response retrieval system and method
CN110096567B (zh) * 2019-03-14 2020-12-25 中国科学院自动化研究所 基于qa知识库推理的多轮对话回复选择方法、系统
CN110309283B (zh) * 2019-06-28 2023-03-21 创新先进技术有限公司 一种智能问答的答案确定方法及装置
CN111046132B (zh) * 2019-10-25 2023-06-16 众安信息技术服务有限公司 一种检索多轮对话的客服问答处理方法及其系统
CN110837548B (zh) * 2019-11-05 2022-11-11 泰康保险集团股份有限公司 答案匹配方法、装置、电子设备及存储介质
WO2021128044A1 (zh) * 2019-12-25 2021-07-01 深圳市优必选科技股份有限公司 一种基于上下文的多轮对话方法、装置、设备及存储介质
CN111177355B (zh) * 2019-12-30 2021-05-28 北京百度网讯科技有限公司 基于搜索数据的人机对话交互方法、装置和电子设备
CN111291172B (zh) * 2020-03-05 2023-08-04 支付宝(杭州)信息技术有限公司 用于处理文本的方法和装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116737888A (zh) * 2023-01-11 2023-09-12 北京百度网讯科技有限公司 对话生成模型的训练方法和答复文本的确定方法、装置
CN116737888B (zh) * 2023-01-11 2024-05-17 北京百度网讯科技有限公司 对话生成模型的训练方法和答复文本的确定方法、装置

Also Published As

Publication number Publication date
JP2021108178A (ja) 2021-07-29
US20210311979A1 (en) 2021-10-07
CN111966782B (zh) 2023-12-12
CN111966782A (zh) 2020-11-20
EP3862891A3 (en) 2021-12-29
EP3862891A2 (en) 2021-08-11
US11947578B2 (en) 2024-04-02

Similar Documents

Publication Publication Date Title
US20210342549A1 (en) Method for training semantic analysis model, electronic device and storage medium
US20220004714A1 (en) Event extraction method and apparatus, and storage medium
WO2021249528A1 (zh) 智能对话方法、装置和电子设备
CN108932342A (zh) 一种语义匹配的方法、模型的学习方法及服务器
KR20210088463A (ko) 다중 라운드 대화 검색 방법, 장치, 저장매체 및 전자기기
KR102431568B1 (ko) 엔티티 단어 인식 방법 및 장치
US20210248471A1 (en) Method and apparatus for creating dialogue, and storage medium
JP7309798B2 (ja) 対話意図の認識方法及び装置、電子機器並びに記憶媒体
CN111428514A (zh) 语义匹配方法、装置、设备以及存储介质
CN110990555B (zh) 端到端检索式对话方法与系统及计算机设备
US20230089268A1 (en) Semantic understanding method, electronic device, and storage medium
US20220358292A1 (en) Method and apparatus for recognizing entity, electronic device and storage medium
CN113553412B (zh) 问答处理方法、装置、电子设备和存储介质
JP7295200B2 (ja) 汎化処理方法、装置、デバイス、コンピュータ記憶媒体及びプログラム
CN112528001B (zh) 一种信息查询方法、装置及电子设备
JP2021111334A (ja) 検索データに基づくヒューマンコンピュータ対話型インタラクションの方法、装置及び電子機器
US20220129448A1 (en) Intelligent dialogue method and apparatus, and storage medium
CN113204611A (zh) 建立阅读理解模型的方法、阅读理解方法及对应装置
US20230094730A1 (en) Model training method and method for human-machine interaction
Stoyanchev et al. Action state update approach to dialogue management
US20220215180A1 (en) Method for generating dialogue, electronic device, and storage medium
CN114860913A (zh) 智能问答系统构建方法、问答处理方法及装置
CN110059164B (zh) 用于呈现对话系统的用户界面的方法和系统
US20230070966A1 (en) Method for processing question, electronic device and storage medium
CN113204679B (zh) 一种代码查询模型的生成方法和计算机设备