KR20210086436A - 질의 응답 처리 방법, 장치, 전자 기기 및 저장 매체 - Google Patents

질의 응답 처리 방법, 장치, 전자 기기 및 저장 매체 Download PDF

Info

Publication number
KR20210086436A
KR20210086436A KR1020200090951A KR20200090951A KR20210086436A KR 20210086436 A KR20210086436 A KR 20210086436A KR 1020200090951 A KR1020200090951 A KR 1020200090951A KR 20200090951 A KR20200090951 A KR 20200090951A KR 20210086436 A KR20210086436 A KR 20210086436A
Authority
KR
South Korea
Prior art keywords
answer
semantic
vector
sample
query
Prior art date
Application number
KR1020200090951A
Other languages
English (en)
Other versions
KR102431232B1 (ko
Inventor
위천 딩
카이 리우
징 리우
양 천
Original Assignee
베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. filed Critical 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Publication of KR20210086436A publication Critical patent/KR20210086436A/ko
Application granted granted Critical
Publication of KR102431232B1 publication Critical patent/KR102431232B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3334Selection or weighting of terms from queries, including natural language queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/258Heading extraction; Automatic titling; Numbering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 출원은 질의 응답 처리 방법, 장치, 전자 기기 및 저장 매체를 개시하고, 자연어 처리 기술 분야에 관한 것이다. 구체적인 구현 방안은, 답변할 질의의 답안을 결정하는 과정에서, 제1 질의 의미 표시 모델과 제2 의미 표시 모델을 결합하여 답변할 질의를 각각 의미 표시하고, 각각 획득되는 의미 표시 벡터 결과를 접합 처리하고, 접합된 의미 벡터를 답변할 질의의 의미 표시 벡터로 하며, 답안 벡터 인덱스 데이터베이스로부터 답변할 질의의 의미 표시 벡터에 매칭되는 답안 의미 벡터를 획득하고, 답안 의미 벡터에 대응되는 답안을 답변할 질의의 목표 답안으로 한다. 이로써, 답안 신뢰도를 계산할 필요가 없게 되고 질의에 대응되는 답안을 획득하는 효율이 향상되며, 또한, 후보 답안 자체 및 후보 답안이 있는 글의 글 제목과 주어진 질의의 연관성에 따라 주어진 질의에 매칭되는 맞는 답안이 결정되고 질의 응답 매칭 정확률이 향상된다.

Description

질의 응답 처리 방법, 장치, 전자 기기 및 저장 매체{METHOD AND APPARATUS FOR PROCESSING QUESTIONS AND ANSWERS, ELECTRONIC DEVICE AND STORAGE MEDIUM}
본 출원은 컴퓨터 기술 분야에 관한 것으로, 구체적으로 자연어 처리 기술 분야에 관한 것이고, 특히 질의 응답 처리 방법, 장치, 전자 기기 및 저장 매체에 관한 것이다.
질의 응답 기능은, 현재 각 종류의 정보 검색 시스템 개발자가 사용자한테 제공하고자 노력하는 일종의 고급 기능이다. 사용자가 제기한 질의를 인공으로 답변하기에는 필요한 인력 비용이 높으므로 인력 비용을 절약하고자 사용자가 제기한 질의를 지능적으로 자동으로 답변하는 것이 이미 본 분야에서 시급히 해결하여야 할 기술 문제로 되어 있다.
관련 기술에서는, 통상적으로, 질의에 대응되는 답안을 자동으로 제시하는 방식이 2가지가 있는데, 첫 번째 방식은 검색한 질의에 따라 시스템이 우선 사용자한테 질의에 대응되는 답안을 반환하는 것으로, 여기서, 첫 번째 방식이 질의에 대응되는 답안을 자동으로 제시하는 일반적인 과정은, 입력되는 질의에 대하여, 우선 정보 검색 방법(예를 들면 검색 엔진 기술)을 통해 막대한 수량의 텍스트에서 일정량의 후보 텍스트를 찾아내고, 다음, 의미 매칭, 특징 추출 등 다양한 방법으로 모든 후보 텍스트의 답안 특징을 계산하고, 나아가 텍스트가 맞는 답안인 신뢰도를 계산하고, 신뢰도가 가장 높은 텍스트를 답안으로 한다. 두 번째 방식은 질의 응답 데이터베이스에 기초하여 사용자한테 질의에 대응되는 답안을 반환하는 것으로, 일반적인 과정은, 사용자가 제기한 질의 q에 대하여 데이터베이스 내의 모든 <질의-답변> 그룹을 순회하여, 질의에 대한 q의 매칭 신뢰도 및 답변에 대한 q의 매칭 신뢰도를 각각 계산하고, 신뢰도가 모두 소정 역치보다 큰 답변을 당해 질의의 답안으로 선택한다.
그러나, 본 출원을 구현하는 과정에서 발명자가 발견한 바는, 검색 기반의 질의 응답 시스템을 최적화하는 경우, 질의 응답 시스템 내의 2개 단계의 모델을 각각 최적화하여야 하는데, 이는 작업량이 클 뿐만 아니라, 서로 다른 단계의 모델 목표 불일치로 인한 효과 손실이 존재하며, 질의 응답 데이터베이스에 기반하는 질의 응답 시스템은 선택한 기술안이 다르므로 답안 커버율이 높지 않거나 또는 답안의 정확률 및 성능이 부족한 문제가 존재하고, 또한, 질의에 대응되는 답안을 획득하는 데 필요한 시간이 길다. 때문에 질의에 대응되는 답안을 정확하고 빠르게 제공하는 것은 현재 시급히 해결하여야 할 기술 문제이다.
본 출원은 질의 응답 처리 방법, 장치, 전자 기기 및 저장 매체를 제공하는바, 질의 응답 매칭 과정에서, 답안 신뢰도를 계산할 필요가 없게 되고 질의에 대응되는 답안을 획득하는 효율이 향상되며, 또한, 본 실시에서 후보 답안에 대응되는 의미 표시 벡터는 후보 답안 자체의 의미 표시 벡터와 후보 답안이 있는 글의 글 제목 의미 벡터를 결합하여 결정되는바, 이로써, 후보 답안 자체 및 후보 답안이 있는 글의 글 제목과 주어진 질의의 연관성에 따라 주어진 질의에 매칭되는 맞는 답안이 결정되고 질의 응답 매칭 정확률이 향상된다.
본 출원의 제1 측면의 실시예는 질의 응답 처리 방법을 제공하는바, 당해 방법은, 답변할 질의를 획득하는 단계; 상기 답변할 질의를 제1 질의 의미 표시 모델과 제2 질의 의미 표시 모델에 각각 입력하여 상기 답변할 질의의 제1 의미 표시 벡터와 제2 의미 표시 벡터를 획득하는 단계 - 상기 제1 질의 의미 표시 모델은 질의 샘플 및 상기 질의 샘플에 대응되는 답안 샘플에 따라 트레이닝되어 획득되고 상기 제2 질의 의미 표시 모델은 상기 질의 샘플과 상기 답안 샘플에 대응되는 글 제목에 따라 트레이닝되어 획득됨 - ; 상기 제1 의미 표시 벡터와 상기 제2 의미 표시 벡터에 따라 접합 처리하여 상기 답변할 질의의 목표 의미 표시 벡터를 획득하는 단계; 상기 답변할 질의의 목표 의미 표시 벡터를 미리 구축된 답안 벡터 인덱스 데이터베이스 내의 각 답안 의미 표시 벡터에 매칭시키는 단계 - 상기 답안 벡터 인덱스 데이터베이스는 답안 샘플 풀 내의 모든 후보 답안을 의미 표시 벡터로 변환시킴으로써 구축되는 것이고 상기 후보 답안에 대응되는 답안 의미 표시 벡터는 상기 후보 답안 자체의 의미 표시 벡터와 상기 후보 답안에 대응되는 글 제목의 제목 의미 표시 벡터에 따라 획득되는 것임 - ;및 매칭된 답안 의미 표시 벡터에 따라 대응되는 목표 답안을 획득하고 상기 목표 답안을 출력하는 단계; 를 포함한다.
본 출원의 일 실시예에서, 상기 후보 답안 자체의 의미 표시 벡터는 답안 의미 표시 모델을 통해 상기 후보 답안을 의미 벡터화 표시하여 획득되고, 상기 제목 의미 표시 벡터는 제목 의미 표시 모델을 통해 상기 후보 답안에 대응되는 글 제목을 의미 벡터화 표시하여 획득되고, 상기 제1 질의 의미 표시 모델은 상기 질의 샘플 및 상기 질의 샘플에 대응되는 답안 샘플에 따라 트레이닝되어 획득되고, 상기 제목 의미 표시 모델은 상기 질의 샘플과 상기 답안 샘플에 대응되는 글 제목에 따라 트레이닝되어 획득된다.
본 출원의 일 실시예에서, 상기 답안 샘플은 틀린 답안 샘플과 맞는 답안 샘플을 포함하고, 상기 제1 질의 의미 표시 모델과 상기 답안 의미 표시 모델은 하기의, 초기의 제1 의미 표시 모델에 따라 상기 질의 샘플을 의미 벡터화 표시하여 상기 질의 샘플의 의미 표시 벡터를 획득하는 단계; 초기의 제2 의미 표시 모델에 따라 상기 틀린 답안 샘플과 상기 맞는 답안 샘플을 각각 의미 벡터화 표시하여 상기 틀린 답안 샘플의 의미 표시 벡터와 상기 맞는 답안 샘플의 의미 표시 벡터를 획득하는 단계; 상기 질의 샘플의 의미 표시 벡터와 상기 틀린 답안 샘플의 의미 표시 벡터에 따라 상기 질의 샘플과 상기 틀린 답안 샘플의 제1 벡터 유사도를 결정하는 단계; 상기 질의 샘플의 의미 표시 벡터와 상기 맞는 답안 샘플의 의미 표시 벡터에 따라 상기 질의 샘플과 상기 맞는 답안 샘플의 제2 벡터 유사도를 결정하는 단계; 상기 제1 벡터 유사도와 상기 제2 벡터 유사도에 따라 상기 제1 벡터 유사도와 상기 제2 벡터 유사도가 제1 미리 설정된 조건을 충족할 때까지 상기 초기의 제1 의미 표시 모델과 상기 제2 의미 표시 모델의 모델 파라미터를 조정하는 단계; 및 제1 미리 설정된 조건이 충족되는 경우에 획득되는 제1 의미 표시 모델을 상기 답안 의미 표시 모델로 하고 제1 미리 설정된 조건이 충족되는 경우에 획득되는 제2 의미 표시 모델을 상기 제1 질의 의미 표시 모델로 하는 단계; 의 트레이닝을 통해 획득된다.
본 출원의 일 실시예에서, 상기 답안 샘플은 틀린 답안 샘플과 맞는 답안 샘플을 포함하고, 상기 제목 의미 표시 모델과 제2 질의 의미 표시 모델은 하기의, 초기의 제3 의미 표시 모델에 따라 상기 틀린 답안 샘플에 대응되는 글 제목과 상기 맞는 답안 샘플에 대응되는 글 제목을 각각 의미 벡터화 표시하여 상기 틀린 답안 샘플에 대응되는 글 제목의 제1 제목 의미 벡터와 상기 맞는 답안 샘플에 대응되는 글 제목의 제2 제목 의미 벡터를 획득하는 단계; 초기의 제4 의미 표시 모델에 따라 상기 질의 샘플을 의미 벡터화 표시하여 상기 질의 샘플의 의미 표시 벡터를 획득하는 단계; 상기 질의 샘플의 의미 표시 벡터와 상기 제1 제목 의미 표시 벡터에 따라 상기 질의 샘플과 상기 틀린 답안 샘플에 대응되는 글 제목의 제3 벡터 유사도를 결정하는 단계; 상기 질의 샘플의 의미 표시 벡터와 상기 제2 제목 의미 표시 벡터에 따라 상기 질의 샘플과 상기 맞는 답안 샘플에 대응되는 글 제목의 제4 벡터 유사도를 결정하는 단계; 상기 제3 벡터 유사도와 상기 제4 벡터 유사도에 따라 상기 제3 벡터 유사도와 상기 제4 벡터 유사도가 제2 미리 설정된 조건을 충족할 때까지 상기 초기의 제3 의미 표시 모델과 제4 의미 표시 모델의 모델 파라미터를 조정하는 단계; 및 제2 미리 설정된 조건이 충족되는 경우에 획득되는 제3 의미 표시 모델을 상기 제목 의미 표시 모델로 하고, 제2 미리 설정된 조건이 충족되는 경우에 획득되는 제3 의미 표시 모델을 상기 제2 질의 의미 표시 모델로 하는 단계; 의 트레이닝을 통해 획득된다.
본 출원의 일 실시예에서, 상기 제1 의미 표시 모델, 상기 제2 의미 표시 모델, 상기 제3 의미 표시 모델 및 상기 제4 의미 표시 모델은 모두 사전 트레이닝 의미 표시 모델이고, 상기 사전 트레이닝 의미 표시 모델은 비지도 데이터 트레이닝을 이용하여 획득된다.
본 출원의 일 실시예에서, 상기 후보 답안 자체의 의미 표시 벡터와 상기 후보 답안에 대응되는 글 제목의 제목 의미 표시 벡터에 따라 상기 후보 답안에 대응되는 답안 의미 표시 벡터를 획득하는 단계는, 상기 후보 답안 자체의 의미 표시 벡터에 미리 설정된 제1 가중을 곱하여 새로운 의미 표시 벡터를 획득하는 단계; 상기 제목 의미 표시 벡터에 미리 설정된 제2 가중을 곱하여 새로운 제목 의미 표시 벡터를 획득하는 단계; 및 상기 새로운 의미 표시 벡터와 상기 새로운 제목 의미 표시 벡터를 접합하고 접합으로 획득된 의미 표시 벡터를 상기 후보 답안에 대응되는 답안 의미 표시 벡터로 하는 단계; 를 포함하고, 상기 상기 제1 의미 표시 벡터와 상기 제2 의미 표시 벡터에 따라 접합 처리하여 상기 답변할 질의의 목표 의미 표시 벡터를 획득하는 단계는, 상기 제1 의미 표시 벡터에 상기 제1 가중을 곱하여 상기 답변할 질의의 제1 중간 의미 표시 벡터를 획득하는 단계; 상기 제2 의미 표시 벡터에 상기 제2 가중을 곱하여 상기 답변할 질의의 제2 중간 의미 표시 벡터를 획득하는 단계; 및 상기 제1 중간 의미 표시 벡터와 상기 제2 중간 의미 표시 벡터를 접합 처리하여 상기 답변할 질의의 목표 의미 표시 벡터를 획득하는 단계; 를 포함한다.
본 출원의 실시예의 질의 응답 처리 방법은, 답변할 질의의 답안을 결정하는 과정에서, 제1 질의 의미 표시 모델과 제2 의미 표시 모델을 결합하여 답변할 질의를 각각 의미 표시하고, 각각 획득되는 의미 표시 벡터 결과를 접합 처리하고, 접합된 의미 벡터를 답변할 질의의 의미 표시 벡터로 하고, 답안 벡터 인덱스 데이터베이스로부터 답변할 질의의 의미 표시 벡터에 매칭되는 답안 의미 벡터를 획득하고, 매칭된 답안 의미 벡터에 대응되는 목표 답안을 답변할 질의의 목표 답안으로 하고 목표 답안을 출력한다. 이로써, 질의 응답 매칭 과정에서, 답안 신뢰도를 계산할 필요가 없게 되고 질의에 대응되는 답안을 획득하는 효율이 향상되며, 또한, 본 실시에서 후보 답안에 대응되는 의미 표시 벡터는 후보 답안 자체의 의미 표시 벡터와 후보 답안이 있는 글의 글 제목 의미 벡터를 결합하여 결정되는바, 이로써, 후보 답안 자체 및 후보 답안이 있는 글의 글 제목과 주어진 질의의 연관성에 따라 주어진 질의에 매칭되는 맞는 답안이 결정되고 질의 응답 매칭 정확률이 향상된다.
본 출원의 제2 측면의 실시예는 질의 응답 처리 장치를 제공하는바, 이는, 답변할 질의를 획득하는 획득 모듈; 상기 답변할 질의를 제1 질의 의미 표시 모델과 제2 질의 의미 표시 모델에 각각 입력하여 상기 답변할 질의의 제1 의미 표시 벡터와 제2 의미 표시 벡터를 획득하는 의미 표시 모듈 - 상기 제1 질의 의미 표시 모델은 질의 샘플 및 상기 질의 샘플에 대응되는 답안 샘플에 따라 트레이닝되어 획득되고 상기 제2 질의 의미 표시 모델은 상기 질의 샘플과 상기 답안 샘플에 대응되는 글 제목에 따라 트레이닝되어 획득됨 - ; 상기 제1 의미 표시 벡터와 상기 제2 의미 표시 벡터에 따라 접합 처리하여 상기 답변할 질의의 목표 의미 표시 벡터를 획득하는 접합 모듈; 상기 답변할 질의의 목표 의미 표시 벡터를 미리 구축된 답안 벡터 인덱스 데이터베이스 내의 각 답안 의미 표시 벡터에 매칭시키는 매칭 모듈 - 상기 답안 벡터 인덱스 데이터베이스는 답안 샘플 풀 내의 모든 후보 답안을 의미 표시 벡터로 변환시킴으로써 구축되는 것이고, 상기 후보 답안에 대응되는 답안 의미 표시 벡터는 상기 후보 답안 자체의 의미 표시 벡터와 상기 후보 답안에 대응되는 글 제목의 제목 의미 표시 벡터에 따라 획득되는 것임 - ;및 매칭된 답안 의미 표시 벡터에 따라 대응되는 목표 답안을 획득하고 상기 목표 답안을 출력하는 답안 획득 모듈; 을 포함한다.
본 출원의 실시예의 질의 응답 처리 장치는, 답변할 질의의 답안을 결정하는 과정에서, 제1 질의 의미 표시 모델과 제2 의미 표시 모델을 결합하여 답변할 질의를 각각 의미 표시하고, 각각 획득되는 의미 표시 벡터 결과를 접합 처리하고, 접합된 의미 벡터를 답변할 질의의 의미 표시 벡터로 하고, 답안 벡터 인덱스 데이터베이스로부터 답변할 질의의 의미 표시 벡터에 매칭되는 답안 의미 벡터를 획득하고, 매칭된 답안 의미 벡터에 대응되는 목표 답안을 답변할 질의의 목표 답안으로 하고 목표 답안을 출력한다. 이로써, 질의 응답 매칭 과정에서, 답안 신뢰도를 계산할 필요가 없게 되고 질의에 대응되는 답안을 획득하는 효율이 향상되며, 또한, 본 실시에서 후보 답안에 대응되는 의미 표시 벡터는 후보 답안 자체의 의미 표시 벡터와 후보 답안이 있는 글의 글 제목 의미 벡터를 결합하여 결정되는바, 이로써, 후보 답안 자체 및 후보 답안이 있는 글의 글 제목과 주어진 질의의 연관성에 따라 주어진 질의에 매칭되는 맞는 답안이 결정되고 질의 응답 매칭 정확률이 향상된다.
본 출원의 제3 측면의 실시예는 전자 기기를 제공하는바, 이는, 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서에 통신되도록 연결되는 메모리; 를 포함하고, 상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되고, 상기 명령이 상기 적어도 하나의 프로세서에 의해 실행될경우, 상기 적어도 하나의 프로세서가 본 출원의 실시예의 질의 응답 처리 방법을 실행한다.
본 출원의 제4 측면의 실시예는 컴퓨터 명령이 저장되어 있는 비일시적 컴퓨터 판독 가능 저장 매체를 제공하는바, 상기 컴퓨터 명령이 실행될 경우, 본 출원의 실시예에 의해 공개되는 질의 응답 처리 방법이 실행된다.
제5 측면의 실시예는 컴퓨터 판독 가능 매체에 저장되어 있는 컴퓨터 프로그램을 더 제공하는바, 상기 컴퓨터 프로그램중의 명령이 실행될 경우, 본 출원의 실시예에 의해 공개되는 질의 응답 처리 방법이 실행된다.
상술한 출원의 일 실시예는 하기의 이점 또는 유익한 효과를 가진다. 질의 응답 매칭 과정에서, 답안 신뢰도를 계산할 필요가 없게 되고 질의에 대응되는 답안을 획득하는 효율이 향상되며, 또한, 후보 답안 자체 및 후보 답안이 있는 글의 글 제목과 주어진 질의의 연관성에 따라 주어진 질의에 매칭되는 맞는 답안이 결정되고 질의 응답 매칭 정확률이 향상된다. 후보 답안의 답안 의미 표시 벡터를 답안 벡터 인덱스 데이터베이스에 미리 저장함으로써 온라인 과정에서 답안을 의미 벡터화 표시하는 계산량을 줄이고 후보 답안 자체 및 후보 답안이 있는 글의 글 제목과 주어진 질의의 연관성에 따라 주어진 질의에 매칭되는 맞는 답안을 결정하는 기술 수단을 적용함으로써, 관련 기술에서 질의 응답 매칭 효율이 높지 않고 정확도가 높지 않은 기술 문제가 극복되고, 질의에 대응되는 답안을 획득하는 효율이 향상되며 질의 응답 매칭 정확률이 향상되는 기술 효과가 달성된다.
상술한 선택적인 방식이 가지는 기타의 효과는 아래 구체적인 실시예를 결부하여 설명하고자 한다.
첨부도면은 본 방안을 더욱 잘 이해하기 위한 것으로, 본 출원을 한정하지 않는다.
도1은 본 출원의 제1 실시예에 따른 개략도이다.
도2는 질의 응답 매칭의 개략적인 흐름도이다.
도3은 본 출원의 제2 실시예에 따른 개략도이다.
도4는 본 출원의 제3 실시예에 따른 개략도이다.
도5는 본 출원의 제4 실시예에 따른 개략도이다.
도6은 본 출원의 제5 실시예에 따른 개략도이다.
도7은 본 출원의 실시예를 구현하는 전자 기기의 블록도이다.
아래, 첨부 도면을 결부하여 본 출원의 시범적인 실시예에 대해 설명하고자 하는바, 여기에는 이해를 돕기 위해 본 출원의 실시예의 다양한 디테일이 포함되는데, 이러한 것을 단지 시범적인 것으로 간주하여야 한다. 따라서 당업자라면 여기서 설명하는 실시예에 대한 다양한 변경과 수정은 실행 가능한 것으로, 이는 본 출원의 범위와 사상을 벗어나지 않는 것임을 알 수 가 있다. 마찬가지로, 명백하고 간단명료하게 하고자 아래의 설명에서는 공지된 기능과 구조에 대한 설명을 생략하기로 한다.
아래, 첨부 도면을 참조하여 본 출원의 실시예의 질의 응답 처리 방법, 장치, 전자 기기 및 저장 매체를 설명하고자 한다.
도1은 본 출원의 제1 실시예에 따른 개략도이다. 부연하면, 본 실시예의 질의 응답 처리 방법을 수행하는 주체는 질의 응답 처리 장치이고, 당해 장치는 소프트웨어 및/또는 하드웨어의 방식으로 구현될 수 있고, 당해 장치는 전자 기기에 구성될 수 있고, 전자 기기는 단말 기기, 서버 등을 포함할 수 있으나 이에 한정되지 않고, 당해 실시예는 이에 대해 구체적으로 한정하지 않으며, 본 실시예에서는 질의 응답 처리 장치가 질의 응답 시스템에 구성되는 경우, 질의 응답 시스템이 서버에 설치되는 경우를 예를 들어 설명한다.
도1에 도시한 바와 같이, 당해 질의 응답 처리 방법은 하기 단계를 포함할 수 있다.
단계101, 답변할 질의를 획득한다.
구체적으로, 사용자가 질의 응답 시스템에 현재 입력한 질의를 답변할 질의로 할 수 있다.
본 실시예에서는, 사용자가 개인 맞춤형으로 질의를 입력하는 데 편의를 제공하고자, 본 실시예의 질의 응답 시스템은 입력 인터페이스를 제공하여 사용자가 수요에 따라 질의를 입력하도록 한다.
여기서, 당해 입력 인터페이스는 텍스트 입력, 음성 입력. 픽처 입력 중의적으로 하나를 지원할 수 있다.
사용자가 음성 형식으로 질의를 입력하는 경우, 사용자가 현재 입력한 음성 정보를 획득하고, 획득된 음성 정보를 음성 인식하고, 음성 인식 결과로 획득되는 텍스트 정보를 답변할 질의로 할 수 있다. 사용자가 픽처(picture) 형식으로 질의를 입력하는 경우, 픽처를 문자 인식하고, 문자 인식 결과를 답변할 질의로 할 수 있다는 것을 이해할 수 있다.
단계102, 답변할 질의를 제1 질의 의미 표시 모델과 제2 질의 의미 표시 모델에 각각 입력하여 답변할 질의의 제1 의미 표시 벡터와 제2 의미 표시 벡터를 획득한다.
여기서, 제1 질의 의미 표시 모델은 질의 샘플 및 질의 샘플에 대응되는 답안 샘플을 결합하여 트레이닝하여 획득되고, 제2 질의 의미 표시 모델은 질의 샘플과 답안 샘플에 대응되는 글 제목을 결합하여 트레이닝하여 획득된다.
부연하면, 트레이닝이 종료될 때, 제1 질의 의미 표시 모델은 질의 샘플의 의미 표시 벡터를 출력하는데, 질의 샘플의 의미 표시 벡터와 맞는 답안 샘플의 의미 표시 벡터의 벡터 유사도는 미리 설정된 유사도 역치를 초과한다.
부연하면, 트레이닝이 종료될 때, 제2 질의 의미 표시 모델은 질의 샘플의 의미 표시 벡터를 출력하는데, 질의 샘플의 의미 표시 벡터와 맞는 답안 샘플에 대응되는 글 제목의 제목 의미 표시 벡터의 벡터 유사도는 미리 설정된 유사도 역치를 초과한다.
여기서, 맞는 답안 샘플에 대응되는 글 제목의 제목 의미 표시 벡터는 미리 설정된 제목 의미 표시 모델을 통해 획득될 수도 있고 기타의 종래의 일부 방식으로 획득될 수도 있는바, 본 실시예는 이에 대해 구체적으로 한정하지 않는다. 본 실시예는 제목 의미 표시 모델을 통해 대응되는 글 제목을 의미 벡터화 표시하여 대응되는 글 제목의 제목 의미 표시 벡터를 획득한다.
부연하면, 질의 샘플 및 답안 샘플에 대응되는 글 제목을 결합하여 제2 질의 의미 표시 모델과 제목 의미 표시 모델을 동시에 트레이닝하여 획득하는 과정은 하기의 실시예에서 설명하고자 하는바, 이에 대한 상세한 설명은 생략하기로 한다.
단계103, 제1 의미 표시 벡터와 제2 의미 표시 벡터에 따라 접합 처리하여 답변할 질의의 목표 의미 표시 벡터를 획득한다.
본 실시예에서, 질의 응답 시스템에서의 질의 응답 매칭 과정에서 제1 의미 표시 벡터와 제2 의미 표시 벡터가 하는 역할은 통상적으로 서로 다르며, 후속으로, 대응되는 답변할 질의의 목표 답안을 정확하게 획득할 수 있도록 하고자, 제1 의미 표시 벡터와 제2 의미 표시 벡터에 따라 접합 처리하여 답변할 질의의 목표 의미 표시 벡터를 획득하는 구체적인 구현 방식을 하기와 같을 수 있다. 제1 의미 표시 벡터에 미리 설정된 제1 가중을 곱하여 답변할 질의의 제1 중간 의미 표시 벡터를 획득하고; 제2 의미 표시 벡터에 미리 설정된 제2 가중을 곱하여 답변할 질의의 제2 중간 의미 표시 벡터를 획득하고; 제1 중간 의미 표시 벡터와 제2 중간 의미 표시 벡터를 접합 처리하여 답변할 질의의 목표 의미 표시 벡터를 획득한다.
예를 들면, 답변할 질의가 q이고 제1 의미 표시 모델을 이용하여 결정된 답변할 질의 q의 제1 의미 표시 벡터가 q_rep이고, 제2 의미 표시 모델을 이용하여 결정된 답변할 질의 q의 제2 의미 표시 벡터가 qt_rep인 경우, 가령 제1 가중이 a이고 제2 가중이 b라면, 가중을 결합하여 제1 의미 표시 벡터와 제2 의미 표시 벡터를 접합한 후, 답변할 질의의 목표 의미 표시 벡터는 Q_REP = [a*q_rep, b*qt_rep]이다.
여기서, 제1 가중은 답안 샘플이 질의 응답 매칭 과정에서 하는 역할을 분석하여 결정된 것으로, 다시 말해, 제1 가중은, 질의 응답 샘플이 질의에 대응되는 맞는 답안을 결정하는 데 있어서 하는 역할을 분석하여 결정된다.
여기서, 제2 가중은 글 제목이 질의 응답 매칭 과정에서 하는 역할을 분석하여 결정된 것으로, 다시 말해, 제2 가중은, 글 제목이 질의에 대응되는 맞는 답안을 결정하는 데 있어서 하는 역할을 분석하여 결정된다.
단계104, 답변할 질의의 목표 의미 표시 벡터를 미리 구축된 답안 벡터 인덱스 데이터베이스 내의 각 답안 의미 표시 벡터에 매칭시킨다.
여기서, 답안 벡터 인덱스 데이터베이스는 답안 샘플 풀 내의 모든 후보 답안을 의미 표시 벡터로 변환시킴으로써 구축되는 것이고, 후보 답안에 대응되는 답안 의미 표시 벡터는 후보 답안 자체의 의미 표시 벡터와 후보 답안에 대응되는 글 제목의 제목 의미 표시 벡터에 따라 획득된다.
후보 답안 자체의 의미 표시 벡터 및 대응되는 글 제목의 제목 의미 표시 벡터를 빠르게 결정하고자, 본 출원의 일 실시예에서, 후보 답안 자체의 의미 표시 벡터는 답안 의미 표시 모델을 통해 후보 답안을 의미 벡터화 표시하여 획득될 수 있고, 제목 의미 표시 벡터는 제목 의미 표시 모델을 통해 후보 답안에 대응되는 글 제목을 의미 벡터화 표시하여 획득될 수 있다.
여기서, 제1 질의 의미 표시 모델은 질의 샘플 및 질의 샘플에 대응되는 답안 샘플을 결합하여 트레이닝하여 획득된다.
여기서, 제목 의미 표시 모델은 질의 샘플과 답안 샘플에 대응되는 글 제목을 결합하여 트레이닝하여 획득된다.
부연하면, 질의 샘플 및 질의 샘플에 대응되는 답안 샘플을 결합하여 제1 질의 의미 표시 모델과 제목 의미 표시 모델을 트레이닝하는 구체적인 과정은 하기의 실시예에서 설명하고자 하는바, 이에 대한 상세한 설명은 생략하기로 한다.
본 출원의 일 실시예에서, 후보 답안 자체의 의미 표시 벡터와 글 제목에 대응되는 제목 의미 표시 벡터는 질의에 대응되는 맞는 답안을 결정하는 데 있어서 하는 역할이 서로 다르다는 것을 이해할 수 있고, 후보 답안 자체의 의미 표시 벡터와 후보 답안에 대응되는 글 제목의 제목 의미 표시 벡터에 따라 후보 답안에 대응되는 답안 의미 표시 벡터를 획득하는 구체적인 구현 방식은 하기와 같다. 후보 답안 자체의 의미 표시 벡터에 미리 설정된 제1 가중을 곱하여 새로운 의미 표시 벡터를 획득하고; 제목 의미 표시 벡터에 미리 설정된 제2 가중을 곱하여 새로운 제목 의미 표시 벡터를 획득하고; 새로운 의미 표시 벡터와 새로운 제목 의미 표시 벡터를 접합하고 접합으로 획득된 의미 표시 벡터를 후보 답안에 대응되는 답안 의미 표시 벡터로 한다.
부연하면, 여기서 가중 접합 처리할 때 사용한 대응되는 가중은, 상술한 답변할 질의의 의미 표시 벡터를 가중 접합할 때 사용한 대응되는 가중과 같다. 제1 가중과 제2 가중에 대한 해석은 상술한 실시예에서의 관련 부분을 참조할 수 있는바, 이에 대한 상세한 설명은 생략하기로 한다.
단계105, 매칭된 답안 의미 표시 벡터에 따라 대응되는 목표 답안을 획득하고 목표 답안을 출력한다.
구체적으로, 답변할 질의의 목표 의미 표시 벡터를 미리 구축된 답안 벡터 인덱스 데이터베이스 내의 각 답안 의미 표시 벡터에 매칭시켜 목표 의미 표시 벡터에 가장 근접한 답안 의미 표시 벡터를 획득하고 이에 대응되는 답안을 답변할 질의에 대응되는 맞는 답안으로 하고, 답변할 질의에 대응되는 맞는 답안을 출력할 수 있다.
아래, 도2를 결부하여 본 실시예의 질의 응답 처리 방법을 나아가 더 설명하고자 한다. 부연하면, 도2에서는 답안 의미 표시 모델을 이용하여 후보 답안 텍스트를 의미 벡터화 표시하는 경우를 예로 들어 설명한다.
온라인으로 '답안 의미 계산'을 하는 것은, 의미 질의 응답 매칭에 있어서 시간을 가장 많이 소모하는 부분인데, 질의에 대응되는 맞는 답안을 빠르게 출력하고 온라인 부분의 질의 답변 효율을 향상시키고자, '답안 의미 계산'을 부분적으로 오프라인 사전 처리 단계로 전이시킬 수 있다는 것을 이해할 수 있다.
본 출원의 전반적인 기술 구상은, 우선, 답안 의미 표시 모델을 통해 모든 후보 답안(후보 답안 텍스트)을 의미 표시 벡터로 미리 변환시켜 답안 벡터 인덱스 데이터베이스에 저장하는 것이다. 상응하게, 사용자가 입력한 질의에 대하여, 우선, 이를 벡터로 변환시키고, 그 다음, 벡터 검색 시스템에서 질의 벡터에 가장 잘 매칭되는 답안 의미 표시 벡터를 찾아내고, 가장 잘 매칭되는 답안 의미 표시 벡터에 대응되는 답안을 질의의 답안으로 하고, 질의의 답안을 출력한다.
여기서, 본 실시예의 답안 벡터 인덱스 데이터베이스는 벡터 검색 시스템에 설치될 수 있다.
종합하면 알 수 있는바, 본 실시예는, 모든 후보 답안을 의미 벡터로 미리 변환시켜 답안 벡터 인덱스 데이터베이스에 저장하고 답변할 질의를 획득한 후, 질의를 의미 표시 벡터로 변환시키고 답안 벡터 인덱스 데이터베이스로부터 질의의 의미 표시 벡터에 매칭되는 답안 의미 표시 벡터를 획득하고 매칭되는 답안 의미 표시 벡터에 대응되는 답안을 획득하기만 하면 답변할 질의의 답안을 빠르게 획득할 수 있는바, 답안 신뢰도를 계산하는 과정이 생략되고 질의에 대응되는 답안을 획득하는 효율이 향상된다. 또한, 본 실시예의 후보 답안에 대응되는 의미 표시 벡터는 후보 답안 자체의 의미 표시 벡터와 후보 답안이 있는 글의 글 제목 의미 벡터를 결합하여 결정되는바, 이로써, 후보 답안 자체 및 후보 답안이 있는 글의 글 제목과 주어진 질의의 연관성에 따라 주어진 질의에 매칭되는 맞는 답안이 결정되고 질의 응답 매칭 정확률이 향상된다.
본 출원의 실시예의 질의 응답 처리 방법, 답변할 질의의 답안을 결정하는 과정에서, 제1 질의 의미 표시 모델과 제2 의미 표시 모델을 결합하여 답변할 질의를 각각 의미 표시하고, 각각 획득되는 의미 표시 벡터 결과를 접합 처리하고, 접합된 의미 벡터를 답변할 질의의 의미 표시 벡터로 하고, 답안 벡터 인덱스 데이터베이스로부터 답변할 질의의 의미 표시 벡터에 매칭되는 답안 의미 벡터를 획득하고, 매칭된 답안 의미 벡터에 대응되는 목표 답안을 답변할 질의의 목표 답안으로 하고 목표 답안을 출력한다. 이로써, 질의 응답 매칭 과정에서, 답안 신뢰도를 계산할 필요가 없게 되고 질의에 대응되는 답안을 획득하는 효율이 향상되며, 또한, 본 실시에서 후보 답안에 대응되는 의미 표시 벡터는 후보 답안 자체의 의미 표시 벡터와 후보 답안이 있는 글의 글 제목 의미 벡터를 결합하여 결정되는바, 이로써, 후보 답안 자체 및 후보 답안이 있는 글의 글 제목과 주어진 질의의 연관성에 따라 주어진 질의에 매칭되는 맞는 답안이 결정되고 질의 응답 매칭 정확률이 향상된다.
아래, 도3을 결부하여 제1 질의 의미 표시 모델과 답안 의미 표시 모델을 트레이닝하는 과정을 설명하고자 한다. 부연하면, 답안 샘플은 틀린 답안 샘플과 맞는 답안 샘플을 포함한다. 여기서, 틀린 답안 샘플은 질의 샘플과 일정한 연관성을 가지는 틀린 답안을 가리킨다.
도3에 도시한 바와 같이, 하기 단계가 포함될 수 있다.
단계301, 초기의 제1 의미 표시 모델에 따라 질의 샘플을 의미 벡터화 표시하여 질의 샘플의 의미 표시 벡터를 획득한다.
단계302, 초기의 제2 의미 표시 모델에 따라 틀린 답안 샘플과 맞는 답안 샘플을 각각 의미 벡터화 표시하여 틀린 답안 샘플의 의미 표시 벡터와 맞는 답안 샘플의 의미 표시 벡터를 획득한다.
단계303, 질의 샘플의 의미 표시 벡터와 틀린 답안 샘플의 의미 표시 벡터에 따라 질의 샘플과 틀린 답안 샘플의 제1 벡터 유사도를 결정한다.
구체적으로, 질의 샘플의 의미 표시 벡터와 틀린 답안 샘플의 의미 표시 벡터를 획득한 후, 질의 샘플의 의미 표시 벡터와 틀린 답안 샘플의 의미 표시 벡터의 코사인(cosine) 유사도를 계산하고, 코사인 유사도를 질의 샘플과 틀린 답안 샘플의 벡터 유사도로 할 수 있다.
단계304, 질의 샘플의 의미 표시 벡터와 맞는 답안 샘플의 의미 표시 벡터에 따라 질의 샘플과 맞는 답안 샘플의 제2 벡터 유사도를 결정한다.
구체적으로, 질의 샘플의 의미 표시 벡터와 맞는 답안 샘플의 의미 표시 벡터를 획득한 후, 질의 샘플의 의미 표시 벡터와 맞는 답안 샘플의 의미 표시 벡터의 코사인(cosine) 유사도를 계산하고, 코사인 유사도를 질의 샘플과 맞는 답안 샘플의 벡터 유사도로 할 수 있다.
단계305, 제1 벡터 유사도와 제2 벡터 유사도에 따라 제1 벡터 유사도와 제2 벡터 유사도가 제1 미리 설정된 조건을 충족할 때까지 초기의 제1 의미 표시 모델과 제2 의미 표시 모델의 모델 파라미터를 조정한다.
초기의 제1 의미 표시 모델과 제2 의미 표시 모델의 모델 파라미터를 조정한 후, 계속하여, 모델 파라미터를 조정한 후의 제1 의미 표시 모델과 제2 의미 표시 모델로써 그 각각에 대한 입력을 의미 벡터화 표시하고, 다시 계산하여 획득되는 제1 벡터 유사도와 제2 벡터 유사도가 제1 미리 설정된 조건을 충족할 때, 제1 의미 표시 모델과 제2 의미 표시 모델의 모델 파라미터에 대한 조정을 종료한다는 것, 즉, 모델 트레이닝을 종료한다는 것을 이해할 수 있다.
여기서, 제1 미리 설정된 조건은 미리 설정된 것으로, 모델 트레이닝을 종료시키기 위해 제1 벡터 유사도와 제2 벡터 유사도가 충족시켜야 하는 조건이다. 예를 들면, 제1 미리 설정된 조건은, 질의 샘플과 맞는 답안 샘플의 벡터 유사도에서 질의 샘플과 틀린 답안 샘플의 벡터 유사도를 빼서 획득되는 차이도가 이미 최대 차이도에 도달한 것일 수 있다.
단계306, 제1 미리 설정된 조건이 충족되는 경우에 획득되는 제1 의미 표시 모델을 답안 의미 표시 모델로 하고 제1 미리 설정된 조건이 충족되는 경우에 획득되는 제2 의미 표시 모델을 제1 질의 의미 표시 모델로 한다.
본 실시예에서, 질의 샘플, 맞는 답안 샘플 및 틀린 답안 샘플을 결합하여 초기의 제1 의미 표시 모델과 제2 의미 표시 모델을 동시에 트레이닝하고, 질의 샘플과 맞는 답안 샘플의 벡터 유사도 및 질의 샘플과 틀린 답안 샘플의 유사도가 제1 미리 설정된 조건을 충족하는 경우, 모델 트레이닝을 종료하고, 트레이닝 종료 시 획득되는 제1 의미 표시 모델을 질의 의미 표시 모델로 하고, 트레이닝 종료 시 획득되는 제2 의미 표시 모델을 답안 의미 표시 모델로 한다. 이로써, 질의와 그 맞는 답안의 의미 벡터가 최대한 유사하도록 보장되고, 따라서 질의 응답 매칭의 정확도가 보장된다.
본 출원의 일 실시예에서, 질의 샘플, 맞는 답안 샘플 및 틀린 답안 샘플을 결합하여 트레이닝하여 제1 질의 의미 표시 모델과 답안 의미 표시 모델을 획득하는 구체적인 과정은 하기와 같을 수 있다.
초기에는, 대규모 말뭉치에서 트레이닝되어 획득되는 사전 트레이닝 언어 모델을 의미 표시 모델의 초기화로 사용하고, 초기화된 제1 의미 표시 모델을 사용하여 질의 샘플(query) 의미 표시 벡터(Q_rep)를 획득하고, 초기화된 제2 의미 표시 모델을 통해 답안 샘플(para)의 합(P_rep)을 획득하고, 2개 벡터의 내적을 당해 <query, para> 쌍의 매칭 신뢰도로 한다.
이어서 모델 트레이닝을 시작한다. 매회마다 n개의 데이터를 고정 포멧으로 모델에 입력하는바, <query, para+, para- >에서 para+는 당해 질의 샘플(query)의 맞는 답안 샘플을 나타내고, para-는 당해 질의 샘플(query)과 일정한 연관성을 가지는 틀린 답안 샘플을 나타낸다. 모델에 입력되는 각 query에 대하여, 이것과 2n개의 para의 연관성(자체의 양의 및 음의 답안을 포함함)을 계산하여야 하고, 모델 학습의 목표는, 정확한 para의 연관성을 2n개의 연관성 중의 최대치로 되게 하고, 모델이 수렴되면 query와 para의 의미 표시 모델을 획득할 수 있다.
아래, 도4를 결부하여 제1 질의 의미 표시 모델과 답안 의미 표시 모델을 트레이닝하는 과정을 설명하고자 한다. 부연하면, 질의 샘플 및 질의 샘플에 대응되는 답안 샘플에 관한 것이다.
도4에 도시한 바와 같이, 하기 단계가 포함될 수 있다.
단계401, 초기의 제3 의미 표시 모델에 따라 틀린 답안 샘플에 대응되는 글 제목과 맞는 답안 샘플에 대응되는 글 제목을 각각 의미 벡터화 표시하여 틀린 답안 샘플에 대응되는 글 제목의 제1 제목 의미 벡터와 맞는 답안 샘플에 대응되는 글 제목의 제2 제목 의미 벡터를 획득한다.
단계402, 초기의 제4 의미 표시 모델에 따라 질의 샘플을 의미 벡터화 표시하여 질의 샘플의 의미 표시 벡터를 획득한다.
단계403, 질의 샘플의 의미 표시 벡터와 제1 제목 의미 표시 벡터에 따라 질의 샘플과 틀린 답안 샘플에 대응되는 글 제목의 제3 벡터 유사도를 결정한다.
구체적으로, 질의 샘플의 의미 표시 벡터와 제1 제목 의미 표시 벡터를 획득한 후, 질의 샘플의 의미 표시 벡터와 제1 제목 의미 표시 벡터의 코사인(cosine) 유사도를 계산하고, 코사인 유사도를 질의 샘플과 틀린 답안 샘플에 대응되는 글 제목의 벡터 유사도로 할 수 있다.
단계404, 질의 샘플의 의미 표시 벡터와 제2 제목 의미 표시 벡터에 따라 질의 샘플과 맞는 답안 샘플에 대응되는 글 제목의 제4 벡터 유사도를 결정한다.
구체적으로, 질의 샘플의 의미 표시 벡터와 제2 제목 의미 표시 벡터를 획득한 후, 질의 샘플의 의미 표시 벡터와 제2 제목 의미 표시 벡터의 코사인(cosine) 유사도를 계산하고, 코사인 유사도를 질의 샘플과 맞는 답안 샘플에 대응되는 글 제목의 벡터 유사도로 할 수 있다.
단계405, 제3 벡터 유사도와 제4 벡터 유사도에 따라 제3 벡터 유사도와 제4 벡터 유사도가 제2 미리 설정된 조건을 충족할 때까지 초기의 제3 의미 표시 모델과 제4 의미 표시 모델의 모델 파라미터를 조정한다.
단계406, 제2 미리 설정된 조건이 충족되는 경우에 획득되는 제3 의미 표시 모델을 제목 의미 표시 모델로 하고 제2 미리 설정된 조건이 충족되는 경우에 획득되는 제3 의미 표시 모델을 제2 질의 의미 표시 모델로 한다.
상술한 실시예에 기초하면, 상술한 초기의 제1 의미 표시 모델, 제2 의미 표시 모델, 제3 의미 표시 모델 및 제4 의미 표시 모델은 같은 모델일 수도 있고 서로 다른 모델일 수도 있다.
본 출원의 실시예에서는, 초기의 제1 의미 표시 모델, 제2 의미 표시 모델, 제3 의미 표시 모델 및 제4 의미 표시 모델이 의미 지식을 학습하도록 하여, 후속으로, 소량의 <질의, 답안> 레이블링 데이터에 따라 모델을 트레이닝할 수 있도록 편의를 제공하고자, 검색형 질의 응답 시스템에서 후보 검색 모델과 특징 추출 모델을 트레이닝하는 작업을 생략하였고, 본 실시예의 제1 의미 표시 모델, 제2 의미 표시 모델, 제3 의미 표시 모델 및 제4 의미 표시 모델은 모두 사전 트레이닝 의미 표시 모델일 수 있다.
여기서, 사전 트레이닝 의미 표시 모델은 비지도 데이터 트레이닝을 이용하여 획득된다.
여기서, 사전 트레이닝 의미 표시 모델은 지식이 강화된 의미 표시 모델 ERNIE(Enhanced Representation From Knowledge Integration), BERT모델을 포함할 수 있으나 이에 한정되지 않는다.
본 실시예에서, 제1 의미 표시 모델, 제2 의미 표시 모델, 제3 의미 표시 모델 및 제4 의미 표시 모델은 사전 트레이닝 의미 표시 모델을 사용할 수 있고, 일정량의 <질의, 답안> 레이블링 데이터만 제공하면 모델 트레이닝이 가능한바, 검색형 질의 응답 시스템에서 후보 검색 모델과 특징 추출 모델을 트레이닝하는 작업이 생략되고, 트레이닝된 의미 표시 모델이 획득되는 시간이 단축되며 질의 응답 시스템 내의 모델의 업데이트와 최적화가 편리해진다.
상술한 실시예에 기초하면, 답변할 질의에 대응되는 목표 답안을 출력한 후, 피드백 의견을 수신하는데, 여기서, 피드백 의견은 목표 답안이 답변할 질의의 맞는 답안이 아님을 가리키기 위한 것이고, 이때, 목표 답안을 답변할 질의의 틀린 질의 샘플 데이터로 하여 트레이닝 데이터에 추가함으로써 업데이트된 트레이닝 데이터를 획득할 수 있다. 상응하게, 업데이트된 트레이닝 데이터에 따라 본 실시예에 관여되는 관련 의미 표시 모델을 트레이닝함으로써 관련되는 의미 표시 모델을 트레이닝하는바, 이로써 모델의 효과가 점점 더 좋아지게 한다. 다시 말해, 모델의 자동 반복 업데이트를 구현할 수 있고 질의 응답 매칭의 정확도를 나아가 더 향상할 수 있다.
상술한 실시예를 구현하고자, 본 출원의 실시예는 질의 응답 처리 장치를 더 제공한다.
도5는 본 출원의 제4 실시예에 따른 개략도이다. 도5에 도시한 바와 같이, 당해 질의 응답 처리 장치(100)는 획득 모듈(110), 의미 표시 모듈(120), 접합 모듈(130), 매칭 모듈(140) 및 답안 획득 모듈(150)을 포함한다.
획득 모듈(110)은 답변할 질의를 획득한다.
의미 표시 모듈(120)은 답변할 질의를 제1 질의 의미 표시 모델과 제2 질의 의미 표시 모델에 각각 입력하여 답변할 질의의 제1 의미 표시 벡터와 제2 의미 표시 벡터를 획득하는바, 제1 질의 의미 표시 모델은 질의 샘플 및 질의 샘플에 대응되는 답안 샘플에 따라 트레이닝되어 획득되고 제2 질의 의미 표시 모델은 질의 샘플과 답안 샘플에 대응되는 글 제목에 따라 트레이닝되어 획득된다.
접합 모듈(130)은 제1 의미 표시 벡터와 제2 의미 표시 벡터에 따라 접합 처리하여 답변할 질의의 목표 의미 표시 벡터를 획득한다.
매칭 모듈(140)은 답변할 질의의 목표 의미 표시 벡터를 미리 구축된 답안 벡터 인덱스 데이터베이스 내의 각 답안 의미 표시 벡터에 매칭시키는바, 답안 벡터 인덱스 데이터베이스는 답안 샘플 풀 내의 모든 후보 답안을 의미 표시 벡터로 변환시킴으로써 구축되는 것이고, 후보 답안에 대응되는 답안 의미 표시 벡터는 후보 답안 자체의 의미 표시 벡터와 후보 답안에 대응되는 글 제목의 제목 의미 표시 벡터에 따라 획득된다.
답안 획득 모듈(150)은 매칭된 답안 의미 표시 벡터에 따라 대응되는 목표 답안을 획득하고 목표 답안을 출력한다.
본 출원의 일 실시예에서, 후보 답안 자체의 의미 표시 벡터는 답안 의미 표시 모델을 통해 후보 답안을 의미 벡터화 표시하여 획득되고, 제목 의미 표시 벡터는 제목 의미 표시 모델을 통해 후보 답안에 대응되는 글 제목을 의미 벡터화 표시하여 획득되고, 제1 질의 의미 표시 모델은 질의 샘플 및 질의 샘플에 대응되는 답안 샘플에 따라 트레이닝되어 획득되고, 제목 의미 표시 모델은 질의 샘플과 답안 샘플에 대응되는 글 제목에 따라 트레이닝되어 획득된다.
본 출원의 일 실시예에서, 질의 및 후보 답안 자체를 정확하게 의미 벡터화 표시할 수 있도록 편의를 제공하고자, 답안 샘플은 틀린 답안 샘플과 맞는 답안 샘플을 포함하고, 도5에 도시한 장치 실시예에 기초하면, 도6에 도시한 바와 같이, 당해 장치는,
질의 샘플, 틀린 답안 샘플 및 맞는 답안 샘플에 따라 트레이닝하여 제1 질의 의미 표시 모델과 답안 의미 표시 모델을 획득하는 제1 모델 트레이닝 모듈(160)을 더 포함한다.
제1 모델 트레이닝 모듈(160)은 구체적으로, 초기의 제1 의미 표시 모델에 따라 질의 샘플을 의미 벡터화 표시하여 질의 샘플의 의미 표시 벡터를 획득하고; 초기의 제2 의미 표시 모델에 따라 틀린 답안 샘플과 맞는 답안 샘플을 각각 의미 벡터화 표시하여 틀린 답안 샘플의 의미 표시 벡터와 맞는 답안 샘플의 의미 표시 벡터를 획득하고; 질의 샘플의 의미 표시 벡터와 틀린 답안 샘플의 의미 표시 벡터에 따라 질의 샘플과 틀린 답안 샘플의 제1 벡터 유사도를 결정하고; 질의 샘플의 의미 표시 벡터와 맞는 답안 샘플의 의미 표시 벡터에 따라 질의 샘플과 맞는 답안 샘플의 제2 벡터 유사도를 결정하고; 제1 벡터 유사도와 제2 벡터 유사도에 따라 제1 벡터 유사도와 제2 벡터 유사도가 제1 미리 설정된 조건을 충족할 때까지 초기의 제1 의미 표시 모델과 제2 의미 표시 모델의 모델 파라미터를 조정하고; 제1 미리 설정된 조건이 충족되는 경우에 획득되는 제1 의미 표시 모델을 답안 의미 표시 모델로 하고 제1 미리 설정된 조건이 충족되는 경우에 획득되는 제2 의미 표시 모델을 제1 질의 의미 표시 모델로 한다.
본 출원의 일 실시예에서, 질의 및 글 제목을 정확하게 의미 벡터화 표시할 수 있도록 편의를 제공하고자, 답안 샘플은 틀린 답안 샘플과 맞는 답안 샘플을 포함하고, 도5에 도시한 장치 실시예에 기초하면, 도6에 도시한 바와 같이, 당해 장치는,
질의 샘플, 틀린 답안 샘플과 맞는 답안 샘플에 따라 트레이닝하여 제목 의미 표시 모델과 제2 질의 의미 표시 모델을 획득하는 제2 모델 트레이닝 모듈(170)을 더 포함한다.
제2 모델 트레이닝 모듈(170)은 구체적으로, 초기의 제3 의미 표시 모델에 따라 틀린 답안 샘플에 대응되는 글 제목과 맞는 답안 샘플에 대응되는 글 제목을 각각 의미 벡터화 표시하여 틀린 답안 샘플에 대응되는 글 제목의 제1 제목 의미 벡터와 맞는 답안 샘플에 대응되는 글 제목의 제2 제목 의미 벡터를 획득하고; 초기의 제4 의미 표시 모델에 따라 질의 샘플을 의미 벡터화 표시하여 질의 샘플의 의미 표시 벡터를 획득하고; 질의 샘플의 의미 표시 벡터와 제1 제목 의미 표시 벡터에 따라 질의 샘플과 틀린 답안 샘플에 대응되는 글 제목의 제3 벡터 유사도를 결정하고; 질의 샘플의 의미 표시 벡터와 제2 제목 의미 표시 벡터에 따라 질의 샘플과 맞는 답안 샘플에 대응되는 글 제목의 제4 벡터 유사도를 결정하고; 제3 벡터 유사도와 제4 벡터 유사도에 따라 제3 벡터 유사도와 제4 벡터 유사도가 제2 미리 설정된 조건을 충족할 때까지 초기의 제3 의미 표시 모델과 제4 의미 표시 모델의 모델 파라미터를 조정하고; 제2 미리 설정된 조건이 충족되는 경우에 획득되는 제3 의미 표시 모델을 제목 의미 표시 모델로 하고, 제2 미리 설정된 조건이 충족되는 경우에 획득되는 제3 의미 표시 모델을 제2 질의 의미 표시 모델로 한다.
본 출원의 일 실시예에서, 제1 의미 표시 모델, 제2 의미 표시 모델, 제3 의미 표시 모델 및 제4 의미 표시 모델은 모두 사전 트레이닝 의미 표시 모델이고, 사전 트레이닝 의미 표시 모델은 비지도 데이터 트레이닝을 이용하여 획득된다.
본 출원의 일 실시예에서, 후보 답안 자체의 의미 표시 벡터와 후보 답안에 대응되는 글 제목의 제목 의미 표시 벡터에 따라 후보 답안에 대응되는 답안 의미 표시 벡터를 획득하는 것은 구체적으로, 후보 답안 자체의 의미 표시 벡터에 미리 설정된 제1 가중을 곱하여 새로운 의미 표시 벡터를 획득하는 것; 제목 의미 표시 벡터에 미리 설정된 제2 가중을 곱하여 새로운 제목 의미 표시 벡터를 획득하는 것; 및 새로운 의미 표시 벡터와 새로운 제목 의미 표시 벡터를 접합하고 접합으로 획득된 의미 표시 벡터를 후보 답안에 대응되는 답안 의미 표시 벡터로 하는 것을 포함한다.
접합 모듈(130)은 구체적으로, 제1 의미 표시 벡터에 제1 가중을 곱하여 답변할 질의의 제1 중간 의미 표시 벡터를 획득하고; 제2 의미 표시 벡터에 제2 가중을 곱하여 답변할 질의의 제2 중간 의미 표시 벡터를 획득하고; 제1 중간 의미 표시 벡터와 제2 중간 의미 표시 벡터를 접합 처리하여 답변할 질의의 목표 의미 표시 벡터를 획득한다.
부연하면, 전술한 질의 응답 처리 방법에 대한 해석과 설명은 본 실시예의 질의 응답 처리 장치에도 적용되는바, 이에 대한 상세한 설명은 생략하기로 한다.
본 출원의 실시예의 질의 응답 처리 장치는, 답변할 질의의 답안을 결정하는 과정에서, 제1 질의 의미 표시 모델과 제2 의미 표시 모델을 결합하여 답변할 질의를 각각 의미 표시하고, 각각 획득되는 의미 표시 벡터 결과를 접합 처리하고, 접합된 의미 벡터를 답변할 질의의 의미 표시 벡터로 하고, 답안 벡터 인덱스 데이터베이스로부터 답변할 질의의 의미 표시 벡터에 매칭되는 답안 의미 벡터를 획득하고, 매칭된 답안 의미 벡터에 대응되는 목표 답안을 답변할 질의의 목표 답안으로 하고 목표 답안을 출력한다. 이로써, 질의 응답 매칭 과정에서, 답안 신뢰도를 계산할 필요가 없게 되고 질의에 대응되는 답안을 획득하는 효율이 향상되며, 또한, 본 실시에서 후보 답안에 대응되는 의미 표시 벡터는 후보 답안 자체의 의미 표시 벡터와 후보 답안이 있는 글의 글 제목 의미 벡터를 결합하여 결정되는바, 이로써, 후보 답안 자체 및 후보 답안이 있는 글의 글 제목과 주어진 질의의 연관성에 따라 주어진 질의에 매칭되는 맞는 답안이 결정되고 질의 응답 매칭 정확률이 향상된다.
본 출원의 실시예에 따르면, 본 출원은 전자 기기와 판독 가능 저장 매체를 더 제공한다.
도7에 도시한 바는 본 출원의 실시예질의 응답 처리 방법에 따른 전자 기기의 블록도이다. 전자 기기는 다양한 형식의 디지털 컴퓨터, 예를 들어 랩톱 컴퓨터, 데스크톱 컴퓨터, 워크벤치, 개인용 디지털 보조기, 서버, 블레이드 서버, 대형 컴퓨터 및 기타의 적합한 컴퓨터를 가리키고자 하는 것이다. 전자 기기는 다양한 형식의 이동 장치, 예를 들어 개인용 디지털 보조기, 셀룰러 폰, 스마트폰, 웨어러블 기기 및 기타의 이와 유사한 컴퓨팅 기기를 가리킬 수도 있다. 본 명세서에서 제시하는 부품, 이들의 연결과 관계 및 이들의 기능은 단지 예시일 뿐, 본 명세서에서 설명한 및/또는 요구하는 본 출원의 구현을 한정하고자 하는 하는 것이 아니다.
도7에 도시한 바와 같이, 당해 전자 기기는 하나 또는 복수의 프로세서(701), 메모리(702) 및 각 부품을 연결하는 인터페이스를 포함하는바, 고속 인터페이스와 저속 인터페이스가 포함된다. 각 부품은 부동한 버스를 이용하여 서로 연결되고 공용 메인기판에 장착되거나 또는 필요에 따라 기타의 방식으로 장착될 수 있다. 프로세서는 전자 기기 내에서 실행되는 명령을 처리할 수 있는바, 메모리 내에 또는 메모리 위에 저장되어 외부 입력/출력 장치(예를 들어 인터페이스에 커플링되는 디스플레이 기기)에 GUI의 그래픽 정보를 표시하는 명령이 포함된다. 기타의 실시 방식에서, 필요하다면 복수의 프로세서 및/또는 복수의 버스를 복수의 메모리와 함께 사용할 수 있다. 마찬가지로, 복수의 전자 기기를 연결할 수 있는바, 각 기기는 일부 필요한 동작을 제공한다(예를 들어 서버 어레이, 한 그룹의 블레이드 서버 또는 멀티프로세서 시스템으로서). 도7는 하나의 프로세서(701)를 예로 든다.
메모리(702)가 바로 본 출원에 의해 제공되는 비일시적 컴퓨터 판독 가능 저장 매체이다. 메모리에는 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되어 있는바, 이는 적어도 하나의 프로세서에 의해 본 출원에 의해 제공되는 질의 응답 처리 방법이 실행되도록 한다. 본 출원의 비일시적 컴퓨터 판독 가능 저장 매체는 컴퓨터 명령을 저장하고, 당해 컴퓨터 명령은 컴퓨터에 의해 본 출원에 의해 제공되는 질의 응답 처리 방법이 실행되도록 한다.
메모리(702)는 비일시적 컴퓨터 판독 가능 저장 매체로서, 비일시적 소프트웨어 프로그램, 비일시적 컴퓨터 실행 가능 프로그램 및 모듈, 예를 들면 본 출원의 실시예의 질의 응답 처리 방법에 대응되는 프로그램 명령/모듈을 저장할 수 있다. 프로세서(701)는 메모리(702)에 저장되는 비일시적 소프트웨어 프로그램, 명령 및 모듈을 실행함으로써 서버의 다양한 기능 응용 및 데이터 처리를 실행하는바, 즉 상술한 방법 실시예의 질의 응답 처리 방법을 구현한다.
메모리(702)는 프로그램 저장 영역과 데이터 저장 영역을 포함할 수 있는바, 여기서, 프로그램 저장 영역은 운영 체제, 적어도 하나의 기능에 있어서 필요한 응용 프로그램을 저장할 수 있고, 데이터 저장 영역은 질의 응답 처리 방법에 따른 전자 기기의 사용에 따라 구축되는 데이터 등을 저장할 수 있다. 이 외에도 메모리(702)는 고속 랜덤 액세스 메모리를 포함할 수도 있고, 비일시적 메모리, 예를 들어 적어도 하나의 자기 디스크 저장 장치, 플래시 메모리 장치 또는 기타의 비일시적 고체 상태 저장 장치를 더 포함할 수도 있다. 일부 실시예에서, 메모리(702)는 선택적으로 프로세서(701) 대비 원격 설치되는 메모리를 포함할 수 있고, 이러한 원격 메모리는 네트워크를 통해 질의 응답 처리 방법의 전자 기기에 연결될 수 있다. 상술한 네트워크의 실시예는 인터넷, 기업 내부 네트워크, 근거리 통신망, 이동 통신 네트워크 및 이들의 조합을 포함하나 이에 한정되지 않는다.
전자 기기는 입력 장치(703)와 출력 장치(704)를 더 포함할 수 있다. 프로세서(701), 메모리(702), 입력 장치(703) 및 출력 장치(704)는 버스 또는 기타의 방식으로 연결될 수 있는바, 도7에서는 버스에 의한 연결되는 것을 예로 든다.
입력 장치(703)는 입력되는 숫자 또는 캐릭터 정보를 수신하고, 전자 기기의 사용자 설정 및 기능 제어에 관련되는 키 신호 입력을 발생시킬 수 있는바, 예를 들면 터치 스크린, 숫자 키패드, 마우스, 트랙패드, 터치패드, 포인팅 스틱, 하나 또는 복수의 마우스 버튼, 트랙볼, 조종 스틱 등 입력 장치가 있다. 출력 장치(704)는 디스플레이 기기, 보조 조명장치(예를 들어 LED) 및 촉각 피드백 장치(예를 들어 진동 모터) 등을 포함할 수 있다. 당해 디스플레이 기기는 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이 및 플라즈마 디스플레이를 포함할 수 있으나, 이에 한정되지 않는다. 일부 실시 방식에서 디스플레이 기기는 터치 스크린일 수 있다.
본 출원의 실시예에 따르면, 컴퓨터 판독 가능 매체에 저장되어 있는 컴퓨터 프로그램을 더 제공한다. 당해 컴퓨터 프로그램중의 명령이 실행될 경우, 상기 질의 응답 처리 방법이 실행된다.
여기서 설명하는 시스템과 기술의 다양한 실시 방식은 디지털 전자 회로 시스템, 집적 회로 시스템, 주문형ASIC(주문형 집적회로), 컴퓨터 하드웨어, 펌웨어, 소프트웨어 및/또는 이들의 조합에서 구현될 수 있다. 이러한 다양한 실시 방식은 하나 또는 복수의 컴퓨터 프로그램에서 실시되는 것을 포함할 수 있고, 당해 하나 또는 복수의 컴퓨터 프로그램은 적어도 하나의 프로그램 가능 프로세서를 포함하는 프로그램 가능 시스템에서 실행되거나 및/또는 해석될 수 있고, 당해 프로그램 가능 프로세서는 전용 또는 범용 프로그램 가능 프로세서일 수 있고, 저장 시스템, 적어도 하나의 입력 장치 및 적어도 하나의 출력 장치로부터 데이터와 명령을 수신하고, 데이터와 명령을 당해 저장 시스템, 당해 적어도 하나의 입력 장치 및 당해 적어도 하나의 출력 장치로 전송할 수 있다.
이러한 컴퓨팅 프로그램(프로그램, 소프트웨어, 소프트웨어 애플리케이션 또는 코드로 지칭되기도 함)은 프로그램 가능 프로세서의 기계 명령을 포함하며, 고급 절차 및/또는 객체지향 프로그래밍 언어, 및/또는 어셈블리어/기계어를 이용하여, 이러한 컴퓨팅 프로그램을 실시할 수 있다. 본 명세서에서 사용한 바와 같이, 용어 '기계 판독 가능 매체'와 '컴퓨터 판독 가능 매체'는 기계 명령 및/또는 데이터를 프로그램 가능 프로세서에 제공하기 위한 임의의 컴퓨터 프로그램 제품, 기기, 및/또는 장치(예를 들어, 자기 디스크, 광 디스크, 메모리, 프로그램 가능 논리 장치(PLD))를 가리키는바, 이는 기계 판독 가능 신호로서의 기계 명령을 수신하는 기계 판독 가능 매체를 포함한다. 용어 '기계 판독 가능 신호'는 기계 명령 및/또는 데이터를 프로그램 가능 프로세서에 제공하기 위한 임의의 신호를 가리킨다.
사용자와의 인터랙션을 제공하기 위해, 여기서 설명하는 시스템과 기술을 컴퓨터에서 실시할 수 있는바, 당해 컴퓨터는 사용자한테 정보를 표시하기 위한 표시 장치(예를 들어, CRT(음극선관) 또는 LCD(액정 디스플레이) 모니터) 및 키보드와 포인팅 장치(예를 들어, 마우스 또는 트랙볼)를 포함하고, 사용자는 당해 키보드와 당해 포인팅 장치를 통해 입력을 컴퓨터에 제공할 수 있다. 기타 종류의 장치도 사용자와의 인터랙션을 제공하는 데 사용될 수 있는바, 예를 들어, 사용자한테 제공되는 피드백은 임의 형식의 감각 피드백(예를 들어 시각 피드백, 청각 피드백 또는 촉각 피드백)일 수 있고, 임의 형식(소리 입력, 음성 입력 또는 촉각 입력을 포함함)으로 사용자로부터의 입력이 수신될 수 있다.
여기서 설명하는 시스템과 기술을 백그라운드 부품을 포함하는 컴퓨팅 시스템(예를 들면 데이터 서버로서), 미들웨어를 포함하는 컴퓨팅 시스템(예를 들면 애플리케이션 서버), 프런트 엔드 부품을 포함하는 컴퓨팅 시스템(예를 들면 그래픽 사용자 인터페이스 또는 네트워크 브라우저를 구비하는 사용자 컴퓨터일 수 있는바, 사용자는 당해 그래픽 사용자 인터페이스 또는 당해 네트워크 브라우저를 통하여, 여기서 설명하는 시스템 및 기술의 실시 방식과 인터랙션할 수 있음) 또는 이러한 백그라운드 부품, 미들웨어 또는 프런트 엔드 부품의 임의 조합을 포함하는 컴퓨팅 시스템에서 구현할 수 있다. 임의 형식 또는 매체의 디지털 데이터 통신(예를 들면 통신 네트워크)으로 시스템의 부품을 서로 연결시킬 수 있다. 통신 네트워크의 예시는 근거리 통신망(LAN), 광대역 통신망(WAN) 및 인터넷을 포함한다.
컴퓨터 시스템은 클라이언트와 서버를 포함할 수 있다. 클라이언트와 서버는 일반적으로는 서로 멀리 떨어져 있고, 통상적으로 통신 네트워크를 통해 인터랙션한다. 상응한 컴퓨터에서 실행되고 서로 클라이언트 - 서버 관계를 이루는 컴퓨터 프로그램을 통해 클라이언트와 서버의 관계가 발생된다.
상기에서 제시한 다양한 형식의 흐름을 적용하여 단계를 재정렬, 증가 또는 삭제할 수 있음을 이해하여야 한다. 예를 들어, 본 출원에 기재된 각 단계는 병행으로 실행될 수도 있고, 순차로 실행될 수도 있고, 부동한 순서로 실행될 수도 있는바, 본 출원에서 개시하는 기술안에 대한 기대 효과를 구현할 수만 있으면 되며, 본 명세서는 이에 대해 한정하지 않는다.
상술한 구체적인 실시 방식은 본 출원의 보호 범위를 한정하지 않는다. 설계 요구와 기타 요소에 따른 다양한 수정, 조합, 서브 조합 및 치환이 가능하다는 점은 당업자에 있어서 자명할 것이다. 본 출원의 사상과 원칙 이내에 있는 임의의 수정, 등가적 치환 및 개량 등은 모두 본 출원의 보호 범위에 포함되어야 한다.

Claims (15)

  1. 질의 응답 처리 방법에 있어서,
    답변할 질의를 획득하는 단계;
    상기 답변할 질의를 제1 질의 의미 표시 모델과 제2 질의 의미 표시 모델에 각각 입력하여 상기 답변할 질의의 제1 의미 표시 벡터와 제2 의미 표시 벡터를 획득하는 단계 - 상기 제1 질의 의미 표시 모델은 질의 샘플 및 상기 질의 샘플에 대응되는 답안 샘플에 따라 트레이닝되어 획득되고, 상기 제2 질의 의미 표시 모델은 상기 질의 샘플과 상기 답안 샘플에 대응되는 글 제목에 따라 트레이닝되어 획득됨 - ;
    상기 제1 의미 표시 벡터와 상기 제2 의미 표시 벡터에 따라 접합 처리하여 상기 답변할 질의의 목표 의미 표시 벡터를 획득하는 단계;
    상기 답변할 질의의 목표 의미 표시 벡터를 미리 구축된 답안 벡터 인덱스 데이터베이스 내의 각 답안 의미 표시 벡터에 매칭시키는 단계 - 상기 답안 벡터 인덱스 데이터베이스는 답안 샘플 풀 내의 모든 후보 답안을 의미 표시 벡터로 변환시킴으로써 구축되는 것이고, 상기 후보 답안에 대응되는 답안 의미 표시 벡터는 상기 후보 답안 자체의 의미 표시 벡터와 상기 후보 답안에 대응되는 글 제목의 제목 의미 표시 벡터에 따라 획득되는 것임 - ;및
    매칭된 답안 의미 표시 벡터에 따라 대응되는 목표 답안을 획득하고 상기 목표 답안을 출력하는 단계; 를 포함하는,
    것을 특징으로 하는 질의 응답 처리 방법.
  2. 제1항에 있어서,
    상기 후보 답안 자체의 의미 표시 벡터는 답안 의미 표시 모델을 통해 상기 후보 답안을 의미 벡터화 표시하여 획득되고, 상기 제목 의미 표시 벡터는 제목 의미 표시 모델을 통해 상기 후보 답안에 대응되는 글 제목을 의미 벡터화 표시하여 획득되고, 상기 제1 질의 의미 표시 모델은 상기 질의 샘플 및 상기 질의 샘플에 대응되는 답안 샘플에 따라 트레이닝되어 획득되고, 상기 제목 의미 표시 모델은 상기 질의 샘플과 상기 답안 샘플에 대응되는 글 제목에 따라 트레이닝되어 획득되는,
    것을 특징으로 하는 질의 응답 처리 방법.
  3. 제2항에 있어서,
    상기 답안 샘플은 틀린 답안 샘플과 맞는 답안 샘플을 포함하고,
    상기 제1 질의 의미 표시 모델과 상기 답안 의미 표시 모델은 하기의
    초기의 제1 의미 표시 모델에 따라 상기 질의 샘플을 의미 벡터화 표시하여 상기 질의 샘플의 의미 표시 벡터를 획득하는 단계;
    초기의 제2 의미 표시 모델에 따라 상기 틀린 답안 샘플과 상기 맞는 답안 샘플을 각각 의미 벡터화 표시하여 상기 틀린 답안 샘플의 의미 표시 벡터와 상기 맞는 답안 샘플의 의미 표시 벡터를 획득하는 단계;
    상기 질의 샘플의 의미 표시 벡터와 상기 틀린 답안 샘플의 의미 표시 벡터에 따라 상기 질의 샘플과 상기 틀린 답안 샘플의 제1 벡터 유사도를 결정하는 단계;
    상기 질의 샘플의 의미 표시 벡터와 상기 맞는 답안 샘플의 의미 표시 벡터에 따라 상기 질의 샘플과 상기 맞는 답안 샘플의 제2 벡터 유사도를 결정하는 단계;
    상기 제1 벡터 유사도와 상기 제2 벡터 유사도에 따라 상기 제1 벡터 유사도와 상기 제2 벡터 유사도가 제1 미리 설정된 조건을 충족할 때까지 상기 초기의 제1 의미 표시 모델과 상기 제2 의미 표시 모델의 모델 파라미터를 조정하는 단계; 및
    제1 미리 설정된 조건이 충족되는 경우에 획득되는 제1 의미 표시 모델을 상기 답안 의미 표시 모델로 하고, 제1 미리 설정된 조건이 충족되는 경우에 획득되는 제2 의미 표시 모델을 상기 제1 질의 의미 표시 모델로 하는 단계; 의 트레이닝을 통해 획득되는,
    것을 특징으로 하는 질의 응답 처리 방법.
  4. 제3항에 있어서,
    상기 답안 샘플은 틀린 답안 샘플과 맞는 답안 샘플을 포함하고,
    상기 제목 의미 표시 모델과 제2 질의 의미 표시 모델은 하기의
    초기의 제3 의미 표시 모델에 따라 상기 틀린 답안 샘플에 대응되는 글 제목과 상기 맞는 답안 샘플에 대응되는 글 제목을 각각 의미 벡터화 표시하여 상기 틀린 답안 샘플에 대응되는 글 제목의 제1 제목 의미 벡터와 상기 맞는 답안 샘플에 대응되는 글 제목의 제2 제목 의미 벡터를 획득하는 단계;
    초기의 제4 의미 표시 모델에 따라 상기 질의 샘플을 의미 벡터화 표시하여 상기 질의 샘플의 의미 표시 벡터를 획득하는 단계;
    상기 질의 샘플의 의미 표시 벡터와 상기 제1 제목 의미 표시 벡터에 따라 상기 질의 샘플과 상기 틀린 답안 샘플에 대응되는 글 제목의 제3 벡터 유사도를 결정하는 단계;
    상기 질의 샘플의 의미 표시 벡터와 상기 제2 제목 의미 표시 벡터에 따라 상기 질의 샘플과 상기 맞는 답안 샘플에 대응되는 글 제목의 제4 벡터 유사도를 결정하는 단계;
    상기 제3 벡터 유사도와 상기 제4 벡터 유사도에 따라 상기 제3 벡터 유사도와 상기 제4 벡터 유사도가 제2 미리 설정된 조건을 충족할 때까지 상기 초기의 제3 의미 표시 모델과 제4 의미 표시 모델의 모델 파라미터를 조정하는 단계; 및
    제2 미리 설정된 조건이 충족되는 경우에 획득되는 제3 의미 표시 모델을 상기 제목 의미 표시 모델로 하고, 제2 미리 설정된 조건이 충족되는 경우에 획득되는 제3 의미 표시 모델을 상기 제2 질의 의미 표시 모델로 하는 단계; 의 트레이닝을 통해 획득되는,
    것을 특징으로 하는 질의 응답 처리 방법.
  5. 제4항에 있어서,
    상기 제1 의미 표시 모델, 상기 제2 의미 표시 모델, 상기 제3 의미 표시 모델 및 상기 제4 의미 표시 모델은 모두 사전 트레이닝 의미 표시 모델이고, 상기 사전 트레이닝 의미 표시 모델은 비지도 데이터 트레이닝을 이용하여 획득되는,
    것을 특징으로 하는 질의 응답 처리 방법.
  6. 제1항에 있어서,
    상기 후보 답안 자체의 의미 표시 벡터와 상기 후보 답안에 대응되는 글 제목의 제목 의미 표시 벡터에 따라 상기 후보 답안에 대응되는 답안 의미 표시 벡터를 획득하는 단계는,
    상기 후보 답안 자체의 의미 표시 벡터에 미리 설정된 제1 가중을 곱하여 새로운 의미 표시 벡터를 획득하는 단계;
    상기 제목 의미 표시 벡터에 미리 설정된 제2 가중을 곱하여 새로운 제목 의미 표시 벡터를 획득하는 단계; 및
    상기 새로운 의미 표시 벡터와 상기 새로운 제목 의미 표시 벡터를 접합하고, 접합으로 획득된 의미 표시 벡터를 상기 후보 답안에 대응되는 답안 의미 표시 벡터로 하는 단계; 를 포함하고,
    상기 상기 제1 의미 표시 벡터와 상기 제2 의미 표시 벡터에 따라 접합 처리하여 상기 답변할 질의의 목표 의미 표시 벡터를 획득하는 단계는,
    상기 제1 의미 표시 벡터에 상기 제1 가중을 곱하여 상기 답변할 질의의 제1 중간 의미 표시 벡터를 획득하는 단계;
    상기 제2 의미 표시 벡터에 상기 제2 가중을 곱하여 상기 답변할 질의의 제2 중간 의미 표시 벡터를 획득하는 단계; 및
    상기 제1 중간 의미 표시 벡터와 상기 제2 중간 의미 표시 벡터를 접합 처리하여 상기 답변할 질의의 목표 의미 표시 벡터를 획득하는 단계; 를 포함하는,
    것을 특징으로 하는 질의 응답 처리 방법.
  7. 질의 응답 처리 장치에 있어서,
    답변할 질의를 획득하는 획득 모듈;
    상기 답변할 질의를 제1 질의 의미 표시 모델과 제2 질의 의미 표시 모델에 각각 입력하여 상기 답변할 질의의 제1 의미 표시 벡터와 제2 의미 표시 벡터를 획득하는 의미 표시 모듈 - 상기 제1 질의 의미 표시 모델은 질의 샘플 및 상기 질의 샘플에 대응되는 답안 샘플에 따라 트레이닝되어 획득되고, 상기 제2 질의 의미 표시 모델은 상기 질의 샘플과 상기 답안 샘플에 대응되는 글 제목에 따라 트레이닝되어 획득됨 - ;
    상기 제1 의미 표시 벡터와 상기 제2 의미 표시 벡터에 따라 접합 처리하여 상기 답변할 질의의 목표 의미 표시 벡터를 획득하는 접합 모듈;
    상기 답변할 질의의 목표 의미 표시 벡터를 미리 구축된 답안 벡터 인덱스 데이터베이스 내의 각 답안 의미 표시 벡터에 매칭시키는 매칭 모듈 - 상기 답안 벡터 인덱스 데이터베이스는 답안 샘플 풀 내의 모든 후보 답안을 의미 표시 벡터로 변환시킴으로써 구축되는 것이고, 상기 후보 답안에 대응되는 답안 의미 표시 벡터는 상기 후보 답안 자체의 의미 표시 벡터와 상기 후보 답안에 대응되는 글 제목의 제목 의미 표시 벡터에 따라 획득되는 것임 - ;및
    매칭된 답안 의미 표시 벡터에 따라 대응되는 목표 답안을 획득하고 상기 목표 답안을 출력하는 답안 획득 모듈; 을 포함하는,
    것을 특징으로 하는 질의 응답 처리 장치.
  8. 제7항에 있어서,
    상기 후보 답안 자체의 의미 표시 벡터는 답안 의미 표시 모델을 통해 상기 후보 답안을 의미 벡터화 표시하여 획득되고, 상기 제목 의미 표시 벡터는 제목 의미 표시 모델을 통해 상기 후보 답안에 대응되는 글 제목을 의미 벡터화 표시하여 획득되고, 상기 제1 질의 의미 표시 모델은 상기 질의 샘플 및 상기 질의 샘플에 대응되는 답안 샘플에 따라 트레이닝되어 획득되고, 상기 제목 의미 표시 모델은 상기 질의 샘플과 상기 답안 샘플에 대응되는 글 제목에 따라 트레이닝되어 획득되는,
    것을 특징으로 하는 질의 응답 처리 장치.
  9. 제8항에 있어서,
    상기 답안 샘플은 틀린 답안 샘플과 맞는 답안 샘플을 포함하고,
    상기 장치는,
    상기 질의 샘플, 상기 틀린 답안 샘플 및 맞는 답안 샘플에 따라 트레이닝하여 상기 제1 질의 의미 표시 모델과 상기 답안 의미 표시 모델을 획득하는 제1 모델 트레이닝 모듈을 더 포함하고,
    상기 제1 모델 트레이닝 모듈은,
    초기의 제1 의미 표시 모델에 따라 상기 질의 샘플을 의미 벡터화 표시하여 상기 질의 샘플의 의미 표시 벡터를 획득하고;
    초기의 제2 의미 표시 모델에 따라 상기 틀린 답안 샘플과 상기 맞는 답안 샘플을 각각 의미 벡터화 표시하여 상기 틀린 답안 샘플의 의미 표시 벡터와 상기 맞는 답안 샘플의 의미 표시 벡터를 획득하고;
    상기 질의 샘플의 의미 표시 벡터와 상기 틀린 답안 샘플의 의미 표시 벡터에 따라 상기 질의 샘플과 상기 틀린 답안 샘플의 제1 벡터 유사도를 결정하고;
    상기 질의 샘플의 의미 표시 벡터와 상기 맞는 답안 샘플의 의미 표시 벡터에 따라 상기 질의 샘플과 상기 맞는 답안 샘플의 제2 벡터 유사도를 결정하고;
    상기 제1 벡터 유사도와 상기 제2 벡터 유사도에 따라 상기 제1 벡터 유사도와 상기 제2 벡터 유사도가 제1 미리 설정된 조건을 충족할 때까지 상기 초기의 제1 의미 표시 모델과 상기 제2 의미 표시 모델의 모델 파라미터를 조정하고;
    제1 미리 설정된 조건이 충족되는 경우에 획득되는 제1 의미 표시 모델을 상기 답안 의미 표시 모델로 하고, 제1 미리 설정된 조건이 충족되는 경우에 획득되는 제2 의미 표시 모델을 상기 제1 질의 의미 표시 모델로 하는,
    것을 특징으로 하는 질의 응답 처리 장치.
  10. 제9항에 있어서,
    상기 답안 샘플은 틀린 답안 샘플과 맞는 답안 샘플을 포함하고,
    상기 장치는,
    상기 질의 샘플, 틀린 답안 샘플 및 맞는 답안 샘플에 따라 트레이닝하여 상기 제목 의미 표시 모델과 제2 질의 의미 표시 모델을 획득하는 제2 모델 트레이닝 모듈을 더 포함하고,
    상기 제2 모델 트레이닝 모듈은,
    초기의 제3 의미 표시 모델에 따라 상기 틀린 답안 샘플에 대응되는 글 제목과 상기 맞는 답안 샘플에 대응되는 글 제목을 각각 의미 벡터화 표시하여 상기 틀린 답안 샘플에 대응되는 글 제목의 제1 제목 의미 벡터와 상기 맞는 답안 샘플에 대응되는 글 제목의 제2 제목 의미 벡터를 획득하고;
    초기의 제4 의미 표시 모델에 따라 상기 질의 샘플을 의미 벡터화 표시하여 상기 질의 샘플의 의미 표시 벡터를 획득하고;
    상기 질의 샘플의 의미 표시 벡터와 상기 제1 제목 의미 표시 벡터에 따라 상기 질의 샘플과 상기 틀린 답안 샘플에 대응되는 글 제목의 제3 벡터 유사도를 결정하고;
    상기 질의 샘플의 의미 표시 벡터와 상기 제2 제목 의미 표시 벡터에 따라 상기 질의 샘플과 상기 맞는 답안 샘플에 대응되는 글 제목의 제4 벡터 유사도를 결정하고;
    상기 제3 벡터 유사도와 상기 제4 벡터 유사도에 따라 상기 제3 벡터 유사도와 상기 제4 벡터 유사도가 제2 미리 설정된 조건을 충족할 때까지 상기 초기의 제3 의미 표시 모델과 제4 의미 표시 모델의 모델 파라미터를 조정하고;
    제2 미리 설정된 조건이 충족되는 경우에 획득되는 제3 의미 표시 모델을 상기 제목 의미 표시 모델로 하고, 제2 미리 설정된 조건이 충족되는 경우에 획득되는 제3 의미 표시 모델을 상기 제2 질의 의미 표시 모델로 하는,
    것을 특징으로 하는 질의 응답 처리 장치.
  11. 제10항에 있어서,
    상기 제1 의미 표시 모델, 상기 제2 의미 표시 모델, 상기 제3 의미 표시 모델 및 상기 제4 의미 표시 모델은 모두 사전 트레이닝 의미 표시 모델이고, 상기 사전 트레이닝 의미 표시 모델은 비지도 데이터 트레이닝을 이용하여 획득되는,
    것을 특징으로 하는 질의 응답 처리 장치.
  12. 제7항 내지 제11항 중의 어느 한 항에 있어서,
    상기 후보 답안 자체의 의미 표시 벡터와 상기 후보 답안에 대응되는 글 제목의 제목 의미 표시 벡터에 따라 상기 후보 답안에 대응되는 답안 의미 표시 벡터를 획득하는 것은,
    상기 후보 답안 자체의 의미 표시 벡터에 미리 설정된 제1 가중을 곱하여 새로운 의미 표시 벡터를 획득하는 것;
    상기 제목 의미 표시 벡터에 미리 설정된 제2 가중을 곱하여 새로운 제목 의미 표시 벡터를 획득하는 것; 및
    상기 새로운 의미 표시 벡터와 상기 새로운 제목 의미 표시 벡터를 접합하고 접합으로 획득된 의미 표시 벡터를 상기 후보 답안에 대응되는 답안 의미 표시 벡터로 하는 것; 을 포함하고,
    상기 접합 모듈은,
    상기 제1 의미 표시 벡터에 상기 제1 가중을 곱하여 상기 답변할 질의의 제1 중간 의미 표시 벡터를 획득하고;
    상기 제2 의미 표시 벡터에 상기 제2 가중을 곱하여 상기 답변할 질의의 제2 중간 의미 표시 벡터를 획득하고;
    상기 제1 중간 의미 표시 벡터와 상기 제2 중간 의미 표시 벡터를 접합 처리하여 상기 답변할 질의의 목표 의미 표시 벡터를 획득하는,
    것을 특징으로 하는 질의 응답 처리 장치.
  13. 전자 기기에 있어서,
    적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서에 통신되도록 연결되는 메모리; 를 포함하고,
    상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되고, 상기 명령이 상기 적어도 하나의 프로세서에 의해 실행될 경우, 상기 적어도 하나의 프로세서가 제1항 내지 제6항 중 어느 한 항의 방법을 수행하는,
    것을 특징으로 하는 전자 기기.
  14. 컴퓨터 명령이 저장되어 있는 비일시적 컴퓨터 판독 가능 저장 매체에 있어서,
    상기 컴퓨터 명령이 실?P될 경우, 제1항 내지 제6항 중 어느 한 항의 방법이 수행되는,
    것을 특징으로 하는 컴퓨터 명령이 저장되어 있는 비일시적 컴퓨터 판독 가능 저장 매체.
  15. 컴퓨터 판독 가능 매체에 저장되어 있는 컴퓨터 프로그램에 있어서,
    상기 컴퓨터 프로그램중의 명령이 실행될 경우, 제1항 내지 제6항 중 어느 한 항의 방법이 실행되는,
    것을 특징으로 하는 컴퓨터 판독 가능 저장 매체에 저장된 컴퓨터 프로그램.
KR1020200090951A 2019-12-27 2020-07-22 질의 응답 처리 방법, 장치, 전자 기기 및 저장 매체 KR102431232B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201911382826.8 2019-12-27
CN201911382826.8A CN111125335B (zh) 2019-12-27 2019-12-27 问答处理方法、装置、电子设备和存储介质

Publications (2)

Publication Number Publication Date
KR20210086436A true KR20210086436A (ko) 2021-07-08
KR102431232B1 KR102431232B1 (ko) 2022-08-10

Family

ID=70505274

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200090951A KR102431232B1 (ko) 2019-12-27 2020-07-22 질의 응답 처리 방법, 장치, 전자 기기 및 저장 매체

Country Status (5)

Country Link
US (1) US11461556B2 (ko)
EP (1) EP3842988A1 (ko)
JP (1) JP7079309B2 (ko)
KR (1) KR102431232B1 (ko)
CN (1) CN111125335B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023080425A1 (ko) * 2021-11-04 2023-05-11 삼성전자 주식회사 쿼리문에 관련된 검색 결과를 제공하는 전자 장치 및 방법

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111694941B (zh) * 2020-05-22 2024-01-05 腾讯科技(深圳)有限公司 一种回复信息确定方法、装置、存储介质及电子设备
CN111666770B (zh) * 2020-06-02 2023-07-18 泰康保险集团股份有限公司 一种语义匹配方法及装置
CN111783428B (zh) * 2020-07-07 2024-01-23 杭州叙简科技股份有限公司 基于深度学习的应急管理类客观题自动生成系统
US20220107972A1 (en) * 2020-10-07 2022-04-07 Kabushiki Kaisha Toshiba Document search apparatus, method and learning apparatus
CN112560500A (zh) * 2020-12-17 2021-03-26 中科讯飞互联(北京)信息科技有限公司 文本处理方法、装置、设备及存储介质
CN112989843B (zh) * 2021-03-17 2023-07-25 中国平安人寿保险股份有限公司 意图识别方法、装置、计算设备及存储介质
CN113139043B (zh) * 2021-04-29 2023-08-04 北京百度网讯科技有限公司 问答样本生成方法、装置、电子设备和存储介质
CN113220832B (zh) * 2021-04-30 2023-09-05 北京金山数字娱乐科技有限公司 一种文本处理方法及装置
CN113887244A (zh) * 2021-05-21 2022-01-04 北京金山数字娱乐科技有限公司 文本处理方法及装置
CN113297354A (zh) * 2021-06-16 2021-08-24 深圳前海微众银行股份有限公司 文本匹配方法、装置、设备及存储介质
CN113553415B (zh) * 2021-06-30 2023-06-02 北京百度网讯科技有限公司 问答匹配的方法、装置及电子设备
CN113342958B (zh) * 2021-07-02 2023-06-16 马上消费金融股份有限公司 问答匹配方法、文本匹配模型的训练方法和相关设备
CN118215913A (zh) * 2021-11-04 2024-06-18 三星电子株式会社 用于提供与查询语句相关的搜索结果的电子设备和方法
CN114328908A (zh) * 2021-11-08 2022-04-12 腾讯科技(深圳)有限公司 一种问答语句质检方法、装置及相关产品
CN114416953B (zh) * 2022-01-20 2023-10-31 北京百度网讯科技有限公司 问答处理方法、问答模型的训练方法和装置
CN114610853A (zh) * 2022-03-14 2022-06-10 平安科技(深圳)有限公司 一种智能问答的优化方法及装置、存储介质、终端
CN115129816B (zh) * 2022-07-04 2024-05-14 北京百度网讯科技有限公司 问答匹配模型的训练方法、装置及电子设备
CN115422362B (zh) * 2022-10-09 2023-10-31 郑州数智技术研究院有限公司 一种基于人工智能的文本匹配方法
CN116414958A (zh) * 2023-02-06 2023-07-11 飞算数智科技(深圳)有限公司 文本语料的生成方法、装置、存储介质及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0793351A (ja) * 1993-09-22 1995-04-07 Matsushita Electric Ind Co Ltd 自然言語質問応答生成装置
WO2016151700A1 (ja) * 2015-03-20 2016-09-29 株式会社 東芝 意図理解装置、方法およびプログラム
US20180276525A1 (en) * 2015-12-03 2018-09-27 Huawei Technologies Co., Ltd. Method and neural network system for human-computer interaction, and user equipment

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140006012A1 (en) * 2012-07-02 2014-01-02 Microsoft Corporation Learning-Based Processing of Natural Language Questions
MX2015010582A (es) * 2013-02-15 2017-01-11 Voxy Inc Sistemas y metodos de aprendizaje de idiomas.
US9381434B2 (en) * 2014-06-30 2016-07-05 Linkedin Corporation Social network interaction via games
US10019513B1 (en) * 2014-08-12 2018-07-10 Google Llc Weighted answer terms for scoring answer passages
CN104573028B (zh) * 2015-01-14 2019-01-25 百度在线网络技术(北京)有限公司 实现智能问答的方法和系统
CN108369521A (zh) * 2015-09-02 2018-08-03 埃丹帝弗有限公司 智能虚拟助理系统及相关方法
US10489712B2 (en) 2016-02-26 2019-11-26 Oath Inc. Quality-based scoring and inhibiting of user-generated content
US9984772B2 (en) * 2016-04-07 2018-05-29 Siemens Healthcare Gmbh Image analytics question answering
US11243955B2 (en) * 2017-11-29 2022-02-08 International Business Machines Corporation Latent token representations for passage and answer scoring in question answering systems
JP6647475B2 (ja) 2017-11-29 2020-02-14 三菱電機株式会社 言語処理装置、言語処理システムおよび言語処理方法
CN108345585A (zh) * 2018-01-11 2018-07-31 浙江大学 一种基于深度学习的自动问答方法
CN108984475A (zh) * 2018-07-06 2018-12-11 北京慧闻科技发展有限公司 基于全息神经网络的答案选择方法、装置和电子设备
CN109002519A (zh) * 2018-07-09 2018-12-14 北京慧闻科技发展有限公司 基于卷积循环神经网络的答案选择方法、装置和电子设备
CN109740077B (zh) * 2018-12-29 2021-02-12 北京百度网讯科技有限公司 基于语义索引的答案搜索方法、装置及其相关设备
US11281733B2 (en) * 2019-03-14 2022-03-22 Microsoft Technology Licensing, Llc Selective presentation of rich experiences in search
CN110309305B (zh) * 2019-06-14 2021-05-11 中国电子科技集团公司第二十八研究所 基于多任务联合训练的机器阅读理解方法及计算机存储介质
CN110516059B (zh) * 2019-08-30 2023-06-09 腾讯科技(深圳)有限公司 基于机器学习的问题答复方法、问答模型训练方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0793351A (ja) * 1993-09-22 1995-04-07 Matsushita Electric Ind Co Ltd 自然言語質問応答生成装置
WO2016151700A1 (ja) * 2015-03-20 2016-09-29 株式会社 東芝 意図理解装置、方法およびプログラム
US20180276525A1 (en) * 2015-12-03 2018-09-27 Huawei Technologies Co., Ltd. Method and neural network system for human-computer interaction, and user equipment

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
김선훈 외 2인, 심층적 의미 매칭을 이용한 cQA 시스템 질문 검색, 제29회 한글 및 한국어 정보처리 학술대회 논문집, 2017.10.13. pp. 116-121. 1부.* *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023080425A1 (ko) * 2021-11-04 2023-05-11 삼성전자 주식회사 쿼리문에 관련된 검색 결과를 제공하는 전자 장치 및 방법

Also Published As

Publication number Publication date
JP2021108111A (ja) 2021-07-29
KR102431232B1 (ko) 2022-08-10
CN111125335A (zh) 2020-05-08
CN111125335B (zh) 2021-04-06
US11461556B2 (en) 2022-10-04
EP3842988A1 (en) 2021-06-30
JP7079309B2 (ja) 2022-06-01
US20210200956A1 (en) 2021-07-01

Similar Documents

Publication Publication Date Title
KR102431232B1 (ko) 질의 응답 처리 방법, 장치, 전자 기기 및 저장 매체
KR102448129B1 (ko) 엔티티 연결 방법, 장치, 기기 및 저장 매체
KR20210038449A (ko) 문답 처리, 언어 모델 훈련 방법, 장치, 기기 및 저장 매체
EP3923159A1 (en) Method, apparatus, device and storage medium for matching semantics
US11907671B2 (en) Role labeling method, electronic device and storage medium
JP2022097396A (ja) 対話理解モデルの訓練方法、装置、デバイス及び記憶媒体
US20210200813A1 (en) Human-machine interaction method, electronic device, and storage medium
KR102475235B1 (ko) 리소스 정렬 방법, 정렬 모델을 트레이닝하는 방법 및 대응하는 장치
EP3879416A1 (en) Query auto-completion method, apparatus and device, and computer storage medium
WO2021139222A1 (zh) 建立排序模型的方法、查询自动补全的方法及对应装置
JP7203981B2 (ja) 地理位置を検索するための類似性モデル作成方法、装置、電子デバイス、記憶媒体およびプログラム
CN113553414B (zh) 智能对话方法、装置、电子设备和存储介质
CN112163405A (zh) 问题的生成方法和装置
US11704326B2 (en) Generalization processing method, apparatus, device and computer storage medium
JP2023017910A (ja) セマンティック表現モデルの事前トレーニング方法、装置及び電子機器
KR102468342B1 (ko) 목표 내용의 결정 방법, 장치, 기기 및 컴퓨터 판독 가능 저장매체
KR102561951B1 (ko) 모델링 매개 변수의 설정 방법, 장치, 전자 기기 및 기록 매체
US20230008897A1 (en) Information search method and device, electronic device, and storage medium
CN112528001A (zh) 一种信息查询方法、装置及电子设备
CN111241838A (zh) 文本实体的语义关系处理方法、装置及设备
JP7160986B2 (ja) 検索モデルの訓練方法、装置、デバイス、コンピュータ記憶媒体、及びコンピュータプログラム
CN116049370A (zh) 信息查询方法和信息生成模型的训练方法、装置
CN115186163A (zh) 搜索结果排序模型的训练与搜索结果排序方法、装置
US11900918B2 (en) Method for training a linguistic model and electronic device
US20230135536A1 (en) Method and Apparatus for Processing Table

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right