KR20220041721A - 검색 모델의 트레이닝 방법, 장치, 전자 기기 및 기록 매체 - Google Patents

검색 모델의 트레이닝 방법, 장치, 전자 기기 및 기록 매체 Download PDF

Info

Publication number
KR20220041721A
KR20220041721A KR1020210110285A KR20210110285A KR20220041721A KR 20220041721 A KR20220041721 A KR 20220041721A KR 1020210110285 A KR1020210110285 A KR 1020210110285A KR 20210110285 A KR20210110285 A KR 20210110285A KR 20220041721 A KR20220041721 A KR 20220041721A
Authority
KR
South Korea
Prior art keywords
training
search model
text
query word
training data
Prior art date
Application number
KR1020210110285A
Other languages
English (en)
Inventor
위천 딩
잉치 취
징 리우
카이 리우
도우 홍
화 우
하이펑 왕
Original Assignee
베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. filed Critical 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Publication of KR20220041721A publication Critical patent/KR20220041721A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/38Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • G06N3/0472
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Library & Information Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 검색 모델의 트레이닝 방법, 장치, 전자 기기 및 기록 매체를 개시하였는 바, 지능 검색 및 자연 언어 처리 기술에 관한 것이다. 구체적으로 실현 방안은, 초기 트레이닝 데이터를 취득하고; 초기 트레이닝 데이터를 이용하여 트레이닝하여 초기 검색 모델을 얻는 단계; 초기 검색 모델을 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어와의 관련도가 미리 설정된 제1 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어 대응하는 관련 텍스트의 부정 예를 갱신하는 단계; 갱신 후의 트레이닝 데이터를 이용하여 트레이닝하여 제1 검색 모델을 얻는 단계; 제1 검색 모델을 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어와의 관련도가 미리 설정된 제2 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어 대응하는 관련 텍스트의 긍정 예를 확장하고, 및/또는, 상기 질의어와의 관련도가 미리 설정된 제3 요구 사항을 만족하는 텍스트를 선택하여 관련 텍스트의 부정 예를 확장하는 단계; 및 확장 후의 트레이닝 데이터를 이용하여 트레이닝하여 제2 검색 모델을 얻는 단계를 포함한다. 본 발명은 고품질 트레이닝 데이터에 대한 요구 사항을 절감할 수 있다.

Description

검색 모델의 트레이닝 방법, 장치, 전자 기기 및 기록 매체 {RETRIEVAL MODEL TRAINING METHOD AND DEVICE, ELECTRIC EQUIPMENT AND COMPUTER STORAGE MEDIUM}
본 발명은 컴퓨터 기술 분야에 관한 것인 바, 특히 지능 검색 및 자연 언어 처리 기술에 관한 것이다.
정보와 시대에 사람들은 대량의 텍스트 중에서 자신이 필요로하는 정보를 빠르게 찾을 수 있기를 바라며, 따라서 정보 검색 기술이 극히 중요해졌다. 심층 신경망의 보급과 발전에 따라, 정보 검색 기술에도 거대한 변화가 발생하고 있으며, 다양한 사전 트레이닝 언어 모델이 정보 검색 분야에서 검색 모델로 사용되고 있고, 효과를 현저히 향상시켰다.
검색 모델의 트레이닝 과정에서 대량의 수동으로 라벨링한 트레이닝 데이터를 필요로 하며, 트레이닝 데이터의 수량 및 품질은 직접 검색 모델의 최종 효과를 결정한다. 하지만, 고품질의 트레이닝 데이터는 매우 가치가 있으며, 모델의 효과를 보증하는 전제 하에서, 어떻게 모델 트레이닝 과정에서의 고품질 트레이닝 데이터에 대한 요구 사항을 절감할 것인지가 시급히 해결해야 할 문제로 되고 있다.
이에 감안하여, 본 발명은 검색 모델의 트레이닝 방법, 장치, 전자 기기 및 기록 매체를 제공하는 바, 모델의 효과를 보증하는 전제 하에서 모델 트레이닝 과정에서의 고품질 트레이닝 데이터에 대한 요구 사항을 절감한다.
제1 측면에 있어서, 본 발명은 검색 모델의 트레이닝 방법을 제공하는 바, 상기 방법은,
질의어(query) 및 상기 질의어(query)에 대응하는 관련 텍스트의 긍정 예와 관련 텍스트의 부정 예를 포함하는 초기 트레이닝 데이터를 취득하는 단계; 상기 초기 트레이닝 데이터를 이용하여 트레이닝하여 초기 검색 모델을 얻는 단계;
상기 초기 검색 모델을 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어(query)와의 관련도가 미리 설정된 제1 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예를 갱신하는 단계; 갱신 후의 트레이닝 데이터를 이용하여 트레이닝하여 제1 검색 모델을 얻는 단계;
상기 제1 검색 모델을 이용하여 상기 후보 텍스트 중에서 트레이닝 데이터 중의 질의어(query)와의 관련도가 미리 설정된 제2 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어(query)에 대응하는 관련 텍스트의 긍정 예를 확장하고, 및/또는, 상기 질의어(query)와의 관련도가 미리 설정된 제3 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예를 확장하는 단계; 및 확장 후의 트레이닝 데이터를 이용하여 트레이닝하여 제2 검색 모델을 얻는 단계를 포함한다.
제2 측면에 있어서, 본 발명은 검색 모델의 트레이닝 장치를 제공하는 바, 상기 장치는 아래의 유닛을 구비한다.
질의어(query) 및 상기 질의어(query)에 대응하는 관련 텍스트의 긍정 예와 관련 텍스트의 부정 예를 포함하는 초기 트레이닝 데이터를 취득하기 위한 초기 취득 유닛;
상기 초기 트레이닝 데이터를 이용하여 트레이닝하여 초기 검색 모델을 얻기 위한 초기 트레이닝 유닛;
상기 초기 검색 모델을 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어(query)와의 관련도가 미리 설정된 제1 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예를 갱신하기 위한 제1 갱신 유닛;
상기 제1 갱신 유닛에 의해 갱신된 트레이닝 데이터를 이용하여 트레이닝하여 제1 검색 모델을 얻기 위한 제1 트레이닝 유닛;
상기 제1 검색 모델을 이용하여 상기 후보 텍스트 중에서 트레이닝 데이터 중의 질의어(query)와의 관련도가 미리 설정된 제2 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어(query)에 대응하는 관련 텍스트의 긍정 예를 확장하고, 및/또는, 상기 질의어(query)와의 관련도가 미리 설정된 제3 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예를 확장하기 위한 제1 확장 유닛; 및
상기 제1 확장 유닛에 의해 확장된 트레이닝 데이터를 이용하여 트레이닝하여 제2 검색 모델을 얻기 위한 제2 트레이닝 유닛을 구비한다.
제3 측면에 있어서, 본 발명은 전자 기기를 제공하는 바, 상기 전자 기기는,
적어도 하나의 프로세서; 및
상기 적어도 하나의 프로세서와 통신 연결된 메모리를 구비하며,
상기 메모리에는 상기 적어도 하나의 프로세서에 의해 수행 가능한 명령이 기록되어 있으며, 상기 명령이 상기 적어도 하나의 프로세서에 의해 수행되어 상기 적어도 하나의 프로세서로 하여금 상기의 방법을 실행하도록 한다.
제4 측면에 있어서, 본 발명은 컴퓨터 명령이 기록되어 있는 비 일시적 컴퓨터 판독 가능 기록 매체를 제공하는 바,
상기 컴퓨터 명령은 상기 컴퓨터로 하여금 상기의 방법을 실행하도록 한다.
이상의 기술 방안으로부터 알 수 있듯이, 본 발명은 검색 모델을 트레이닝하는 과정에서 중간의 트레이닝하여 얻은 검색 모델을 이용하여 트레이닝 데이터 중의 부정 예 품질을 향상시키고, 또한 트레이닝 데이터 중의 긍정 예 및/또는 부정 예를 확장시킬 수 있으므로, 검색 모델의 트레이닝이 검색 효과를 보증하는 전제 하에서, 초기 취득한 고품질 트레이닝 데이터에 대한 요구 사항을 절감할 수 있다.
상기 선택적인 방식이 가지는 기타 효과는 아래에서 구체적인 실시예를 참조하여 설명하기로 한다.
도면은 본 방안을 더 잘 이해하도록 하기 위한 것이며, 본 발명에 대한 한정을 이루지 않는다.
도 1은 본 발명 실시예를 적용할 수 있는 예시적인 시스템 아키텍처를 나타낸다.
도 2는 본 발명 실시예에 의해 제공되는 검색 모델을 트레이닝하는 주요한 방법의 플로우 차트이다.
도 3은 본 발명 실시예에 의해 제공되는 검색 모델을 트레이닝하는 다른 일 방법의 플로우 차트이다.
도 4a 및 도 4b는 본 발명 실시예에 의해 제공되는 트윈 타워 모델 및 교차 주의력 모델의 구조 모식도이다.
도 5는 본 발명 실시예에 의해 제공되는 바람직한 일 실시 방식의 플로우 차트이다.
도 6a 및 도 6b는 본 발명 실시예에 의해 제공되는 트레이닝 트윈 타워 모델 및 교차 주의력 모델의 모식도이다.
도 7a는 본 발명 실시예에 의해 제공되는 검색 모델의 트레이닝 장치의 일 구조도이다.
도 7b는 본 발명 실시예에 의해 제공되는 검색 모델의 트레이닝 장치의 다른 일 구조도이다.
도 8은 본 발명 실시예를 실현하기 위한 전자 기기의 블럭도이다.
이하, 도면을 참조하여 본 발명의 시범적인 실시예를 설명하는 바, 본 발명에 대한 이해를 돕기 위해 여기에는 본 발명 실시예의 다양한 세부 사항이 포함되며, 이러한 세부 사항을 단지 시범적인 것으로 간주해야 할 것이다. 따라서, 당업자는 본 발명의 범위 및 정신을 벗어나지 않는 전제 하에서, 여기서 설명되는 실시예에 대해 다양한 변경 및 수정을 수행할 수 있음을 인식해야 한다. 마찬가지로, 명확성 및 간결성을 위하여 이하의 설명에서는 잘 알려진 기능 및 구조의 설명을 생략하였다.
도 1은 본 발명 실시예를 적용할 수 있는 예시적인 시스템 아키텍처를 나타낸다. 도 1에 나타낸 바와 같이, 상기 시스템 아키텍처는 단말 장치(101 및 102), 네트워크(103) 및 서버(104)를 포함할 수 있다. 네트워크(103)는 단말 장치(101, 102) 및 서버(104) 사이에 통신 링크의 매체를 제공한다. 네트워크(103)는 다양한 연결 유형을 포함할 수 있는 바, 예를 들면 유선 통신 링크, 무선 통신 링크 또는 광섬유 케이블 등을 포함할 수 있다.
사용자는 단말 장치(101 및 102)를 사용하여 네트워크(103)를 통해 서버(104)와 인터랙션할 수 있다. 단말 장치(101 및 102) 상에는 다양한 애플리케이션이 설치될 수 있는 바, 예를 들면 검색 유형의 애플리케이션, 음성 인터랙션 유형의 애플리케이션, 웹 브라우저 애플리케이션, 통신 유형의 애플리케이션 등이 설치될 수 있다.
단말 장치(101 및 102)는 정보 검색을 지원 및 개시하고 검색 결과를 표시할 수 있는 다양한 전자 기기일 수 있으며, 스마트 폰, 태블릿 컴퓨터, PC(Personal Computer, 개인용 컴퓨터), 스마트 스피커, 스마트 웨어러블 장치, 스마트 티비 등을 포함하나 이에 한정되지 않는다. 본 발명에 의해 제공되는 장치는 상기 서버(104)에 설치되어 운행될 수 있다. 상기 장치는 복수의 소프트웨어 또는 소프트웨어 모듈(예를 들면, 분산 서비스를 제공함)로 구현되거나, 단일 소프트웨어 또는 소프트웨어 모듈로 구현될 수 있으며, 여기서 구체적으로 한정하지 않는다.
예를 들면, 검색 모델의 트레이닝 장치는 상기 서버(104)에 설치되어 운행되며, 서버(104) 측은 본 발명에 의해 제공되는 방법을 이용하여 검색 모델을 트레이닝 한다. 단말 장치(101 또는 102)로부터 query(질의어)가 포함된 검색 요청이 수신되면, 트레이닝하여 얻은 검색 모델을 이용하여 사용자에 피드백하는 검색 결과를 결정한다. 또한 검색 결과를 단말 장치(101 또는 102)에 피드백할 수 있다.
서버(104)는 단일 서버이거나, 복수의 서버로 구성된 서버 그룹일 수 있다. 도 1의 단말 장치, 네트워크 및 서버의 수는 단지 예시적인 것임을 이해해야 한다. 구현 요구에 따라 임의의 수의 단말 장치, 네트워크 및 서버가 존재할 수 있다.
도 2는 본 발명은 실시예에 의해 제공되는 검색 모델을 트레이닝하는 주요한 방법 플로우 차트이며, 도 2에 나타낸 바와 같이, 상기 방법은 이하의 단계를 포함할 수 있다.
201에 있어서, 초기 트레이닝 데이터를 취득하되, 초기 트레이닝 데이터는 query(질의어) 및 상기 질의어(query)에 대응하는 관련 텍스트의 긍정 예와 관련 텍스트의 부정 예를 포함하며; 초기 트레이닝 데이터를 이용하여 트레이닝하여 초기 검색 모델을 얻는다.
본 발명에 있어서, 트레이닝 데이터를 초기 구축할 때, 우선 수동 라벨링 집합을 구축할 수 있으며, 즉 몇몇의 질의어(query)에 대해 각각 수동의 방식을 채용하여 후보 텍스트 중에서 상기 질의어(query)의 관련 텍스트의 긍정 예를 라벨링 함으로써, 트레이닝 데이터 중의 관련 텍스트의 긍정 예의 고품질을 보증한다. 질의어(query)에 대응하는 관련 텍스트의 부정 예는 후보 텍스트 중에서 랜덤으로 선택할 수 있으며, 랜덤으로 선택하는 수는 미리 설정된 값일 수 있는 바, 예를 들면 랜덤으로 4 개의 텍스트를 선택할 수 있다.
본 발명은 실시예에 언급되는 후보 텍스트는 구체적인 애플리케이션 분야에 관련된다. 예를 들면, 일반 웹 검색 엔진인 경우, 상기 후보 텍스트는 검색 엔진에 의해 크롤링된 대량의 웹일 수 있다. 도서 유형의 검색 엔진인 경우, 상기 후보 텍스트는 도서 데이터 베이스 중의 모든 도서 텍스트이다. 어느 구체적인 분야(예를 들면 의학 류형)의 논문인 경우, 상기 후보 텍스트는 논문 데이터 베이스 중의 대량의 논문이다. 질문 및 답변 플랫폼에 응용될 경우, 상기 후보 텍스트는 질문 및 답변 지식 베이스 중의 모든 답변에 대응하는 텍스트이다.
상기 방식 이외에, 관련 텍스트의 긍정 예는 기타 방식을 통하여 라벨링할 수도 있는 바, 예를 들면 사용자의 과거 검색 로그 중에서 취득하여 라벨링할 수 있다. 여기서 하나씩 예를 들지 않는다.
초기 트레이닝 데이터를 이용하여 초기 검색 모델의 트레이닝을 실행할 수 있으며, 본 발명에서 채용하는 검색 모델의 유형은 예를 들면 트윈 타워 모델(dual model), 교차 주의력 모델(cross attention model) 등일 수 있다. 이러한 모델의 트레이닝 과정에 대해 후속의 실시예에서 상세히 설명하기로 한다.
202에 있어서, 초기 검색 모델을 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어(query)와의 관련도가 미리 설정된 제1 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예를 갱신하며; 갱신 후의 트레이닝 데이터를 이용하여 트레이닝하여 제1 검색 모델을 얻는다.
단계 201로부터 알 수 있듯이, 트레이닝 데이터를 구축할 때, 질의어(query)의 관련 텍스트의 긍정 예는 정확한 것이지만, 질의어(query)의 관련 텍스트의 부정 예는 늘 부정확한 것이다. 그러나, 부정 예는 검색 모델의 효과에 대해 매우 큰 영향을 주기에, 본 단계는 트레이닝 데이터 중의 관련 텍스트의 부정 예의 품질을 향상시키는 처리를 하는 것이다.
정확한 관련 텍스트의 긍정 예 및 랜덤으로 선택한 관련 텍스트의 부정 예는 이미 트레이닝하여 얻은 초기 검색 모델로 하여금 일정 정도의 효과를 가지도록 하기에, 상기 초기 검색 모델을 이용하여 후보 텍스트 중에서 일부 질의어(query)의 강한 관련 부정 예를 결정하고, 상기 강한 관련 부정 예를 이용하여 트레이닝 데이터를 갱신함으로써, 트레이닝 데이터의 품질을 향상시킨다. 갱신 후의 트레이닝 데이터에 기반하여 트레이닝하여 얻은 제1 검색 모델의 효과는 더 한층 향상되었다.
그 중의 바람직한 일 실시 방식에 있어서, 본 단계에서는 초기 검색 모델을 이용하여 질의어(query)와 각 후보 텍스트 사이의 관련도를 결정하고, 관련도 점수의 상위 M1 개의 후보 텍스트 중에서 M2 개를 랜덤으로 선택하여 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예를 갱신할 수 있으며, 여기서 M1 및 M2모두 양의 정수이고, 또한 M1>M2이다.
상기 바람직한 실시 방식 이외에, 기타 방식을 채용하여 미리 설정된 제1 요구 사항을 만족하는 텍스트를 선택할 수도 있는 바, 예를 들면, 관련도 점수가 미리 설정된 임계 값보다 큰 후보 텍스트를 선택하여 질의어(query)에 대응하는 관련 텍스트의 부정 예를 갱신할 수 있다.
203에 있어서, 제1 검색 모델을 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어(query)와의 관련도가 미리 설정된 제2 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어(query)에 대응하는 관련 텍스트의 긍정 예를 확장하고, 및/또는, 상기 질의어(query )와의 관련도가 미리 설정된 제3 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예를 확장하며; 확장 후의 트레이닝 데이터를 이용하여 트레이닝하여 제2 검색 모델을 얻는다.
상기 단계 202를 거친 후, 트레이닝 데이터 중의 관련 텍스트의 부정 예의 품질을 향상시켰으나, 검색 모델의 트레이닝의 경우, 트레이닝 데이터 중의 긍정 예 및 부정 예의 수가 마찬가지로 극히 중요한 역할을 하므로, 검색 모델의 효과에 매우 큰 정도의 영향을 준다. 따라서, 본 단계는 트레이닝 데이터 중의 관련 텍스트의 긍정 예 및/또는 부정 예의 수를 확장하는 처리를 하는 것이다.
바람직한 일 실시 방식에 있어서, 본 단계에서는 우선 초기 검색 모델을 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어(query)의 관련 텍스트를 검색하고; 이어서 제1 검색 모델을 이용하여 관련 텍스트와 상기 질의어(query) 사이의 관련도를 결정하며, 관련도가 미리 설정된 제1 임계 값 이상인 텍스트를 이용하여 상기 질의어(query)에 대응하는 관련 텍스트의 긍정 예를 확장하고, 및/또는, 관련도가 미리 설정된 제2 임계 값 이하인 텍스트를 이용하여 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예를 확장할 수 있다. 여기서 제1 임계 값은 제2 임계 값보다 큰 바, 예를 들면 제1 임계 값은 0.9이고, 제2 임계 값은 0.1이다. 상기 바람직한 실시 방식을 통해, 관련 텍스트의 긍정 예 및 부정 예의 수량을 확장시켜, 트레이닝하여 얻은 검색 모델의 효과를 향상시킬 뿐만 아니라, 관련 텍스트의 부정 예의 품질을 어느 정도 향상시킴으로써, 검색 모델의 효과를 더 잘 향상시켰다.
상기 바람직한 실시 방식 이외에, 기타 실현 방식을 채용할 수도 있다. 예를 들면, 제1 검색 모델을 이용하여 관련 텍스트와 상기 질의어(query) 사이의 관련도를 결정한 후, 관련도 순위에 따라 앞에 위치하는 몇몇의 텍스트를 이용하여 상기 질의어(query)에 대응하는 관련 텍스트의 긍정 예를 확장하고, 뒤에 위치하는 몇몇의 텍스트를 이용하여 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예를 확장할 수 있다. 또한 예를 들면, 직접 제1 검색 모델을 이용하여 각 후보 텍스트와 상기 질의어(query) 사이의 관련도를 결정하고, 관련도가 미리 설정된 제1 임계 값 이상인 텍스트를 이용하여 상기 질의어(query)에 대응하는 관련 텍스트의 긍정 예를 확장하며, 관련도가 미리 설정된 제2 임계 값 이하인 텍스트를 이용하여 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예를 확장할 수 있다.
상기 실시예를 통해 제2 검색 모델을 얻은 후, 상기 제2 검색 모델을 정보 검색 용 모델로 설정할 수 있다. 예를 들면 사용자에 의해 입력된 질의어(query)를 제2 검색 모델에 입력한 후, 제2 검색 모델은 후보 텍스트 중에서 상기 질의어(query)에 대응하는 관련 텍스트를 결정할 수 있다.
또한, 초기 모델의 트레이닝 및 제1차 트레이닝 중의 제1 검색 모델 및 제2 검색 모델에 대한 트레이닝 이외에, 또한 제2차의 트레이닝을 더 한층 실행할 수 있다. 상기 과정은 도 3에 나타낸 바와 같으며, 이하의 단계를 포함할 수 있다.
단계 301~303은 도 2에 나타낸 실시예 중의 단계 201~203과 같으므로, 여기서 더 이상 설명하지 않는다.
단계 304에 있어서, 제2 검색 모델을 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어(query)와의 관련도가 미리 설정된 제4 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예를 갱신하며; 갱신 후의 트레이닝 데이터를 이용하여 트레이닝하여 제3 검색 모델을 얻는다.
본 단계는 제2 검색 모델을 이용하여 트레이닝 데이터 중의 관련 텍스트의 부정 예의 품질을 더 한층 향상시키는 과정으로서, 더 강한 부정 예를 찾을 수 있으며, 따라서 검색 모델의 상대적으로 어려운 샘플에 대한 판단에 유리하다.
바람직한 일 실시 방식에 있어서, 제2 검색 모델을 이용하여 질의어(query)와 후보 텍스트 사이의 관련도를 결정하고; 관련도 순위에 따라 N1 개의 후보 텍스트를 간격으로 N2 개의 후보 텍스트를 선택하며; 이어서 선택한 N2 개의 후보 텍스트 중에서 상기 질의어(query)에 대응하는 관련 텍스트의 긍정 예의 유사도가 미리 설정된 유사도 임계 값 이상인 후보 텍스트를 필터링한 후, 얻은 후보 텍스트를 이용하여 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예를 갱신한다. 여기서, N1 및 N2는 미리 설정된 양의 정수이다.
상기 N1 개의 후보 텍스트를 간격으로 N2 개의 후보 텍스트를 선택하는 것은, 예를 들면 10 개의 후보 텍스트를 간격으로 하나의 후보 텍스트를 선택하는 것일 수 있으며, 이러한 선택 방식은 후보 텍스트 중에 대량의 유사한 텍스트가 출현하는 정황을 효과적으로 방지할 수 있다. 이어서 선택한 텍스트에서 관련 텍스트의 긍정 예와의 유사도가 높은 후보 텍스트를 필터링하여 제거하는 바, 상기 필터링 처리의 목적은 일부 경우에 라벨링이 누락된 긍정 예가 관련 텍스트의 부정 예로 잘못 선택되어, 검색 모델의 효과에 영향을 주는 것을 방지하기 위한 것이다. 최종적으로 4 개의 관련 텍스트의 부정 예를 형성하여 트레이닝 샘플 중의 대응하는 query의 관련 텍스트의 부정 예를 교체한다.
상기 바람직한 실시 방식 이외에, 기타 방식을 채용하여 질의어(query)에 대응하는 관련 텍스트의 부정 예를 갱신할 수도 있다. 예를 들면, 제2 검색 모델을 이용하여 질의어(query)와 후보 텍스트 사이의 관련도를 결정한 후, 앞에 위치한 몇몇의 후보 텍스트를 선택하여 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예를 갱신할 수 있다.
305에 있어서, 제3 검색 모델을 이용하여 후보 텍스트 중에서 각 보충 질의어(query)와의 관련도가 미리 설정된 제5 요구 사항을 만족하는 텍스트를 각각 선택하여 각 보충 질의어(query)에 대응하는 관련 텍스트의 긍정 예를 생성하고, 및/또는, 각 보충 질의어(query)와 미리 설정된 제6 요구 사항을 만족하는 텍스트를 선택하여 각 보충 질의어(query)에 대응하는 관련 텍스트의 부정 예를 각각 생성하며; 각 보충 질의어(query)에 대응하는 관련 텍스트의 긍정 예 및/또는 관련 텍스트의 부정 예를 이용하여 트레이닝 데이터를 확장하고; 확장 후의 트레이닝 데이터를 이용하여 트레이닝하여 제4 검색 모델을 얻는다.
본 단계는 트레이닝 데이터 중의 관련 텍스트를 더 한층 확장시키는 것인 바, 관련 텍스트의 긍정 예 및/또는 관련 텍스트의 부정 예에 대한 확장을 포함하며, 따라서 검색 모델의 효과를 향상시킨다.
본 단계에서 언급되는 보충 질의어(query)는 트레이닝 데이터 중의 증가된 새로운 질의어(query)이다. 바람직한 일 실시 방식에 있어서, 본 단계에서는 우선 제2 검색 모델을 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어(query)의 관련 텍스트를 검색하고; 제3 검색 모델을 이용하여 관련 텍스트와 각 보충 질의어(query)의 유사도를 결정하며, 유사도가 미리 설정된 제1 임계 값 이상인 텍스트를 각 보충 질의어(query)에 대응하는 관련 텍스트의 긍정 예로 설정하고, 및/또는, 유사도가 미리 설정된 제2 임계 값 이하인 텍스트를 각 보충 질의어(query)에 대응하는 관련 텍스트의 부정 예로 설정한다. 예를 들면 제1 임계 값은 0.9이고, 제2 임계 값은 0.1이다.
상기 바람직한 실시 방식 이외에, 기타 실현 방식을 채용할 수도 있다. 예를 들면, 제3 검색 모델을 이용하여 관련 텍스트와 상기 질의어(query) 사이의 관련도를 결정한 후, 관련도 순위에 따라 앞에 위치하는 몇몇의 텍스트를 이용하여 상기 질의어(query)에 대응하는 관련 텍스트의 긍정 예를 확장하고, 뒤에 위치하는 몇몇의 텍스트를 이용하여 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예를 확장할 수 있다. 또한 예를 들면, 직접 제3 검색 모델을 이용하여 각 후보 텍스트와 상기 질의어(query) 사이의 관련도를 결정하고, 관련도가 미리 설정된 제1 임계 값 이상인 텍스트를 이용하여 상기 질의어(query)에 대응하는 관련 텍스트의 긍정 예를 확장하며, 관련도가 미리 설정된 제2 임계 값 이하인 텍스트를 이용하여 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예를 확장할 수 있다.
상기 실시예를 통해 제4 검색 모델을 얻은 후, 상기 제4 검색 모델을 정보 검색 용 모델로 설정할 수 있다. 예를 들면 사용자에 의해 입력된 질의어(query)를 제4 검색 모델에 입력한 후, 제4 검색 모델은 후보 텍스트 중에서 상기 질의어(query)에 대응하는 관련 텍스트를 결정할 수 있다.
또한, 상기 실시예에 있어서, 초기 검색 모델, 제2 검색 모델 및 제4 검색 모델이 같은 유형의 모델을 채용하고, 제1 검색 모델 및 제3 검색 모델이 같은 유형의 모델을 채용할 수 있다. 바람직한 일 실시 방식에 있어서, 제2 검색 모델을 트레이닝할 경우, 이미 얻은 초기 검색 모델의 기초 상에서 확장 후의 트레이닝 데이터를 이용하여 트레이닝을 더 한층 실행하여 제2 검색 모델을 얻을 수 있다. 제4 검색 모델을 트레이닝할 경우, 이미 얻은 제2 검색 모델의 기초 상에서 확장 후의 트레이닝 데이터를 이용하여 트레이닝을 더 한층 실행하여 제4 검색 모델을 얻을 수 있다. 바람직한 일 실시 방식에 있어서, 제3 검색 모델을 트레이닝할 경우, 이미 얻은 제1 검색 모델의 기초 상에서 갱신 후의 트레이닝 데이터를 이용하여 트레이닝을 더 한층 실행하여 제3 검색 모델을 얻을 수 있다.
현재 정보 검색 분야에서 자주 사용하는 모델은 주요하게 두 가지가 있다. 그 중 한 가지는 트윈 타워 모델(Dual Model)이다. 트윈 타워 모델이라고 하는 원인은, 상기 모델이 2개의 인코더를 채용하여 query 및 후보 텍스트에 대해 각각 인코딩을 실행하여, query의 벡터 표현 및 후보 텍스트의 벡터 표현을 얻고, 이어서 내적 등 방식을 통해 2개의 벡터 표현 사이의 관련도 (유사도라고도 칭함)를 계산하여 query 및 후보 텍스트의 관련성 점수로 설정하기 때문이다. 도 4a에 나타낸 바와 같이, 이러한 2개의 인코더의 구조는 트윈 타워 형식의 구조를 구현하며, 따라서 트윈 타워 모델이라 칭한다.
그 중의 다른 한 가지는 교차 주의력(Cross Attention) 모델이다. 도 4b에 나타낸 바와 같이, 소위의 교차 주의력 모델은 질의어(query)와 후보 텍스트를 스티칭한 후, 스티칭하여 얻은 텍스트에 대해 교차 주의력 메커니즘을 채용하여 단일한 인코딩을 실행한 후, 또한 인코딩 결과에 대해 매핑(Softmax)을 실행하여 질의어(query)와 후보 텍스트 사이의 관련도를 얻는다.
여기서, 교차 주의력 모델의 효과가 좋고, 정확율이 높으나, 효율이 낮다. 반면에, 트윈 타워 모델은 효율이 높으나, 효과가 교차 주의력 모델에 미치지 못한다. 이러한 2개의 모델의 각자의 특점을 고려하여, 본 발명은 바람직한 실시 방식을 제공하는 바, 상기 두 가지 모델을 본 발명에 의해 제공되는 검색 모델의 트레이닝 과정에 응용하여, 두 가지 모델의 각자의 이점을 충분히 이용한다. 이하, 구체적으로 실시예에 결합시켜 이러한 바람직한 실시 방식을 상세히 설명한다.
도 5는 본 발명은 실시예에 의해 제공되는 바람직한 일 실시 방식의 플로우 차트이며, 도 5에 나타낸 바와 같이, 상기 방식은 이하의 단계를 포함할 수 있다.
501에 있어서, 초기 트레이닝 데이터를 취득하여 Data0으로 표기한다.
본 단계에 있어서, 초기 트레이닝 데이터는 질의어(query) 및 상기 질의어(query)에 대응하는 관련 텍스트의 긍정 예와 관련 텍스트의 부정 예를 포함하되, 여기서 관련 텍스트의 긍정 예는 수동으로 라벨링되며, 관련 텍스트의 부정 예는 후보 텍스트 중에서 랜덤으로 선택된다.
본 실시예에 있어서, 2개의 집합을 구축할 수 있다. 그 중 하나는 수동 라벨링 집합인 바, 사용자에 의해 입력된 몇몇의 질의어(query)를 사전에 선택하고, 후보 텍스트 중에서 질의어(query)에 관련된 관련 텍스트의 긍정 예를 수동으로 라벨링한다. 다른 하나는 보충 질의어(query) 집합인 바, 질의어(query)만을 포함한다. 보충 질의어(query) 집합은 후속의 관련 텍스트의 긍정 예 및 부정 예를 확장하는데 사용된다.
초기 트레이닝 데이터 중의 질의어(query)에 대응하는 관련 서류의 부정 예는 후보 서류 세트 중에서 랜덤으로 선택할 수 있는 바, 예를 들면 각각의 질의어(query)에 대해 후보 서류 세트 중에서 각각 4 개의 후보 서류를 랜덤으로 선택하여 질의어(query)에 대응하는 관련 서류의 부정 예로 설정할 수 있다.
502에 있어서, 초기 트레이닝 데이터를 이용하여 트윈 타워 모델을 트레이닝하여 초기 검색 모델을 취득하여 DM0으로 표기한다.
초기 트레이닝 데이터 중의 트레이닝 데이터의 샘플 수량이 상대적으로 적으므로, 본 단계에서는 실제 상 적은 량의 부정 예 데이터를 이용하여 트레이닝을 실행한다.
트윈 타워 모델을 트레이닝할 경우, 도 6a에 나타낸 바와 같이, 트레이닝 데이터 중에 모두 n개의 트레이닝 샘플이 존재하며, <query, doc+, doc->로 나타낸다고 가정한다. 여기서, doc+ 및 doc-는 질의어(query)에 대응하는 관련 텍스트의 긍정 예와 관련 텍스트의 부정 예를 각각 나타낸다.
트윈 타워 모델은 질의어(query) 및 각 긍정 예(doc+)와 부정 예(doc-)에 대해 각각 인코딩을 실행한다. n개의 트레이닝 데이터가 있다면, 트윈 타워 모델은 질의어(query)와 2n 개의 관련 서류 사이의 관련도 각각 계산할 수 있으며, 이러한 2n 개의 관련 서류는 상기 질의어(query)에 대응하는 관련 서류의 긍정 예 및 부정 예를 포함하고, 또한 기타 질의어(query)에 대응하는 관련 서류의 긍정 예 및 부정 예를 포함한다. 트레이닝 과정에서의 트레이닝 목표는, 트윈 타워 모델이 출력한 질의어(query)와 상기 질의어(query)에 대응하는 doc+의 관련도가 상기 질의어(query)와 초기 트레이닝 데이터 중의 기타 관련 텍스트 사이의 관련도보다 큰 것이다. 다시 말하면, 질의어(query)와 이에 대응하는 doc+ 사이의 관련도가 2n 개의 관련도 중의 최대 값으로 되는 것이다.
상기 단계 501 및 502는 초기의 검색 모델 트레이닝 과정으로 볼 수 있다. 상기 과정에서 적은 량의 부정 예 데이터를 이용하였고, 또한 상기 적은 량의 부정 예 데이터가 랜덤으로 방식 선택한 것임에 감안하면, 수량이나 품질에서 모두 검색 모델로 하여금 상대적으로 좋은 효과에 달할 수 없게 하며, 따라서 후속의 적어도 한 차례의 트레이닝 과정을 더 한층 실행시켜 검색 모델의 효과를 향상시킬 필요가 있다. 본 실시예에서는 두 차례의 트레이닝을 더 실행시키는 예를 든다. 여기서 제1차 트레이닝은 이하의 단계 503~506을 포함한다.
503에 있어서, DM0를 이용하여 트레이닝 데이터 중의 각 질의어(query)의 관련 서류의 부정 예를 갱신하여, 갱신 후의 트레이닝 데이터를 생성하여 Data1으로 표기한다.
바람직한 일 실시 방식에 있어서, DM0를 이용하여 트레이닝 데이터 중의 질의어(query)와 각 후보 텍스트 사이의 관련도를 결정하고, 관련도 점수의 상위 M1 개의 후보 텍스트 중에서 M2 개를 랜덤으로 선택하여 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예를 갱신하며; 여기서 M1 및 M2 모두 양의 정수이고, 또한 M1>M2이다.
예를 들면, DM0를 이용하여 트레이닝 데이터 중의 질의어(query)와 후보 데이터 베이스 중의 각 후보 텍스트 사이의 관련도를 결정하고, 관련도 점수가 앞에 위치한 1000 개의 후보 서류를 후보 집합으로 설정한다. 각각의 질의어(query)의 경우, 그 관련 서류의 긍정 예는 여전히 수동으로 라벨링한 데이터이다. 반면에, 관련 서류의 부정예는 상기 얻은 후보 집합에서 랜덤으로 선택한 4 개이다.
정확한 관련 텍스트의 긍정 예 및 랜덤으로 선택한 관련 텍스트의 부정 예는 이미 트레이닝하여 얻은 DM0로 하여금 어느 정도의 효과를 가지게 한다. 따라서 상기 DM0를 이용하여 후보 텍스트 중에서 일부 질의어(query)의 강한 관련 부정 예를 결정하고, 상기 강한 관련 부정 예를 이용하여 트레이닝 데이터를 갱신함으로써, 트레이닝 데이터의 품질을 향상시킨다.
504에 있어서, 갱신 후의 트레이닝 데이터를 이용하여 교차 주의력 모델을 트레이닝 하여 제1 검색 모델을 얻어 CM1로 표기한다.
교차 주의력 모델을 트레이닝할 경우, 도 6b에 나타낸 바와 같이, 입력은 <query, doc+> 및 <query, doc->이며, 교차 주의력 모델은 입력된 질의어(query)와 doc (doc+ 또는 doc-)를 스티칭한 후 단일한 인코딩을 실행하여, 인코딩 결과를 질의어(query)와 doc 사이의 관련도 점수
Figure pat00001
로 softmax 매핑한다. 교차 주의력 모델의 트레이닝을 하나의 이진 분류 문제로 볼 수 있는 바, 즉 교차 주의력 모델이 출력한 관련도에 기반하여 doc에 대해 분류를 실행하며, 분류 결과는 관련과 비 관련이다. 여기서 관련에 대응하는 것은 긍정 예이고, 비 관련에 대응하는 것은 부정 예이다. 따라서, 그 트레이닝 목표는, 교차 주의력 모델이 얻은 트레이닝 데이터 중의 질의어(query)와 대응하는 doc+ 사이의 관련도가 미리 설정된 임계 값 이상인 것 및 질의어(query)와 대응하는 doc- 사이의 관련도가 미리 설정된 임계 값보다 작은 것을 포함할 수 있다. 다시 말하면, 이상적인 경우, 교차 주의력 모델의 doc+에 대한 분류 결과는 관련이고, doc-에 대한 분류 결과는 비 관련이다.
505에 있어서, CM1을 이용하여 현재 트레이닝 데이터 중의 관련 서류의 긍정 예 및 관련 서류의 부정 예를 확장하여, 확장 후의 트레이닝 데이터를 얻어 Data2로 표기한다.
바람직한 일 실시 방식에 있어서, DM0를 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어(query)의 관련 텍스트를 검색하고; CM1을 이용하여 관련 텍스트와 질의어(query) 사이의 관련도를 결정하며, 관련도가 미리 설정된 제1 임계 값 이상인 텍스트를 이용하여 상기 질의어(query)에 대응하는 관련 텍스트의 긍정 예를 확장하고, 관련도가 미리 설정된 제2 임계 값 이하인 텍스트를 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예를 확장한다. 여기서 제1 임계 값은 제2 임계 값보다 크다, 예를 들면 제1 임계 값은 0.9이도, 제2 임계 값은 0.1이다.
교차 주의력 모델 CM1의 관련도 판단이 더 정확하므로, 적절한 임계 값 설정을 통해 상대적으로 신뢰할 수 있는 관련 서류의 긍정 예 및 관련 서류의 부정 예를 선택할 수 있다. 이러한 방식으로 트레이닝 데이터를 확장하는 것은, CM1의 능력을 DM0에 맡겨 DM1을 얻는 것에 상당하며, 트윈 타워 모델의 효과를 현저히 향상시킬 수 있다.
506에 있어서, 확장 후의 트레이닝 데이터를 이용하여, DM0를 더 한층 트레이닝 하여, 제2 검색 모델을 얻어 DM1로 표기한다.
DM1은 DM0의 기초 상에서 확장 후의 트레이닝 데이터를 이용하여 더 한층 트레이닝 하여 얻은 것이다. 이러한 방식은 검색 모델을 트레이닝 하는 과정에 대해 최적화 및 가속화들 실현할 수 있다. 구체적인 트레이닝 과정은 상기 단계 502중의 DM0를 트레이닝하는 방식과 동일하므로, 여기서 더 이상 설명하지 않는다.
제2차 트레이닝 과정은 이하의 단계 507~510을 포함한다.
507에 있어서, DM1을 이용하여 트레이닝 데이터 중의 각 질의어(query)의 관련 서류의 부정 예를 갱신하여, 갱신 후의 트레이닝 데이터를 생성하여 Data3으로 표기한다.
바람직한 일 실시 방식에 있어서, DM1을 이용하여 현재 트레이닝 데이터 중의 질의어(query)와 후보 텍스트 사이의 관련도를 결정하고; 관련도 순위에 따라 N1 개의 후보 텍스트를 간격으로 N2 개의 후보 텍스트를 선택하며; 이어서 선택한 N2 개의 후보 텍스트 중에서 상기 질의어(query)에 대응하는 관련 텍스트의 긍정 예의 유사도가 미리 설정된 유사도 임계 값 이상인 후보 텍스트를 필터링한 후, 얻은 후보 텍스트를 이용하여 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예를 갱신할 수 있다. 여기서, N1 및 N2는 미리 설정된 양의 정수이다.
본 단계에서의 관련 서류의 부정 예의 선택 방식은 단계 503중의 선택 방식과 비교하면 더욱 엄격하다. DM1가 결정한 관련도에 기반하여 각 후보 서류를 소트한 후, 10 개의 후보 텍스트를 간격으로 하나를 선택할 수 있다. 이러한 처리 방식은 후보 텍스트 중에 대량의 유사한 텍스트가 출현되는 경우를 효과적으로 피할 수 있으며, 따라서 관련 텍스트의 부정 예의 품질을 향상시킬 수 있다. 이어서 선택한 후보 텍스트 중에서 질의어(query)에 대응하는 관련 텍스트의 긍정 예와 유사도가 높은 후보 텍스트를 더 한층 필터링하여 제거한다. 이러한 처리 방식은 일부 경우에 라벨링이 누락된 긍정 예가 관련 텍스트의 부정 예로 잘못 선택되어, 검색 모델의 효과에 영향을 주는 것을 효과적으로 피할 수 있다. 예를 들면, 최종적으로 4 개의 관련 서류의 부정 예를 형성하여 트레이닝 샘플 중의 대응하는 질의어(query)의 관련 텍스트의 부정 예를 교체한다. 본 단계의 처리 방식은 품질이 더 좋은 부정 예를 얻을 수 있으며, 따라서 트레이닝하여 얻은 검색 모델의 상대적으로 어려운 샘플에 대한 판단에 유리하다.
508에 있어서, 갱신 후의 트레이닝 데이터를 이용하여 CM1을 더 한층 트레이닝하여 제3 검색 모델을 얻어 CM2로 표기한다.
본 단계에서의 CM2는 이미 트레이닝된 CM1을 통해 갱신 후의 트레이닝 데이터를 이용하여 더 한층 트레이닝하여 얻은 것이다. 이러한 방식은 검색 모델의 트레이닝에 대해 최적화 및 가속화를 실현할 수 있다. 구체적인 트레이닝 과정은 상기 단계 504 중의 CM1을 트레이닝하는 과정과 유사하므로, 여기서 더 이상 설명하지 않는다.
509에 있어서, CM2를 이용하여 현재 트레이닝 데이터 중의 관련 서류의 긍정 예 및 관련 서류의 부정 예를 확장하여, 확장 후의 트레이닝 데이터를 얻어 Data4으로 표기한다.
바람직한 일 실시 방식에 있어서, DM1을 이용하여 후보 텍스트 중에서 현재 트레이닝 데이터 중의 질의어(query)의 관련 텍스트를 검색하고; CM2를 이용하여 관련 텍스트와 각 보충 질의어(query)의 유사도를 결정하며, 유사도가 미리 설정된 제1 임계 값 이상인 텍스트를 각 보충 질의어(query)에 대응하는 관련 텍스트의 긍정 예로 설정하고, 유사도가 미리 설정된 제2 임계 값 이하인 텍스트를 각 보충 질의어(query)에 대응하는 관련 텍스트의 부정 예로 설정하며; 각 보충 질의어(query)에 대응하는 관련 텍스트의 긍정 예와 관련 텍스트의 부정 예를 이용하여 트레이닝 데이터를 확장할 수 있다.
본 단계에서의 확장 방식은 단계 505와 유사하며, 차이점이라면 본 단계에서는 확장된 질의어(query) 집합을 이용하여 확장을 실행하여, 더 많은 관련 서류의 긍정 예 및 관련 서류의 부정 예를 얻는데 있으며, 따라서 더 좋은 모델 트레이닝 효과를 얻는다.
510에 있어서, 확장 후의 트레이닝 데이터를 이용하여, DM1을 더 한층 트레이닝 하여 제4 검색 모델을 얻어 DM2로 표기한다.
본 단계의 DM2의 트레이닝은, DM1의 기초 상에서 확장 후의 트레이닝 데이터를 이용하여 더 한층 트레이닝하여 얻은 것이다. 이러한 방식은 검색 모델의 트레이닝에 대한 최적화 및 가속화를 실현할 수 있다. 구체적인 트레이닝 과정은 상기 단계 506 중의 DM1을 트레이닝하는 과정과 유사하므로, 여기서 더 이상 설명하지 않는다.
이로써, 본 발명은 실시예를 통해 얻은 제4 검색 모델 DM2를 최종의 검색 모델로 설정할 수 있으며, 상기 검색 모델은, 사용자의 질의어(query)를 검색 모델에 입력한 후 상기 질의어(query)와 각 후보 텍스트 사이의 관련도를 얻고, 상기 관련도에 기반하여 질의어(query)의 관련 텍스트를 결정하는데 사용된다. 서버 측은 상기 질의어(query)의 관련 텍스트를 검색 결과로서 단말 장치에 피드백한다.
이상은 본 발명은 실시예에 의해 제공되는 방법에 대한 상세한 설명이며, 이하 실시예에 결합시켜 본 발명에 의해 제공되는 장치를 상세히 설명한다.
도 7a는 본 발명은 실시예에 의해 제공되는 검색 모델의 트레이닝 장치의 구조도인 바, 상기 장치는 서버 측의 애플리케이션에 위치하거나, 서버 측의 애플리케이션 중의 플러그인 또는 소프트웨어 개발 키트 (Software Development Kit, SDK) 등 기능 유닛에 위치하거나, 또는 비교적 강한 계산 능력을 가지는 컴퓨터 단말에 위치할 수 있으며, 본 발명 실시예는 이에 대해 특히 한정하지 않는다. 도 7에 나타낸 바와 같이, 상기 장치는 초기 취득 유닛(01), 초기 트레이닝 유닛(02), 제1 갱신 유닛(03), 제1 트레이닝 유닛(04), 제1 확장 유닛(05) 및 제2 트레이닝 유닛(06)을 포함할 수 있다. 여기서 각 구성 유닛의 주요 기능은 아래와 같다.
초기 취득 유닛(01)은, 초기 트레이닝 데이터를 취득하고, 초기 트레이닝 데이터는 질의어(query) 및 상기 질의어(query)에 대응하는 관련 텍스트의 긍정 예와 관련 텍스트의 부정 예를 포함한다.
바람직한 일 실시 방식에 있어서, 초기 트레이닝 데이터 중의 관련 텍스트의 긍정 예는 수동 라벨링을 통해 얻은 것이며, 관련 텍스트의 부정 예는 후보 텍스트 중에서 랜덤으로 선택한 것이다.
초기 트레이닝 유닛(02)은, 초기 트레이닝 데이터를 이용하여 초기 검색 모델을 트레이닝하여 얻는다.
바람직한 일 실시 방식에 있어서, 초기 트레이닝 유닛(02)은 초기 트레이닝 데이터를 이용하여 트윈 타워 모델을 트레이닝하여 초기 검색 모델을 얻을 수 있고; 트레이닝 목표는, 트윈 타워 모델이 출력한 질의어(query)와 상기 질의어(query)에 대응하는 관련 텍스트의 긍정 예 사이의 관련도가 상기 질의어(query)와 초기 트레이닝 데이터 중의 기타 관련 텍스트 사이의 관련도보다 큰 것이다.
제1 갱신 유닛(03)은, 초기 검색 모델을 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어(query)와의 관련도가 미리 설정된 제1 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예를 갱신한다.
바람직한 일 실시 방식에 있어서, 제1 갱신 유닛(03)은 초기 검색 모델을 이용하여 질의어(query)와 각 후보 텍스트 사이의 관련도를 결정하고, 관련도 점수의 상위 M1 개의 후보 텍스트 중에서 M2 개를 랜덤으로 선택하여 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예를 갱신하며, 여기서 M1 및 M2 모두 양의 정수이고, 또한 M1>M2이다.
제1 트레이닝 유닛(04)은 제1 갱신 유닛(03)에 의해 갱신된 트레이닝 데이터를 이용하여 제1 검색 모델을 트레이닝하여 얻는다.
바람직한 일 실시 방식에 있어서, 제1 트레이닝 유닛(04)은 제1 갱신 유닛(03)에 의해 갱신된 트레이닝 데이터를 이용하여 교차 주의력 모델을 트레이닝 하여 제1 검색 모델을 얻을 수 있고; 트레이닝 목표는, 교차 주의력 모델이 얻은 트레이닝 데이터 중의 질의어(query)와 상기 질의어(query)에 대응하는 관련 텍스트의 긍정 예 사이의 관련도가 미리 설정된 임계 값 이상인 것 및 질의어(query)와 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예의 관련도가 미리 설정된 임계 값보다 작은 것을 포함한다.
제1 확장 유닛(05)은 제1 검색 모델을 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어(query)와의 관련도가 미리 설정된 제2 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어(query)에 대응하는 관련 텍스트의 긍정 예를 확장하고, 및/또는, 상기 질의어(query)와의 관련도가 미리 설정된 제3 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예를 확장한다.
바람직한 일 실시 방식에 있어서, 제1 확장 유닛(05)은 초기 검색 모델을 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어(query)의 관련 텍스트를 검색하고; 제1 검색 모델을 이용하여 관련 텍스트와 상기 질의어(query) 사이의 관련도를 결정하며, 관련도가 미리 설정된 제1 임계 값 이상인 텍스트를 이용하여 상기 질의어(query)에 대응하는 관련 텍스트의 긍정 예를 확장하고, 및/또는, 관련도가 미리 설정된 제2 임계 값 이하인 텍스트를 이용하여 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예를 확장할 수 있으며, 제1 임계 값은 제2 임계 값보다 크다.
제2 트레이닝 유닛(06)은 제1 확장 유닛에 의해 확장된 트레이닝 데이터를 이용하여 제2 검색 모델을 트레이닝하여 얻는다.
바람직한 일 실시 방식에 있어서, 제2 트레이닝 유닛(06)은 제1 확장 유닛(05)에 의해 확장된 트레이닝 데이터를 이용하여, 트윈 타워 모델에 대해 트레이닝을 더 한층 실행하여 제2 검색 모델을 얻는다.
도 7b는 본 발명은 실시예에 의해 제공되는 다른 일 장치 구조 모식도이다. 본 실시예에 있어서, 상기 장치는 도 7a에 나타낸 유닛 및 구조 이외에, 제2 갱신 유닛(07), 제3 트레이닝 유닛(08), 제2 확장 유닛(09) 및 제4 트레이닝 유닛(10)을 더 구비할 수 있다.
제2 갱신 유닛(07)은, 제2 검색 모델을 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어(query)와의 관련도가 미리 설정된 제4 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예를 갱신하고; 갱신 후의 트레이닝 데이터를 이용하여 제3 검색 모델을 트레이닝 하여 얻는다.
바람직한 일 실시 방식에 있어서, 제2 갱신 유닛(07)은 제2 검색 모델을 이용하여 질의어(query)와 상기 후보 텍스트의 관련도를 결정하고; 관련도 순위에 따라 N1 개의 후보 텍스트를 간격으로 N2 개의 후보 텍스트를 선택하며; 선택한 N2 개의 후보 텍스트 중에서 상기 질의어(query)에 대응하는 관련 텍스트의 긍정 예의 유사도가 미리 설정된 유사도 임계 값 이상인 후보 텍스트를 필터링한 후, 얻은 후보 텍스트로 상기 질의어(query)에 대응하는 관련 텍스트의 부정 예를 갱신할 수 있으며, N1 및 N2는 미리 설정된 양의 정수이다.
제3 트레이닝 유닛(08)은, 제2 갱신 유닛(07)에 의해 갱신된 트레이닝 데이터를 이용하여 제3 검색 모델을 트레이닝하여 얻는다.
바람직한 일 실시 방식에 있어서, 제3 트레이닝 유닛(08)은 갱신 후의 트레이닝 데이터를 이용하여 제1 검색 모델을 더 한층 트레이닝하여 제3 검색 모델을 얻을 수 있다.
제2 확장 유닛(09)은 제3 검색 모델을 이용하여 후보 텍스트 중에서 각 보충 질의어(query)와의 관련도가 미리 설정된 제5 요구 사항을 만족하는 텍스트를 각각 선택하여 각 보충 질의어(query)에 대응하는 관련 텍스트의 긍정 예를 생성하고, 및/또는, 각 보충 질의어(query)와 미리 설정된 제6 요구 사항을 만족하는 텍스트를 선택하여 각 보충 질의어(query)에 대응하는 관련 텍스트의 부정 예를 각각 생성하며; 각 보충 질의어(query)에 대응하는 관련 텍스트의 긍정 예 및/또는 관련 텍스트의 부정 예를 이용하여 트레이닝 데이터를 확장할 수 있다.
바람직한 일 실시 방식에 있어서, 제2 확장 유닛(09)은, 제2 검색 모델을 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어(query)의 관련 텍스트를 검색하고; 제3 검색 모델을 이용하여 관련 텍스트와 각 보충 질의어(query)의 유사도를 결정하며, 유사도가 미리 설정된 제1 임계 값 이상인 텍스트를 각 보충 질의어(query)에 대응하는 관련 텍스트의 긍정 예로 설정하고, 및/또는, 유사도가 미리 설정된 제2 임계 값 이하인 텍스트를 각 보충 질의어(query)에 대응하는 관련 텍스트의 부정 예로 설정할 수 있다.
제4 트레이닝 유닛(10)은, 제2 확장 유닛(09)에 의해 확장된 트레이닝 데이터를 이용하여 제4 검색 모델을 트레이닝하여 얻는다.
바람직한 일 실시 방식에 있어서, 제4 트레이닝 유닛(10)은 확장 후의 트레이닝 데이터를 이용하여 제2 검색 모델을 더 한층 트레이닝하여 제4 검색 모델을 얻을 수 있다.
본 발명의 실시예에 따르면, 본 발명은 전자 기기 및 판독 가능 기록 매체를 더 제공한다.
도 8은 본 발명에 따른 실시예의 검색 모델의 트레이닝 방법을 실현하는 전자 기기의 블럭도이다. 전자 기기는 예를 들면 랩톱 컴퓨터, 데스크톱 컴퓨터, 워크 스테이션, 개인 디지털 보조기, 서버, 블레이드 서버, 대형 컴퓨터 및 기타 적합한 컴퓨터와 같은 다양한 형태의 디지털 컴퓨터를 나타낸다. 전자 기기는 또한 예를 들면 개인 디지털 처리기, 셀폰, 스마트 전화, 웨어러블 기기 및 기타 유사한 계산 장치와 같은 다양한 형태의 모바일 장치를 나타낼 수 있다. 본 명세서에 나타낸 구성 요소, 이들의 연결과 관계 및 이들의 기능은 단지 예일 뿐이며, 본 명세서에서 설명하거나 및/또는 요구하는 본 발명의 실현을 한정하려는 것이 아니다.
도 8에 나타낸 바와 같이, 상기 전자 기기는 하나 또는 복수의 프로세서(801), 메모리(802) 및 각 구성 요소를 연결하기 위한 인터페이스를 구비하며, 상기 인터페이스는 고속 인터페이스 및 저속 인터페이스를 포함한다. 각 구성 요소는 서로 다른 버스를 통해 상호 연결되며, 공통 마더 보드에 설치되거나 또는 수요에 따라 기타 방식으로 설치된다. 프로세서 전자 기기 내에서 수행되는 명령에 대해 처리를 실행할 수 있으며, 메모리 내에 기억되어 외부 입력/출력 장치 (예를 들면 인터페이스에 연결된 디스플레이 기기) 상에 GUI의 그래픽 정보를 표시하기 위한 명령을 포함한다. 기타 실시 방식에 있어서, 필요할 경우, 복수의 프로세서 및/또는 복수의 버스와 복수의 메모리를 함께 사용할 수 있다. 마찬가지로, 복수의 전자 기기를 연결할 수 있으며, 각 기기는 부분적인 필요한 조작 (예를 들면, 서버 어레이, 일 그룹의 블레이드 서버, 또는 다중 프로세서 시스템)을 제공한다. 도 8에서는 하나의 프로세서(801)의 예를 들었다.
메모리(802)는 본 발명에 의해 제공되는 비 일시적 컴퓨터 판독 가능 기억 매체이다. 여기서, 상기 메모리에는 적어도 하나의 프로세서에 의해 수행 가능한 명령이 기억되어 있으며, 상기 적어도 하나의 프로세서로 하여금 본 발명에 의해 제공되는 검색 모델의 트레이닝 방법을 수행하도록 한다. 본 발명의 비 일시적 컴퓨터 판독 가능 기억 매체는 컴퓨터 명령을 기억하며, 상기 컴퓨터 명령은 컴퓨터로 하여금 본 발명에 의해 제공되는 검색 모델의 트레이닝 방법을 수행하도록 한다.
메모리(802)는 일종의 비 일시적 컴퓨터 판독 가능 기억 매체로서, 비 일시적 소프트웨어 프로그램을 기억하는데 사용될 수 있는 바, 예를 들면 비 일시적 컴퓨터 수행 가능 프로그램 및 모듈, 본 발명 실시예 중의 검색 모델의 트레이닝 방법 대응하는 프로그램 명령/모듈을 기억하는데 사용될 수 있다. 프로세서(801)는 메모리(802) 내에 기억된 비 일시적 소프트웨어 프로그램, 명령 및 모듈을 운행함으로써, 서버의 다양한 기능 애플리케이션 및 데이터 처리를 수행하는 바, 즉 상술한 방법 실시예 중의 검색 모델의 트레이닝 방법을 실현한다.
메모리(802)는 프로그램 기억 영역 및 데이터 기억 영역을 포함할 수 있으며, 여기서, 프로그램 기억 영역은 운영 체제 및 적어도 하나의 기능에 필요한 응용 프로그램을 기억할 수 있고, 데이터 기억 영역은 검색 모델의 트레이닝 방법을 실현하는 전자 기기의 사용을 통해 생성된 데이터 등을 기억할 수 있다. 또한, 메모리(802)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 비 일시적 메모리를 더 포함할 수 있는 바, 예를 들면 적어도 하나의 자기 디스크 저장 장치, 플래시 장치, 또는 기타 비 일시적 고체 저장 장치를 포함할 수 있다. 일부 실시예에 있어서, 메모리(802)는 선택적으로 프로세서(801)에 대해 원격 설치한 메모리를 포함할 수 있으며, 이러한 원격 메모리는 네트워크를 통해 검색 모델의 트레이닝 방법을 실현하는 전자 기기에 연결될 수 있다. 상술한 네트워크의 실예는 인터넷, 기업 인트라 넷, 근거리 통신망, 이동 통신 네트워크 및 이들의 조합을 포함하나 이에 한정되지 않는다.
당해 전자 기기는 입력 장치(803) 및 출력 장치(804)를 더 포함할 수 있다. 프로세서(801), 메모리(802), 입력 장치(803) 및 출력 장치(804)는 버스 또는 기타 방식을 통해 연결될 수 있으며, 도 8에서는 버스를 통해 연결하는 예를 들었다.
입력 장치(803)는 입력된 디지털 또는 문자 정보를 수신하고, 또한 검색 모델의 트레이닝 방법을 실현하는 전자 기기의 사용자 설정 및 기능 제어에 관한 키 신호 입력을 생성할 수 있다. 예를 들면 터치 스크린, 키패드, 마우스, 트랙 패드, 터치 패드, 포인팅 스틱, 하나 또는 복수의 마우스 버튼, 트랙볼, 조이스틱 등 입력 장치를 포함할 수 있다. 출력 장치(804)는 디스플레이 기기, 보조 조명 장치 (예를 들면 LED) 및 촉각 피드백 장치 (예를 들면 진동 모터) 등을 포함할 수 있다. 상기 디스플레이 기기는 액정 디스플레이 (LCD), 발광 다이오드 (LED) 디스플레이 및 등 플라즈마 디스플레이를 포함할 수 있으나 이에 한정되지 않는다. 일부 실시 방식에 있어서, 디스플레이 기기는 터치 스크린일 수 있다.
여기서 설명하는 시스템 및 기술의 다양한 실시 방식은 디지털 전자 회로 시스템, 집적 회로 시스템, 전용 ASIC(전용 집적 회로), 컴퓨터 하드웨어, 펌웨어, 소프트웨어 및/또는 이들의 조합에서 실현될 수 있다. 이러한 다양한 실시예는 하나 또는 복수의 컴퓨터 프로그램에서 실시되고, 상기 하나 또는 복수의 컴퓨터 프로그램은 적어도 하나의 프로그램 가능 프로세서를 포함하는 프로그램 가능 시스템 상에서 수행 및/또는 해석될 수 있으며, 상기 프로그램 가능 프로세서는 전용 또는 일반 프로그램 가능 프로세서일 수 있고, 기억 시스템, 적어도 하나의 입력 장치 및 적어도 하나의 출력 장치로부터 데이터 및 명령을 수신할 수 있으며, 또한 데이터 및 명령을 상기 기억 시스템, 상기 적어도 하나의 입력 장치 및 상기 적어도 하나의 출력 장치에 전송할 수 있다.
이러한 계산 프로그램 (프로그램, 소프트웨어, 소프트웨어 애플리케이션 또는 코드로도 불림)은 프로그램 가능 프로세서의 기계 명령을 포함하며, 또한 고급 과정 및/또는 객체 지향 프로그래밍 언어 및/또는 어셈블리/기계 언어를 이용하여 이러한 계산 프로그램을 실시할 수 있다. 본 명세서에서 사용되는 “기계 판독 가능 매체” 및 “컴퓨터 판독 가능 매체”와 같은 용어는, 기계 명령 및/또는 데이터를 프로그램 가능 프로세서의 임의의 컴퓨터 프로그램 제품, 기기 및/또는 장치 (예를 들면, 자기 디스크, 광 디스크, 메모리, 프로그램 가능 논리 장치 (PLD))에 제공하기 위한 것을 의미하며, 기계 판독 가능 신호로서의 기계 명령을 수신하는 기계 판독 가능 매체를 포함한다. “기계 판독 가능 신호”와 같은 용어는 기계 명령 및/또는 데이터를 프로그램 가능 프로세서에 제공하기 위한 임의의 신호를 의미한다.
유저와의 대화를 제공하기 위하여, 컴퓨터 상에서 여기서 설명하는 시스템 및 기술을 실시할 수 있으며, 상기 컴퓨터는 유저에게 정보를 표시하기 위한 디스플레이 장치 (예를 들면 CRT (음극선관) 또는 LCD (액정 디스플레이) 모니터) 및 키보드와 포인팅 장치(예를 들면, 마우스 또는 트랙볼)를 구비할 수 있으며, 유저는 상기 키보드 및 상기 포인팅 장치를 통해 입력을 컴퓨터에 제공할 수 있다. 기타 유형의 장치는 또한 유저와의 대화를 제공하는데 사용될 수 있다. 예를 들면, 유저에 제공하는 피드백은 임의의 형태의 감각 피드백 (예를 들면, 시각적 피드백, 청각적 피드백, 또는 촉각 피드백)일 수 있으며, 또한 임의의 형태(음향 입력, 음성 입력 또는 촉각 입력을 포함함)를 통해 유저로부터의 입력을 수신할 수 있다.
여기서 설명하는 시스템 및 기술을 백엔드 구성 요소를 포함하는 계산 시스템 (예를 들면 데이터 서버), 또는 미들웨어 구성 요소를 포함하는 계산 시스템 (예를 들면 애플리케이션 서버), 또는 프런트 엔드 구성 요소를 포함하는 계산 시스템 (예를 들면 그래픽 유저 인터페이스 또는 웹 브라우저를 구비하는 유저 컴퓨터인 바, 유저는 상기 그래픽 유저 인터페이스 또는 상기 웹 브라우저를 통해 여기서 설명하는 시스템 및 기술의 실시 방식과 대화함), 또는 이러한 백엔드 구성 요소, 미들웨어 구성 요소, 또는 프런트 엔드 구성 요소의 임의의 조합을 포함하는 계산 시스템에서 실시할 수 있다. 임의의 형태 또는 매체의 디지털 데이터 통신 (예를 들면, 통신 네트워크)을 통해 시스템의 구성 요소를 상호 연결할 수 있다. 통신 네트워크의 예는 근거리 통신망 (LAN), 광역 통신망 (WAN) 및 인터넷을 포함한다.
컴퓨터 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트와 서버는 일반적으로 서로 멀리 떨어져 있고, 또한 일반적으로 통신 네트워크를 통해 대화를 실행한다. 해당되는 컴퓨터 상에서 운행되고, 또한 클라이언트 - 서버 관계를 갖는 컴퓨터 프로그램을 통해 클라이언트와 서버의 관계를 발생시킬 수 있다.
상기에 나타낸 다양한 형태의 흐름을 이용하여 단계를 재정열, 증가 또는 삭제할 수 있음을 이해해야 한다. 예를 들면, 본 발명에 기재된 각 단계는 병열로 수행되거나 또는 차례로 수행되거나 또는 다른 순서로 수행될 수 있으며, 본 발명이 개시하는 기술 방안이 원하는 결과를 실현할 수 있는 한, 본 명세서는 이에 대해 한정하지 않는다.
상술한 구체적인 실시 방식은 본 발명의 보호 범위를 한정하지 않는다. 당업자는 설계 요건 및 기타 요인에 따라 다양한 수정, 조합, 서브 조합 및 대체를 실행할 수 있음을 이해해야 한다. 본 발명의 정신 및 원칙 내에서 이루어진 임의의 수정 동등한 대체 및 개선 등은 모두 본 발명의 보호 범위 내에 포함되어야 한다.

Claims (25)

  1. 검색 모델의 트레이닝 방법에 있어서,
    질의어(query) 및 상기 질의어에 대응하는 관련 텍스트의 긍정 예(related text positive example)와 관련 텍스트의 부정 예(related text negative example)를 포함하는 초기 트레이닝 데이터를 취득하는 단계;
    상기 초기 트레이닝 데이터를 이용하여 트레이닝하여 초기 검색 모델을 얻는 단계;
    상기 초기 검색 모델을 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어와의 관련도가 미리 설정된 제1 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어에 대응하는 관련 텍스트의 부정 예를 갱신하는 단계;
    갱신 후의 트레이닝 데이터를 이용하여 트레이닝하여 제1 검색 모델을 얻는 단계;
    상기 제1 검색 모델을 이용하여 상기 후보 텍스트 중에서 트레이닝 데이터 중의 질의어와의 관련도가 미리 설정된 제2 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어에 대응하는 관련 텍스트의 긍정 예를 확장하고, 및/또는, 상기 질의어와의 관련도가 미리 설정된 제3 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어에 대응하는 관련 텍스트의 부정 예를 확장하는 단계; 및
    확장 후의 트레이닝 데이터를 이용하여 트레이닝하여 제2 검색 모델을 얻는 단계;를 포함하는
    검색 모델의 트레이닝 방법.
  2. 제1항에 있어서,
    상기 초기 트레이닝 데이터 중의 관련 텍스트의 긍정 예는 수동 라벨링을 통해 얻은 것이며, 관련 텍스트의 부정 예는 후보 텍스트 중에서 랜덤으로 선택한 것인
    검색 모델의 트레이닝 방법.
  3. 제1항에 있어서,
    상기 초기 트레이닝 데이터를 이용하여 트레이닝하여 초기 검색 모델을 얻는 단계는,
    상기 초기 트레이닝 데이터를 이용하여 트윈 타워 모델(dual model)을 트레이닝하여 상기 초기 검색 모델을 얻는 단계를 포함하되, 트레이닝 목표는, 상기 트윈 타워 모델이 출력한 질의어와 상기 질의어에 대응하는 관련 텍스트의 긍정 예 사이의 관련도가 상기 질의어와 상기 초기 트레이닝 데이터 중의 기타 관련 텍스트 사이의 관련도보다 큰 것을 포함하는
    검색 모델의 트레이닝 방법.
  4. 제1항에 있어서,
    상기 초기 검색 모델을 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어와의 관련도가 미리 설정된 제1 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어에 대응하는 관련 텍스트의 부정 예를 갱신하는 단계는,
    상기 초기 검색 모델을 이용하여 질의어와 각 후보 텍스트 사이의 관련도를 결정하고, 관련도 점수의 상위 M1 개의 후보 텍스트 중에서 M2 개를 랜덤으로 선택하여 상기 질의어에 대응하는 관련 텍스트의 부정 예를 갱신하는 단계를 포함하며,
    여기서 M1 및 M2 모두 양의 정수이고, 또한 M1>M2인
    검색 모델의 트레이닝 방법.
  5. 제1항에 있어서,
    상기 갱신 후의 트레이닝 데이터를 이용하여 트레이닝하여 제1 검색 모델을 얻는 단계는,
    갱신 후의 트레이닝 데이터를 이용하여 교차 주의력 모델(Cross-attention model)을 트레이닝하여 상기 제1 검색 모델을 얻는 단계를 포함하되, 트레이닝 목표는, 상기 교차 주의력 모델이 얻은 트레이닝 데이터 중의 질의어와 상기 질의어에 대응하는 관련 텍스트의 긍정 예 사이의 관련도가 미리 설정된 임계 값 이상인 것 및 질의어와 상기 질의어에 대응하는 관련 텍스트의 부정 예의 관련도가 상기 미리 설정된 임계 값 미만인 것을 포함하는
    검색 모델의 트레이닝 방법.
  6. 제5항에 있어서,
    상기 제1 검색 모델을 이용하여 상기 후보 텍스트 중에서 트레이닝 데이터 중의 질의어와의 관련도가 미리 설정된 제2 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어에 대응하는 관련 텍스트의 긍정 예를 확장하고, 및/또는, 상기 질의어와의 관련도가 미리 설정된 제3 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어에 대응하는 관련 텍스트의 부정 예를 확장하는 단계는,
    상기 초기 검색 모델을 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어의 관련 텍스트를 검색하는 단계; 및
    상기 제1 검색 모델을 이용하여 상기 관련 텍스트와 상기 질의어 사이의 관련도를 결정하고, 관련도가 미리 설정된 제1 임계 값 이상인 텍스트를 이용하여 상기 질의어에 대응하는 관련 텍스트의 긍정 예를 확장하는 단계; 및/또는, 관련도가 미리 설정된 제2 임계 값 이하인 텍스트를 이용하여 상기 질의어에 대응하는 관련 텍스트의 부정 예를 확장하는 단계를 포함하되,
    상기 제1 임계 값은 상기 제2 임계 값보다 큰
    검색 모델의 트레이닝 방법.
  7. 제3항에 있어서,
    확장 후의 트레이닝 데이터를 이용하여 트레이닝하여 제2 검색 모델을 얻는 단계는,
    상기 확장 후의 트레이닝 데이터를 이용하여 상기 트윈 타워 모델에 대해 트레이닝을 더 한층 실행하여 제2 검색 모델을 얻는 단계를 포함하는
    검색 모델의 트레이닝 방법.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,
    상기 제2 검색 모델을 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어와의 관련도가 미리 설정된 제4 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어에 대응하는 관련 텍스트의 부정 예를 갱신하는 단계;
    갱신 후의 트레이닝 데이터를 이용하여 트레이닝하여 제3 검색 모델을 얻는 단계;
    상기 제3 검색 모델을 이용하여 후보 텍스트 중에서 각 보충 질의어와의 관련도가 미리 설정된 제5 요구 사항을 만족하는 텍스트를 각각 선택하여 각 보충 질의어에 대응하는 관련 텍스트의 긍정 예를 생성하고, 및/또는, 각 보충 질의어와 미리 설정된 제6 요구 사항을 만족하는 텍스트를 선택하여 각 보충 질의어에 대응하는 관련 텍스트의 부정 예를 각각 생성하는 단계;
    상기 각 보충 질의어에 대응하는 관련 텍스트의 긍정 예 및/또는 관련 텍스트의 부정 예를 이용하여 트레이닝 데이터를 확장하는 단계; 및
    확장 후의 트레이닝 데이터를 이용하여 트레이닝하여 제4 검색 모델을 얻는 단계를 포함하는
    검색 모델의 트레이닝 방법.
  9. 제8항에 있어서,
    상기 제2 검색 모델을 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어와의 관련도가 미리 설정된 제4 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어에 대응하는 관련 텍스트의 부정 예를 갱신하는 단계는,
    상기 제2 검색 모델을 이용하여 질의어와 상기 후보 텍스트의 관련도를 결정하는 단계;
    관련도 순위에 따라 N1 개의 후보 텍스트를 간격으로 N2 개의 후보 텍스트를 선택하는 단계; 및
    선택한 상기 N2 개의 후보 텍스트 중에서 상기 질의어에 대응하는 관련 텍스트의 긍정 예의 유사도가 미리 설정된 유사도 임계 값 이상인 후보 텍스트를 필터링한 후, 얻은 후보 텍스트로 상기 질의어에 대응하는 관련 텍스트의 부정 예를 갱신하는 단계를 포함하되,
    상기 N1 및 N2는 미리 설정된 양의 정수인
    검색 모델의 트레이닝 방법.
  10. 제8항에 있어서,
    상기 제3 검색 모델을 이용하여 후보 텍스트 중에서 각 보충 질의어와의 관련도가 미리 설정된 제5 요구 사항을 만족하는 텍스트를 각각 선택하여 각 보충 질의어에 대응하는 관련 텍스트의 긍정 예를 생성하고, 및/또는, 각 보충 질의어와 미리 설정된 제6 요구 사항을 만족하는 텍스트를 선택하여 각 보충 질의어에 대응하는 관련 텍스트의 부정 예를 각각 생성하는 단계는,
    상기 제2 검색 모델을 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어의 관련 텍스트를 검색하는 단계; 및
    상기 제3 검색 모델을 이용하여 상기 관련 텍스트와 각 보충 질의어의 유사도를 결정하고, 유사도가 미리 설정된 제1 임계 값 이상인 텍스트를 각 보충 질의어에 대응하는 관련 텍스트의 긍정 예로 설정하고, 및/또는, 유사도가 미리 설정된 제2 임계 값 이하인 텍스트를 각 보충 질의어에 대응하는 관련 텍스트의 부정 예로 설정하는 단계를 포함하는
    검색 모델의 트레이닝 방법.
  11. 제8항에 있어서,
    상기 갱신 후의 트레이닝 데이터를 이용하여 트레이닝하여 제3 검색 모델을 얻는 단계는,
    갱신 후의 트레이닝 데이터를 이용하여 상기 제1 검색 모델을 더 한층 트레이닝 하여 상기 제3 검색 모델을 얻는 단계를 포함하고,
    상기 확장 후의 트레이닝 데이터를 이용하여 트레이닝하여 제4 검색 모델을 얻는 단계는,
    상기 확장 후의 트레이닝 데이터를 이용하여 상기 제2 검색 모델을 더 한층 트레이닝 하여 제4 검색 모델을 얻는 단계를 포함하는
    검색 모델의 트레이닝 방법.
  12. 검색 모델의 트레이닝 장치에 있어서,
    질의어 및 상기 질의어에 대응하는 관련 텍스트의 긍정 예와 관련 텍스트의 부정 예를 포함하는 초기 트레이닝 데이터를 취득하기 위한 초기 취득 유닛;
    상기 초기 트레이닝 데이터를 이용하여 트레이닝하여 초기 검색 모델을 얻기 위한 초기 트레이닝 유닛;
    상기 초기 검색 모델을 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어와의 관련도가 미리 설정된 제1 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어에 대응하는 관련 텍스트의 부정 예를 갱신하기 위한 제1 갱신 유닛;
    상기 제1 갱신 유닛에 의해 갱신된 트레이닝 데이터를 이용하여 트레이닝하여 제1 검색 모델을 얻기 위한 제1 트레이닝 유닛;
    상기 제1 검색 모델을 이용하여 상기 후보 텍스트 중에서 트레이닝 데이터 중의 질의어와의 관련도가 미리 설정된 제2 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어에 대응하는 관련 텍스트의 긍정 예를 확장하고, 및/또는, 상기 질의어와의 관련도가 미리 설정된 제3 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어에 대응하는 관련 텍스트의 부정 예를 확장하기 위한 제1 확장 유닛; 및
    상기 제1 확장 유닛에 의해 확장된 트레이닝 데이터를 이용하여 트레이닝하여 제2 검색 모델을 얻기 위한 제2 트레이닝 유닛;을 구비하는
    검색 모델의 트레이닝 장치.
  13. 제12항에 있어서,
    상기 초기 트레이닝 데이터 중의 관련 텍스트의 긍정 예는 수동 라벨링을 통해 얻은 것이며, 관련 텍스트의 부정 예는 후보 텍스트 중에서 랜덤으로 선택한 것인
    검색 모델의 트레이닝 장치.
  14. 제12항에 있어서,
    상기 초기 트레이닝 유닛은 구체적으로, 상기 초기 트레이닝 데이터를 이용하여 트윈 타워 모델을 트레이닝 하여 상기 초기 검색 모델을 얻되; 트레이닝 목표는, 상기 트윈 타워 모델이 출력한 질의어와 상기 질의어에 대응하는 관련 텍스트의 긍정 예 사이의 관련도가 상기 질의어와 상기 초기 트레이닝 데이터 중의 기타 관련 텍스트 사이의 관련도보다 큰 것을 포함하는
    검색 모델의 트레이닝 장치.
  15. 제14항에 있어서,
    상기 제1 갱신 유닛은 구체적으로, 상기 초기 검색 모델을 이용하여 질의어와 각 후보 텍스트 사이의 관련도를 결정하고, 관련도 점수의 상위 M1 개의 후보 텍스트 중에서 M2 개를 랜덤으로 선택하여 상기 질의어에 대응하는 관련 텍스트의 부정 예를 갱신하되, 여기서 M1 및 M2 모두 양의 정수이고, 또한 M1>M2인
    검색 모델의 트레이닝 장치.
  16. 제12항에 있어서,
    상기 제1 트레이닝 유닛은 구체적으로, 상기 제1 갱신 유닛에 의해 갱신된 트레이닝 데이터를 이용하여 교차 주의력 모델을 트레이닝 하여 상기 제1 검색 모델을 얻되, 트레이닝 목표는, 상기 교차 주의력 모델이 얻은 트레이닝 데이터 중의 질의어와 상기 질의어에 대응하는 관련 텍스트의 긍정 예 사이의 관련도가 미리 설정된 임계 값 이상인 것 및 질의어와 상기 질의어에 대응하는 관련 텍스트의 부정 예의 관련도가 상기 미리 설정된 임계 값 미만인 것을 포함하는
    검색 모델의 트레이닝 장치.
  17. 제16항에 있어서,
    상기 제1 확장 유닛은 구체적으로, 상기 초기 검색 모델을 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어의 관련 텍스트를 검색하고; 상기 제1 검색 모델을 이용하여 상기 관련 텍스트와 상기 질의어 사이의 관련도를 결정하며, 관련도가 미리 설정된 제1 임계 값 이상인 텍스트를 이용하여 상기 질의어에 대응하는 관련 텍스트의 긍정 예를 확장하고, 및/또는, 관련도가 미리 설정된 제2 임계 값 이하인 텍스트를 이용하여 상기 질의어에 대응하는 관련 텍스트의 부정 예를 확장하되, 상기 제1 임계 값은 상기 제2 임계 값보다 큰
    검색 모델의 트레이닝 장치.
  18. 제14항에 있어서,
    상기 제2 트레이닝 유닛은 구체적으로, 상기 제1 확장 유닛에 의해 확장된 트레이닝 데이터를 이용하여 상기 트윈 타워 모델에 대해 트레이닝을 더 한층 실행하여 제2 검색 모델을 얻는 단계를 포함하는
    검색 모델의 트레이닝 장치.
  19. 제12항 내지 제18항 중 어느 한 항에 있어서,
    상기 제2 검색 모델을 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어와의 관련도가 미리 설정된 제4 요구 사항을 만족하는 텍스트를 선택하여 상기 질의어에 대응하는 관련 텍스트의 부정 예를 갱신하고; 갱신 후의 트레이닝 데이터를 이용하여 제3 검색 모델을 트레이닝 하여 얻기 위한 제2 갱신 유닛;
    상기 제2 갱신 유닛에 의해 갱신된 트레이닝 데이터를 이용하여 제3 검색 모델을 트레이닝 하여 얻기 위한 제3 트레이닝 유닛;
    상기 제3 검색 모델을 이용하여 후보 텍스트 중에서 각 보충 질의어와의 관련도가 미리 설정된 제5 요구 사항을 만족하는 텍스트를 각각 선택하여 각 보충 질의어에 대응하는 관련 텍스트의 긍정 예를 생성하고, 및/또는, 각 보충 질의어와 미리 설정된 제6 요구 사항을 만족하는 텍스트를 선택하여 각 보충 질의어에 대응하는 관련 텍스트의 부정 예를 각각 생성하며; 상기 각 보충 질의어에 대응하는 관련 텍스트의 긍정 예 및/또는 관련 텍스트의 부정 예를 이용하여 트레이닝 데이터를 확장하기 위한 제2 확장 유닛; 및
    상기 제3 확장 유닛에 의해 확장된 트레이닝 데이터를 이용하여 트레이닝하여 제4 검색 모델을 얻기 위한 제4 트레이닝 유닛을 구비하는
    검색 모델의 트레이닝 장치.
  20. 제19항에 있어서,
    상기 제2 갱신 유닛은 구체적으로, 상기 제2 검색 모델을 이용하여 질의어와 상기 후보 텍스트의 관련도를 결정하고; 관련도 순위에 따라 N1 개의 후보 텍스트를 간격으로 N2 개의 후보 텍스트를 선택하며; 선택한 상기 N2 개의 후보 텍스트 중에서 상기 질의어에 대응하는 관련 텍스트의 긍정 예의 유사도가 미리 설정된 유사도 임계 값 이상인 후보 텍스트를 필터링한 후, 얻은 후보 텍스트로 상기 질의어에 대응하는 관련 텍스트의 부정 예를 갱신하되, 상기 N1 및 N2는 미리 설정된 양의 정수인
    검색 모델의 트레이닝 장치.
  21. 제19항에 있어서,
    상기 제2 확장 유닛은 구체적으로, 상기 제2 검색 모델을 이용하여 후보 텍스트 중에서 트레이닝 데이터 중의 질의어의 관련 텍스트를 검색하고; 상기 제3 검색 모델을 이용하여 상기 관련 텍스트와 각 보충 질의어의 유사도를 결정하며, 유사도가 미리 설정된 제1 임계 값 이상인 텍스트를 각 보충 질의어에 대응하는 관련 텍스트의 긍정 예로 설정하고, 및/또는, 유사도가 미리 설정된 제2 임계 값 이하인 텍스트를 각 보충 질의어에 대응하는 관련 텍스트의 부정 예로 설정하는
    검색 모델의 트레이닝 장치.
  22. 제19항에 있어서,
    상기 제3 트레이닝 유닛은 구체적으로, 상기 제2 갱신 유닛에 의해 갱신된 트레이닝 데이터를 이용하여 상기 제1 검색 모델을 더 한층 트레이닝 하여 상기 제3 검색 모델을 얻고;
    상기 제4 트레이닝 유닛은 구체적으로, 상기 제2 확장 유닛에 의해 확장된 트레이닝 데이터를 이용하여 상기 제2 검색 모델을 더 한층 트레이닝 하여 제4 검색 모델을 얻는
    검색 모델의 트레이닝 장치.
  23. 전자 기기에 있어서,
    적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 연결된 메모리를 구비하며,
    상기 메모리에는 상기 적어도 하나의 프로세서에 의해 수행 가능한 명령이 기록되어 있으며, 상기 명령이 상기 적어도 하나의 프로세서에 의해 수행되어 상기 적어도 하나의 프로세서로 하여금 제1항 내지 제11항 중 어느 한 항에 기재된 방법을 수행하도록 하는
    전자 기기.
  24. 컴퓨터 명령이 기록되어 있는 비 일시적 컴퓨터 판독 가능 기록 매체에 있어서,
    상기 컴퓨터 명령은 상기 컴퓨터로 하여금 제1항 내지 제11항 중 어느 한 항에 기재된 방법을 수행하도록 하는
    기록 매체.
  25. 비 일시적 컴퓨터 판독 가능 기록 매체에 기록되어 있는 프로그램에 있어서,
    상기 프로그램은 상기 컴퓨터로 하여금 제1항 내지 제11항 중 어느 한 항에 기재된 방법을 수행하도록 하는
    비 일시적 컴퓨터 판독 가능 기록 매체에 기록되어 있는 프로그램.
KR1020210110285A 2020-09-25 2021-08-20 검색 모델의 트레이닝 방법, 장치, 전자 기기 및 기록 매체 KR20220041721A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011023354.X 2020-09-25
CN202011023354.XA CN112148895B (zh) 2020-09-25 2020-09-25 检索模型的训练方法、装置、设备和计算机存储介质

Publications (1)

Publication Number Publication Date
KR20220041721A true KR20220041721A (ko) 2022-04-01

Family

ID=73897233

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210110285A KR20220041721A (ko) 2020-09-25 2021-08-20 검색 모델의 트레이닝 방법, 장치, 전자 기기 및 기록 매체

Country Status (5)

Country Link
US (1) US11847150B2 (ko)
EP (1) EP3975006A1 (ko)
JP (1) JP7160986B2 (ko)
KR (1) KR20220041721A (ko)
CN (1) CN112148895B (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113051368B (zh) * 2021-03-24 2023-09-22 北京百度网讯科技有限公司 双塔模型训练方法、检索方法、装置及电子设备
CN113988157B (zh) * 2021-09-30 2023-10-13 北京百度网讯科技有限公司 语义检索网络训练方法、装置、电子设备及存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5542732B2 (ja) 2010-10-29 2014-07-09 日本電信電話株式会社 データ抽出装置、データ抽出方法、及びそのプログラム
US11675795B2 (en) * 2015-05-15 2023-06-13 Yahoo Assets Llc Method and system for ranking search content
US10325224B1 (en) * 2017-03-23 2019-06-18 Palantir Technologies Inc. Systems and methods for selecting machine learning training data
JP2018194919A (ja) 2017-05-12 2018-12-06 富士通株式会社 学習プログラム、学習方法及び学習装置
CN109840588B (zh) * 2019-01-04 2023-09-08 平安科技(深圳)有限公司 神经网络模型训练方法、装置、计算机设备及存储介质
CN110490202B (zh) * 2019-06-18 2021-05-25 腾讯科技(深圳)有限公司 检测模型训练方法、装置、计算机设备和存储介质
CN110826634B (zh) * 2019-11-11 2022-12-30 北京百度网讯科技有限公司 图像目标检测模型的训练方法、装置、电子设备及存储介质
US11727269B2 (en) * 2020-01-08 2023-08-15 International Business Machines Corporation Dual model incremental learning

Also Published As

Publication number Publication date
JP2022054389A (ja) 2022-04-06
US20220100786A1 (en) 2022-03-31
US11847150B2 (en) 2023-12-19
JP7160986B2 (ja) 2022-10-25
EP3975006A1 (en) 2022-03-30
CN112148895B (zh) 2024-01-23
CN112148895A (zh) 2020-12-29

Similar Documents

Publication Publication Date Title
JP7127106B2 (ja) 質問応答処理、言語モデルの訓練方法、装置、機器および記憶媒体
US10474962B2 (en) Semantic entity relation detection classifier training
CN108369580B (zh) 针对屏幕上项目选择的基于语言和域独立模型的方法
JP7106802B2 (ja) リソースソート方法、ソートモデルをトレーニングする方法及び対応する装置
KR20220003085A (ko) 검색 결과를 결정하는 방법, 장치, 기기 및 컴퓨터 기록 매체
JP6361351B2 (ja) 発話ワードをランク付けする方法、プログラム及び計算処理システム
US11907671B2 (en) Role labeling method, electronic device and storage medium
US20210200813A1 (en) Human-machine interaction method, electronic device, and storage medium
EP3879416A1 (en) Query auto-completion method, apparatus and device, and computer storage medium
WO2021139222A1 (zh) 建立排序模型的方法、查询自动补全的方法及对应装置
US11775766B2 (en) Method and apparatus for improving model based on pre-trained semantic model
US20220129448A1 (en) Intelligent dialogue method and apparatus, and storage medium
WO2023240943A1 (zh) 生成数字人的方法、模型的训练方法、装置、设备和介质
KR102490712B1 (ko) 질문 응답 로봇 생성 방법 및 장치
KR20220041721A (ko) 검색 모델의 트레이닝 방법, 장치, 전자 기기 및 기록 매체
CN112507091A (zh) 检索信息的方法、装置、设备以及存储介质
JP7295200B2 (ja) 汎化処理方法、装置、デバイス、コンピュータ記憶媒体及びプログラム
KR102561951B1 (ko) 모델링 매개 변수의 설정 방법, 장치, 전자 기기 및 기록 매체
CN111967599B (zh) 用于训练模型的方法、装置、电子设备及可读存储介质
US20230008897A1 (en) Information search method and device, electronic device, and storage medium
CN111523019B (zh) 用于输出信息的方法、装置、设备以及存储介质
CN111353070A (zh) 视频标题的处理方法、装置、电子设备及可读存储介质
CN113742523B (zh) 文本核心实体的标注方法及装置
CN111737559B (zh) 资源排序方法、训练排序模型的方法及对应装置
CN113836276A (zh) 实现智能问答的方法和装置