KR20210151017A - 검색 모델의 훈련 방법, 목표 대상의 검색 방법 및 그 장치 - Google Patents

검색 모델의 훈련 방법, 목표 대상의 검색 방법 및 그 장치 Download PDF

Info

Publication number
KR20210151017A
KR20210151017A KR1020210163066A KR20210163066A KR20210151017A KR 20210151017 A KR20210151017 A KR 20210151017A KR 1020210163066 A KR1020210163066 A KR 1020210163066A KR 20210163066 A KR20210163066 A KR 20210163066A KR 20210151017 A KR20210151017 A KR 20210151017A
Authority
KR
South Korea
Prior art keywords
query information
data set
sample
sample data
probability
Prior art date
Application number
KR1020210163066A
Other languages
English (en)
Inventor
둥하이 비옌
웨이화 펑
위 뤄
솨이 쟝
Original Assignee
베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 filed Critical 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드
Publication of KR20210151017A publication Critical patent/KR20210151017A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • G06N5/003
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/535Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • G06F16/9024Graphs; Linked lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/957Browsing optimisation, e.g. caching or content distillation
    • G06F16/9574Browsing optimisation, e.g. caching or content distillation of access to content, e.g. by caching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 공개의 실시예는 검색 모델의 훈련 방법, 목표 대상의 검색 방법 및 그 장치에 관한 것으로, 기계 학습 분야에 관한 것이다. 상기 방법은 샘플 쿼리 정보를 기반으로 검색 모델을 훈련시키기 위한 제1 샘플 데이터 세트를 얻는 단계를 포함한다. 상기 방법은 사전 구축된 지식 베이스를 기반으로 샘플 쿼리 정보와 연관된 부가 쿼리 정보를 결정하는 단계를 더 포함할 수 있다. 또한, 상기 방법은 부가 쿼리 정보를 기반으로 검색 모델을 훈련시키기 위한 제2 샘플 데이터 세트를 얻는 단계를 더 포함할 수 있고, 제2 샘플 데이터 세트는 제1 샘플 데이터 세트와 다르다. 또한, 상기 방법은 샘플 쿼리 정보, 제1 샘플 데이터 세트 및 제2 샘플 데이터 세트를 기반으로, 검색 모델을 훈련시키는 단계를 더 포함할 수 있다. 본 공개의 기술방안은 검색 모델의 훈련을 빠르고 효율적이며 저렴하게 완성하여, 사용자 쿼리 정보와 비교적 연관성이 있는 대상을 결정할 수 있다.

Description

검색 모델의 훈련 방법, 목표 대상의 검색 방법 및 그 장치{METHOD AND APPARATUS FOR TRAINING SEARCH MODEL, AND METHOD AND APPARATUS FOR SEARCHING FOR TARGET OBJECT}
본 공개의 실시예는 주로 인공 지능 분야에 관한 것으로, 더 구체적으로, 검색 모델의 훈련 방법, 목표 대상의 검색 방법 및 그 장치, 전자 기기, 컴퓨터 판독 가능 저장 매체 및 컴퓨터 프로그램 제품에 관한 것이다.
사용자가 이미지를 검색할 때, 유사한 사용자 쿼리 정보(또는 쿼리 항목이라고 칭함, 즉 “query”)는 완전히 다른 종류를 의미할 수 있다. 예를 들면 “한국 패션 스웨터” 및 “유럽, 미국 패션 스웨터”의 경우, 문자적으로 볼 때 모두 “스웨터”라는 사용자 쿼리 정보를 검색하는 것이지만, 실질적으로 사용자는 특정 스타일의 스웨터에 더 관심이 있다. 종래의 이미지 검색 방법은 이러한 세분화된 분류에 있어서 효과적인 구현 방안이 없다. 또한, 이미지 검색 모델을 훈련시키기 위한 연관 데이터는 기본적으로 모두 포지티브 샘플 데이터이다. 따라서, 훈련된 이미지 검색을 위한 모델은 성능이 좋지 않을 수 있다.
본 공개의 예시적인 실시예는 검색 모델의 훈련 방안을 제공한다.
본 공개의 제1 측면은, 검색 모델의 훈련 방법을 제공한다. 상기 방법은 샘플 쿼리 정보를 기반으로 상기 검색 모델을 훈련시키기 위한 제1 샘플 데이터 세트를 얻는 단계를 포함할 수 있다. 상기 방법은 사전 구축된 지식 베이스를 기반으로 상기 샘플 쿼리 정보와 연관된 부가 쿼리 정보를 결정하는 단계를 더 포함할 수 있다. 또한, 상기 방법은 상기 부가 쿼리 정보를 기반으로 상기 검색 모델을 훈련시키기 위한 제2 샘플 데이터 세트를 얻는 단계를 추가로 더 포함할 수 있고, 상기 제2 샘플 데이터 세트는 상기 제1 샘플 데이터 세트와 다르다. 또한, 상기 방법은 상기 샘플 쿼리 정보, 상기 제1 샘플 데이터 세트 및 상기 제2 샘플 데이터 세트를 기반으로, 상기 검색 모델을 훈련시키는 단계를 더 포함할 수 있다.
본 공개의 제2 측면은, 검색 모델의 훈련 장치를 제공한다. 상기 장치는, 샘플 쿼리 정보를 기반으로 상기 검색 모델을 훈련시키기 위한 제1 샘플 데이터 세트를 획득하도록 구성된 제1 샘플 데이터 세트 획득 모듈; 사전 구축된 지식 베이스를 기반으로 상기 샘플 쿼리 정보와 연관된 부가 쿼리 정보를 결정하도록 구성된 부가 쿼리 정보 결정 모듈; 상기 부가 쿼리 정보를 기반으로 상기 검색 모델을 훈련시키기 위한 제2 샘플 데이터 세트를 얻도록 구성되고, 상기 제2 샘플 데이터 세트는 상기 제1 샘플 데이터 세트와 다른, 제2 샘플 데이터 세트 획득 모듈; 및 상기 샘플 쿼리 정보, 상기 제1 샘플 데이터 세트 및 상기 제2 샘플 데이터 세트를 기반으로, 상기 검색 모델을 훈련시키도록 구성된 검색 모델의 훈련 모듈;을 포함한다.
본 공개의 제3 측면은, 목표 대상의 검색 방법을 제공한다. 상기 방법은, 수신된 사용자 쿼리 정보를 기반으로 다수의 후보 목표 대상을 얻는 단계; 본 공개의 제1 측면의 방법에 따라 훈련된 상기 검색 모델을 기반으로, 상기 다수의 후보 목표 대상이 상기 사용자 쿼리 정보를 적중하는 확률을 각각 결정하는 단계; 및 확률이 임계 확률을 초과하는 후보 목표 대상을 상기 목표 대상으로 결정하는 단계;를 포함한다.
본 공개의 제4 측면은, 목표 대상의 검색 장치를 제공한다. 상기 장치는, 수신된 사용자 쿼리 정보를 기반으로 다수의 후보 목표 대상을 획득하도록 구성된 후보 목표 대상 획득 모듈; 본 공개의 제2 측면의 장치에 따라 훈련된 상기 검색 모델을 기반으로, 상기 다수의 후보 목표 대상이 상기 사용자 쿼리 정보를 적중하는 확률을 각각 결정하도록 구성된 확률 결정 모듈; 및 확률이 임계 확률을 초과하는 후보 목표 대상을 상기 목표 대상으로 결정하도록 구성된 목표 대상 결정 모듈;을 포함한다.
본 공개의 제5 측면은, 전자 기기를 제공한다. 상기 전자 기기는, 하나 또는 다수의 프로세서; 및 저장 장치를 포함하고, 상기 저장 장치는 하나 또는 다수의 프로그램을 저장하고, 하나 또는 다수의 프로그램이 하나 또는 다수의 프로세서에 의해 실행될 때, 하나 또는 다수의 프로세서로 하여금 본 공개의 제1 측면에 따른 방법을 구현하도록 한다.
본 공개의 제6 측면은, 컴퓨터 판독 가능 저장 매체를 제공한다. 상기 컴퓨터 판독 가능 저장 매체는 컴퓨터 프로그램이 저장되어 있고, 상기 프로그램이 프로세서에 의해 실행될 때 본 공개의 제1 측면에 따른 방법을 구현한다.
본 공개의 제7 측면은, 컴퓨터 프로그램 제품을 제공한다. 상기 컴퓨터 프로그램 제품은 비일시적인 컴퓨터 판독 가능 매체에 유형적으로 저장되고 또한 기계 실행 가능 명령어를 포함하고, 상기 기계 실행 가능 명령어가 실행될 때 기계로로 하여금 본 공개의 제1 측면에 따른 방법의 단계를 실행하도록 한다.
본 공개의 제8 측면은, 컴퓨터 판독 가능 저장 매체에 저장된 컴퓨터 프로그램을 제공한다. 상기 컴퓨터 프로그램은 명령을 포함하고, 상기 명령은 하나 이상의 프로세서에 의해 실행될 때 본 공개의 제1 측면의 방법을 구현한다.
발명의 내용 부분에서 설명된 내용은 본 공개 실시예의 핵심 또는 중요한 특징을 한정하기 위한 것이 아니며, 본 공개의 범위를 제한하기 위한 것이 아님을 이해해야 한다. 본 공개의 다른 특징은 아래 설명을 통해 쉽게 이해될 것이다.
도면을 결합하고 아래의 상세한 설명을 참고하면, 본 공개의 각 실시예의 상술한 내용과 그 밖의 다른 특징, 장점 및 측면이 더욱 명백해질 것이다. 도면에서, 동일하거나 유사한 도면 부호는 동일하거나 유사한 요소를 나타낸다. 그 중,
도 1은 본 공개의 다수의 실시예가 구현될 수 있는 예시 환경의 개략도를 나타낸다.
도 2는 본 공개의 실시예에 따른 상세한 예시 환경의 개략도를 나타낸다.
도 3은 본 공개의 일부 실시예에 따른 지식 그래프의 개략도를 나타낸다.
도 4는 본 공개의 실시예에 따른 검색 모델을 훈련시키는 프로세스의 흐름도를 나타낸다.
도 5는 본 공개의 실시예에 따른 목표 대상을 검색하는 프로세스의 흐름도를 나타낸다.
도 6은 본 공개의 실시예에 따른 검색 모델의 훈련 장치의 블록도를 나타낸다.
도 7은 본 공개의 다수의 실시예를 실시 가능한 컴퓨팅 기기의 블록도를 나타낸다.
이하, 도면을 참고하여 본 공개의 실시예를 더 상세히 설명한다. 비록 본 공개의 일부 실시예를 도면에 나타냈으나, 본 공개는 다양한 형태로 구현될 수 있으며, 여기서 기술된 실시예에 한정되는 것으로 해석해서는 안되며, 오히려 이들 실시예를 제공하는 것은 본 공개를 보다 투철하고 완전하게 이해시키기 위한 것임을 이해해야 한다. 본 공개의 도면과 실시예는 단지 예시적 기능을 할 뿐이지, 본 공개의 범위를 한정하는 것이 아님을 이해해야 한다.
본 공개 실시예의 설명에서, 용어 “포함” 및 이와 유사한 용어는 개방성 포함 즉, “포함하나 이에 한정하지 않는다”로 이해해야 한다. 용어 “기반으로”는 “적어도 부분적으로 기반으로”로 이해해야 한다. 용어 “하나의 실시예” 또는 “당해 실시예”는 “적어도 하나의 실시예”로 이해해야 한다. 용어 “제1” 및 “제2” 등은 서로 다르거나 또는 동일한 대상을 가리킬 수 있다. 아래에서 기타 명시적 또는 암시적 정의도 포함할 수 있다.
종래의 이미지 검색 방법은 일반적으로 서버 측에서 사용자가 입력한 사용자 쿼리 정보를 수신하고, 서버 측에 위치한 검색 엔진이 상기 쿼리 정보를 기반으로 다수의 후보 이미지를 검색하고, 이들 이미지와 사용자 쿼리 정보를 사전 훈련된 검색 모델에 모두 입력하여, 상기 검색 모델을 이용하여 사용자 쿼리 정보와 비교적 연관성이 있는 하나 또는 다수의 이미지를 결정하여 사용자에게 표시한다.
종래의 이미지 검색 방법은 적어도 다음과 같은 단점이 있다. 첫째, 상기 다수의 후보 이미지는 모두 대응하는 사용자 쿼리 정보를 기반으로 검색하여 얻은 것이므로, 상기 검색 모델을 훈련시키기 위한 데이터 세트는 모두 상기 사용자 쿼리 정보와 연관된 포지티브 샘플 데이터 세트이다. 일부 훈련 방법은 다른 샘플 데이터 세트를 포함하고, 상기 다른 샘플 데이터 세트 자체는 포지티브 샘플 데이터 세트와 관련이 없으며 입도가 조대하여, 훈련된 모델의 성능이 불안정하고 예측 결과가 충분히 정확하지 않다. 또한, 종래의 이미지 검색 방법은 미세 입도 검색에 적합하지 않고, 검색 결과도 일반적으로 사용자에게 만족스럽지 않다.
상기에서 언급한 바와 같이, 검색 모델, 특히 이미지 검색 모델의 훈련을 빠르고 효율적이며 저렴하게 완성하는 모델 훈련 방법이 시급히 필요하고, 상기 모델을 이용하여 사용자 쿼리 정보와 비교적 연관성이 있는 하나 또는 다수의 이미지를 결정하는 것이 필요하다.
본 공개의 실시예는 모델 훈련 방안을 제공한다. 상기 방안은, 사용자 쿼리 정보에 대해 자동으로 수직적 지식 그래프를 구성하는 것을 통해, 포지티브 예가 있는 경우에만 이미지를 고정밀도로 세분화하고, 동시에 역전 쌍(Count Inversions) 학습 방식으로 검색 방안의 수렴 속도와 예측 정확도를 높일 수 있다. 구체적으로, 본 공개의 검색 모델의 훈련 방법은, 사용자가 입력한 사용자 쿼리 정보를 기반으로 모델을 훈련시키기 위한 포지티브 샘플 데이터 세트를 결정하는 단계; 사전에 결정된 지식 그래프를 기반으로 상기 쿼리 항목의 연관 항목을 결정하고, 상기 연관 항목을 기반으로 모델을 훈련시키기 위한 네거티브 샘플 데이터 세트를 결정하는 단계;를 포함할 수 있다. 이를 바탕으로, 상기 포지티브 샘플 데이터 세트 및 상기 네거티브 샘플 데이터 세트를 검색 모델의 훈련 데이터 세트로 사용할 수 있다. 또한, 본 공개의 실시예는 상기 방법으로 훈련된 검색 모델을 이용하여 검색 대상(예를 들면 이미지 등)을 검색하는 것을 더 포함할 수 있다.
이하, 도면을 참조하여 본 공개의 실시예를 상세하게 설명한다. 도 1은 본 공개의 다수의 실시예가 구현될 수 있는 예시 환경(100)의 개략도를 나타낸다. 도 1에 도시된 바와 같이, 예시 환경(100)은 사용자 쿼리 정보(110), 컴퓨팅 기기(120) 및 컴퓨팅 기기(120)에 의해 예측되는 목표 대상(130)을 포함한다.
사용자 쿼리 정보(110)는 네트워크 플랫폼의 수많은 사용자 중 하나 또는 다수의 사용자가 입력한 쿼리 정보일 수 있다. 이해해야 할 것은, 본 명세서에서 언급한 “사용자 쿼리 정보(110)” 및 “쿼리 정보”는 모두 사용자가 입력한 키워드 정보 또는 사용자가 입력한 텍스트 정보로부터 추출된 키워드 정보를 의미한다. 본 공개에서, 키워드 정보는 주로 개념어 정보 및 수식어 정보를 포함한다. 일부 실시예에서, 의존성 구문 분석 모델과 같은 의미 인식 모델을 기반으로, 사용자가 입력한 텍스트 정보로부터 개념어 정보 및 수식어 정보와 같은 키워드 정보를 추출하여, 사용자 쿼리 정보(110)를 결정할 수 있다.
이후, 컴퓨팅 기기(120)는 컴퓨팅 기기(120)에 로딩된 기계 학습 모델과 같은 인공 지능 네트워크를 통해 사용자 쿼리 정보(110)에 대응하는 목표 대상(130)을 결정할 수 있다. 여기서, 목표 대상(130)은 사용자 쿼리 정보(110)에 대응하는 이미지일 수 있거나, 또는 비디오, 웹 페이지와 같은 웹 검색 엔진을 기반으로 검색될 수 있는 대상일 수 있다. 예를 들면, 컴퓨팅 기기(120)는 다수의 후보 이미지로부터 사용자 쿼리 정보(110)와 비교적 연관성이 있는 하나 또는 다수의 목표 이미지를 결정하여, 목표 대상(130)으로 사용자에게 표시할 수 있다.
이하에서는 기계 학습 모델을 예로 들어 도 2를 참조하여 컴퓨팅 기기(120) 중의 모델의 훈련 및 사용을 설명할 것이다.
도 2는 본 공개의 실시예에 따른 상세한 예시 환경(200)의 개략도를 나타낸다. 도 1과 유사하게, 예시 환경(200)은 컴퓨팅 기기(220), 사용자 쿼리 정보(210) 및 목표 대상(230)을 포함할 수 있다. 차이점은, 예시 환경(200)은 전반적으로 모델 훈련 시스템(260) 및 모델 적용 시스템(270)을 포함할 수 있다. 예시로, 모델 훈련 시스템(260) 및/또는 모델 적용 시스템(270)은 도 1에 도시된 컴퓨팅 기기(120) 또는 도 2에 도시된 컴퓨팅 기기(220)에서 구현될 수 있다. 이해해야 할 것은, 예시적인 목적으로 예시 환경(200)의 구조 및 기능을 설명했을 뿐 본 명세서에 설명된 주제 범위를 제한하기 위한 것은 아니다. 본 명세서에서 설명한 주제는 다양한 구조 및/또는 기능에서 실시될 수 있다.
상술한 바와 같이, 사용자 쿼리 정보(210)를 기반으로 검색된 다수의 후보 목표 대상에서 사용자 쿼리 정보(210)와 비교적 연관성이 있는 하나 또는 다수의 목표 대상을 선택하는 프로세스는, 모델 훈련 단계 및 모델 적용 단계의 두 단계로 나눌 수 있다. 예시로, 모델 훈련 단계에서, 모델 훈련 시스템(260)은 훈련 데이터 세트(250)를 이용하여, 확률을 결정하는 모델(240)을 훈련시킬 수 있다. 모델 적용 단계에서, 모델 적용 시스템(270)은 훈련된 모델(240)을 수신하여, 모델(240)에 의해, 사용자 쿼리 정보(210) 및 컴퓨팅 기기(220)에 의해 검색된 다수의 후보 목표 대상을 기반으로 사용자 쿼리 정보(210)와 비교적 연관성이 있는 목표 대상(230)을 결정할 수 있다. 이해해야 할 것은, 훈련 데이터 세트(250)는 샘플 쿼리 정보 및 이와 연관된 포지티브, 네거티브 샘플 데이터 세트일 수 있다.
기타 실시예에서, 모델(240)은 학습 네트워크로 구축될 수 있다. 일부 실시예에서, 상기 학습 네트워크는 다수의 네트워크를 포함할 수 있고, 각 네트워크는 다중 신경망일 수 있고, 많은 수의 뉴런으로 구성될 수 있다. 훈련 프로세서를 통해, 각 네트워크에서 뉴런의 해당 매개 변수를 결정할 수 있다. 이러한 네트워크에서 뉴런의 매개 변수는 모델(240)의 매개 변수라고 총칭한다.
모델(240)의 훈련 프로세스는 반복적으로 실행 가능하다. 구체적으로, 모델 훈련 시스템(260)은 훈련 데이터 세트(250)로부터 샘플 데이터를 획득하고, 상기 샘플 데이터를 이용하여 훈련 프로세스의 1회 반복을 수행하여, 모델(240)의 해당 매개 변수를 업데이트할 수 있다. 모델 훈련 시스템(260)은 훈련 데이터 세트(250) 중의 다수의 샘플 데이터를 기반으로 모델(240)의 매개 변수 중의 적어도 일부 매개 변수가 수렴될 때까지 또는 소정의 반복 횟수에 도달할 때까지, 상기 프로세스를 실행하여, 최종적인 모델 매개 변수를 획득할 수 있다.
이해해야 할 것은, 본 공개는 샘플 쿼리 정보를 기반으로 포지티브 샘플 데이터 세트(예를 들면, 샘플 쿼리 정보에 기반하여 다수의 이미지를 검색하여 포지티브 샘플 데이터 세트로 사용함)를 결정할 수 있을 뿐만 아니라, 상기 샘플 쿼리 정보와 연관된 부가 쿼리 정보를 기반으로, 더 나아가 부가 쿼리 정보를 기반으로 네거티브 샘플 데이터 세트를 결정하여, 훈련 데이터 세트를 확장할 수 있다. 도 2에서, 모델(240)의 훈련 프로세스의 핵심 중 하나는, 부가 쿼리 정보의 결정은 지식 베이스를 기반으로 구현되는 것이다. 이해해야 할 것은, 지식 베이스는 지식 그래프와 같은 방대한 정보 데이터 베이스일 수 있다. 예시로, 지식 베이스는 인터넷 상의 방대한 텍스트 정보 또는 관련 기구의 내부 텍스트 정보에 기반하여 지식 그래프 형태로 생성될 수 있다. 이하에서는 지식 그래프 형태의 지식 베이스를 상세하게 설명한다.
도 3은 본 공개의 일부 실시예에 따른 지식 그래프(300)의 개략도를 나타낸다. 도 3은 다수의 노드 및 각 노드를 연결하여 노드 간의 관계를 나타내기 위한 다수의 링크를 포함한다. 예를 들면, 노드(310)는 “의류”와 같은 특정 개념어 또는 수식어를 나타낼 수 있다. 도 3에 도시된 바와 같이, 노드(310)를 제외하고도, 지식 그래프(300)는 노드(320, 321, 322, 330, 331 및 332) 등을 더 포함한다. 예를 들면, 노드(320)는 "슈즈”와 같은 노드(310)의 하나의 하위 개념어를 나타낼 수 있고, 노드(330)는 “하이힐”과 같은 노드(320)의 하나의 하위 개념어를 나타낼 수 있고, 노드(331)는 “플랫 슈즈”와 같은 노드(320)의 다른 하나의 하위 개념어를 나타낼 수 있다. 이와 유사하게, 노드(321)는 "바지”와 같은 노드(310)의 다른 하나의 하위 개념어를 나타낼 수 있고, 노드(332)는 “캐주얼 바지”와 같은 노드(321)의 하나의 하위 개념어를 나타낼 수 있고, 노드(322)는 “스커트”와 같은 노드(310)의 또 하나의 하위 개념어를 나타낼 수 있다. 지식 그래프(300)는 이러한 방식으로 각 노드 간의 관계를 설명하기 위한 것이다.
지식 그래프(300)가 생성된 후, 컴퓨팅 기기(120)는 지식 그래프(300)로부터 임의의 노드와 연관된 상위 노드 또는 하위 노드, 또는 다른 연관 노드를 결정할 수 있다. 예를 들면, 샘플 쿼리 정보가 “하이힐”인 경우, “하이힐”에 대응하는 노드(330)를 기반으로 그 상위 노드(320)(즉, 부가 쿼리 정보인 "슈즈") 및 노드(320)의 다른 하위 노드(331)(즉, 부가 쿼리 정보인 "플랫 슈즈")를 결정할 수 있다. 결정된 연관 노드 및 그에 대응하는 부가 쿼리 정보를 기반으로, 컴퓨팅 기기(120)는 다수의 부가 후보 목표 대상을 검색하여, 모델(240)을 훈련시키기 위한 네거티브 샘플 데이터 세트로 사용할 수 있다. 따라서, 샘플 쿼리 정보 및 결정된 포지티브 샘플 데이터 세트 및 네거티브 샘플 데이터 세트를 기반으로 모델(240)을 훈련시킬 수 있다.
상술한 기술방안은 예시일 뿐이며, 본 발명을 제한하지 않는다. 또한 다른 방식 및 연결 관계에 따라 각 네트워크를 배치할 수도 있음을 이해해야 할 것이다. 상술한 방안의 원리를 보다 정확하게 해석하기 위해, 이하에서는 도 4를 참조하여 모델(240)의 훈련 프로세스를 더 상세하게 설명한다.
도 4는 본 공개의 실시예에 따른 검색 모델을 훈련시키는 프로세스(400)의 흐름도를 나타낸다. 일부 실시예에서, 프로세스(400)는 도 1의 컴퓨팅 기기(120) 및 도 2의 컴퓨팅 기기(220)에서 구현될 수 있다. 도 4를 참조하여 본 공개의 실시예에 따른 모델의 훈련 프로세스(400)를 설명한다. 이해의 편의를 위해, 이하 설명에서 언급한 구체적인 실시예는 모두 예시적인 것으로, 본 공개의 보호 범위를 한정하기 위한 것은 아니다.
단계 402에서, 컴퓨팅 기기(220)는 샘플 쿼리 정보를 기반으로 검색 모델을 훈련시키기 위한 제1 샘플 데이터 세트를 얻을 수 있다. 이미지 검색 모델의 훈련을 예로 들면, 컴퓨팅 기기(220)는 샘플 쿼리 정보를 수신한 후, 네트워크에서 다수의 이미지를 검색할 수 있고, 이러한 이미지는 이미지 검색 모델을 훈련시키는 제1 샘플 데이터 세트의 일부로 사용될 수 있다. 이해해야 할 것은, 제1 샘플 데이터 세트는 포지티브 샘플 데이터 세트이다.
단계 404에서, 컴퓨팅 기기(220)는 사전 구축된 지식 베이스를 기반으로 샘플 쿼리 정보와 연관된 부가 쿼리 정보를 결정할 수 있다. 이해해야 할 것은, 상기 지식 베이스는 지식 그래프(300) 또는 기타 데이터 베이스일 수 있다. 지식 베이스가 지식 그래프(300)인 경우, 샘플 쿼리 정보와 연관된 부가 쿼리 정보를 결정하기 위해, 컴퓨팅 기기(220)는 샘플 쿼리 정보 중의 키워드를 얻고, 지식 그래프(300)에서 상기 키워드와 연결 관계가 있는 부가 키워드를 결정하여, 상기 부가 키워드를 기반으로 부가 쿼리 정보를 결정할 수 있다. 이러한 방식으로, 본 공개는 지식 그래프를 이용하여 네거티브 샘플 데이터 세트를 구축할 수 있고, 상기 네거티브 샘플 데이터 세트와 포지티브 샘플 데이터 세트는 상이하지만 밀접한 관련이 있으므로, 모델 훈련을 위해 고품질의 훈련 데이터 세트를 제공한다.
이해해야 할 것은, 지식 그래프(300)는 상기 다수의 노드 및 이러한 노드를 연결하기 위한 다수의 링크를 포함하고, 이러한 링크는 노드 간의 관계를 나타낸다.
일부 실시예에서, 지식 그래프(300)로부터 부가 키워드를 결정하기 위해, 컴퓨팅 기기(220)는 먼저 지식 그래프(300)에서 “키 노드”의 상위 노드를 결정할 수 있다. 여기서, 상기 "키 노드"는 지식 그래프(300)에서 샘플 쿼리 정보 중의 키워드에 대응하는 노드이다. 예시로, 키워드가 “하이힐”인 경우, 먼저 지식 그래프(300)에서 키워드 “하이힐”이 위치한 노드(330)를 결정할 수 있다. 이로써, 적어도 노드(330)의 상위 노드(320)를 결정할 수 있다. 이해해야 할 것은, 각 노드에 대응하는 키워드는 개념어일 수 있다. 대안적으로 또는 부가적으로, 키워드는 또한 개념어의 수식어일 수도 있다. 이후, 컴퓨팅 기기(220)는 상기 다수의 링크 중 상위 노드(320)와 연결된 링크를 기반으로, 상위 노드(320)와 연관된, 노드(330) 이외의 다른 하위 노드(331)를 결정할 수 있다. 예시로, 컴퓨팅 기기(220)는 상기 상위 노드(320)의 다른 하위 노드(331)를 결정할 수 있다. 컴퓨팅 기기(220)는 노드(320, 331) 중의 적어도 하나의 노드의 대응하는 키워드를 부가 키워드로 결정할 수 있다. 이에 따라 부가 쿼리 정보로서 “슈즈” 및 “플랫 슈즈”를 결정할 수 있다. 이러한 방식으로, 포지티브 샘플 데이터 세트와 연관된 네거티브 샘플 데이터 세트를 결정할 수 있고, 상기 네거티브 샘플 데이터 세트는 참고 가치가 크다.
일부 실시예에서, 사전 구축된 지식 그래프(300)가 존재하지 않는 경우, 본 공개는 샘플 쿼리 정보로부터 관련된 개념어, 수식어, 컨텍스트, 동의어 등 정보를 발굴하여 지식 그래프를 생성할 수 있다. 예시로, 샘플 쿼리 정보에 대해 의존 구문 분석을 진행하여, 관련된 개념어, 수식어를 얻고, 대응 관계를 레이블링할 수 있다. 개념어 또는 수식어에 대해, 기존의 개념 그래프를 사용하여 상기 개념어 또는 수식어에 대응하는 상위어, 하위어 및 동의어, 반의어 등을 얻는다. 마지막으로, 상기 결과를 기반으로 지식 그래프(300)를 생성한다.
단계 406에서, 컴퓨팅 기기(220)는 부가 쿼리 정보를 기반으로, 검색 모델을 훈련시키기 위한 제2 샘플 데이터 세트를 얻을 수 있다. 이해해야 할 것은, 제2 샘플 데이터 세트는 네거티브 샘플 데이터 세트이다. 예시로, 컴퓨팅 기기(220)는 노드(320, 331) 중 적어도 하나의 노드의 대응하는 키워드를 부가 키워드로 결정할 수 있다. 이후, 예를 들면 부가 키워드 “플랫 슈즈”를 기반으로 다수의 이미지를 검색해낼 수 있고, 이러한 이미지는 “하이힐”은 아니지만 하이힐과 밀접한 관련이 있다. 이러한 방식으로, 검색 모델의 훈련을 위해 충분하고 고품질의 네거티브 샘플 데이터 세트를 제공할 수 있다.
일부 실시예에서, 네거티브 샘플 데이터 세트의 데이터 양을 추가로 확장시키기 위해, 지식 그래프(300)로부터 키워드의 노드와 연관된 더 많은 기타 노드를 선택하고, 이러한 노드를 기반으로 검색된 이미지를 네거티브 샘플 데이터 세트로 결정할 수 있다. 그러나, 모델 훈련의 샘플의 불균형을 방지하기 위해, 각 노드와 상기 키 노드의 상관 관계 점수를 기반으로 다수의 네거티브 샘플 데이터 세트의 레벨을 정할 수 있다.
예시로, 컴퓨팅 기기(220)는 키워드와 부가 키워드의 경로 거리를 결정할 수 있다. 여기서, 경로 거리는 키워드와 부가 키워드 사이의 링크의 수를 가리킨다. 예를 들면, 노드(330)와 노드(320) 간의 링크의 수는 1이므로, 키워드 “하이힐”과 부가 키워드 “슈즈”의 경로 거리는 1이다. 또 예를 들면, 노드(330)와 노드(331) 간의 링크의 수가 2이므로, 키워드 “하이힐”과 부가 키워드 “플랫 슈즈”의 경로 거리는 2이다. 이해해야 할 것은, 경로 거리가 2보다 큰 부가 키워드가 더 있다. 이러한 방식으로, 모델 훈련 개발자는 경로 거리를 기반으로 연관성이 낮은 네거티브 샘플을 버릴 수 있다.
포지티브 및 네거티브 샘플의 불균형 문제 및 모델 학습 능력이 저하되는 문제를 방지하기 위해, 컴퓨팅 기기(220)는 각 레벨의 네거티브 샘플 데이터에 대해 동적 샘플링을 진행하여, 모델 훈련에 사용할 수 있다. 일부 실시예에서, 경로 거리가 임계 값 경로 거리보다 작거나 같은 경우, 부가 쿼리 정보를 기반으로 네거티브 샘플 데이터 세트를 얻을 수 있다. 바람직하게는, 모델 학습의 초기 단계에서, 각각의 분류된 레벨에 대해, 1:1의 비율로 각 레벨의 네거티브 샘플 데이터를 사용하여 샘플링 및 학습을 진행할 수 있고, 모델 학습의 중간 단계에서, 연관성 점수가 낮은 네거티브 샘플 데이터 세트를 제거하고, 나머지 3개 또는 4개 레벨의 네거티브 샘플 데이터를 사용하여 샘플링 및 학습을 진행할 수 있으며, 모델 학습의 마지막 단계에서, 연관성 점수가 가장 높은 하나 또는 2개 레벨의 네거티브 샘플 데이터만을 사용하여 샘플링 및 학습을 진행할 수 있다. 이해해야 할 것은, 상기 훈련 프로세스에서, 각 레벨의 데이터 세트의 선택은 랜덤이고, 바람직하게는, 상기 방법을 참조하여 모델의 정확도 변화가 1% 미만이 될 때까지 여러 차례 훈련을 진행할 수 있다.
이로써, 각 노드와 키 노드의 연관성 점수를 결정하는 것을 통해, 키워드와 연관성이 높은 부가 키워드에 대응하는 이미지를 우선적으로 선택하여 네거티브 샘플 데이터 세트로 사용함으로써, 훈련 데이터 세트의 품질을 최적화할 수 있다.
단계 408에서, 컴퓨팅 기기(220)는 상기 샘플 쿼리 정보, 네거티브 샘플 데이터 세트 및 포지티브 샘플 데이터 세트를 기반으로 검색 모델을 훈련시킬 수 있다. 예시로, 본 공개는 역전 쌍 방식을 사용하여 훈련 프로세스를 최적화한다. 예를 들면, 컴퓨팅 기기(220)는 샘플 쿼리 정보와 포지티브 샘플 데이터 세트 중의 포지티브 샘플에 기반하여 상기 포지티브 샘플이 샘플 쿼리 정보를 적중하는 제1 확률을 결정하고, 또한 샘플 쿼리 정보와 네거티브 샘플 데이터 세트 중의 네거티브 샘플에 기반하여 네거티브 샘플이 샘플 쿼리 정보를 적중하는 제2 확률을 결정할 수 있다. 이후, 제1 확률과 제2 확률을 비교하고, 제1 확률이 제2 확률보다 작으면, 즉 포지티브 샘플이 샘플 쿼리 정보를 적중하는 확률이 네거티브 샘플이 샘플 쿼리 정보를 적중하는 확률보다 작으면, 상기 모델에 큰 오차가 있음을 의미하므로, 검색 모델의 매개 변수를 더 최적화하여, 업데이트된 제1 확률이 업데이트된 제2 확률보다 클 때까지 제1 확률 및 제2 확률을 업데이트할 수 있다.
구체적으로, 손실 함수를 개선하는 방식으로 훈련 프로세서를 최적화할 수 있다. 예를 들면, 크로스 엔트로피 형식으로 다음과 같은 제1 손실 함수를 정의할 수 있다.
Figure pat00001
(1)
여기서 label이 포지티브 샘플이면 1이고, 그렇지 않으면 0이고, p는 예측 결과가 포지티브 샘플이 될 확률이다.
또한, 다음과 같은 제2 손실 함수를 추가로 정의하여 역전 쌍을 기반으로 한 학습을 구현할 수 있다.
Figure pat00002
(2)
여기서 Ppos는 예측 결과가 포지티브 샘플이 될 확률이고, Pneg는 예측 결과가 네거티브 샘플이 될 확률이다. 또한 margin은 0.1로 설정될 수 있다. 다시 말하면, 예측 결과가 네거티브 샘플이 될 확률이 예측 결과가 포지티브 샘플이 될 확률보다 크거나 같으면, 예측 결과에 오류가 있음을 의미하고, 이때 제2 손실 함수(Lloss-2)는 0보다 큰 값이 부여되고, 모델의 매개 변수에 대한 추가적인 최적화를 수행한다.
대안적으로 또는 부가적으로, 다음과 같은 제2 손실 함수를 정의하여 역전 쌍을 기반으로 한 학습을 구현할 수도 있다.
Figure pat00003
(3)
Figure pat00004
(4)
여기서 Ppos는 예측 결과가 포지티브 샘플이 될 확률이고, Pneg는 예측 결과가 네거티브 샘플이 될 확률이다. 또한
Figure pat00005
는 0.1으로 설정될 수 있고, v는 5로 설정될 수 있다.
상기 2개의 손실 함수에 대해 예를 들어 가중 평균을 계산하여, 최적화된 목표 손실 함수를 얻을 수 있다.
Figure pat00006
(5)
상기 실시예를 통해, 본 공개는 훈련을 최적화하기 위한 목표 손실 함수를 설계하였다. 종래의 손실 함수와 비교하여, 본 공개의 목표 손실 함수는 포지티브 샘플이 샘플 쿼리 정보를 적중하는 확률이 임계 확률보다 큰지를 판단할 뿐만 아니라, 포지티브 샘플이 샘플 쿼리 정보를 적중하는 확률과 네거티브 샘플이 샘플 쿼리 정보를 적중하는 확률을 비교함으로써, 모델의 훈련 프로세스를 더 세밀하고 정확하게 구현한다.
도 5는 본 공개의 실시예에 따른 목표 대상을 검색하는 프로세스(500)의 흐름도를 나타낸다. 일부 실시예에서, 프로세스(500)는 도 1의 컴퓨팅 기기(120) 및 도 2의 컴퓨팅 기기(220)에서 구현될 수 있다. 도 5를 참조하여 본 공개의 실시예에 따른 목표 대상을 검색하는 프로세스(500)를 설명한다. 이해의 편의를 위해, 이하 설명에서 언급된 구체적인 실시예는 모두 예시적인 것이고, 본 공개의 보호 범위를 제한하기 위한 것은 아니다.
도 5에 도시된 바와 같이, 단계 502에서, 컴퓨팅 기기(220)는 수신된 사용자 쿼리 정보(210)를 기반으로 다수의 후보 목표 대상을 얻을 수 있다. 컴퓨팅 기기(220)는 서버 측에 설치될 수 있고, 컴퓨팅 기기(220)에는 사용자 쿼리 정보(210)를 기반으로 후보 목표 대상을 얻기 위한 검색 모듈이 구성되어 있다. 또한, 컴퓨팅 기기(220)에는 도 4를 참고하여 설명한 방법으로 훈련된 모델(240)이 더 구성되어 있다.
단계 504에서, 컴퓨팅 기기(220)는 모델(240)을 이용하여 다수의 후보 목표 대상이 사용자 쿼리 정보(210)를 적중하는 확률을 각각 결정할 수 있다. 또한 단계 506에서, 컴퓨팅 기기(220)는 확률이 임계 확률을 초과하는 후보 목표 대상을 목표 대상(230)으로 결정할 수 있다.
일부 실시예에서, 목표 대상은 이미지, 비디오, 웹 페이지 또는 기타 텍스트를 기반으로 검색 가능한 대상일 수 있다.
이러한 방식으로, 모델(240)을 통해 사용자에게 더 정확한 검색 결과를 제공할 수 있어 사용자의 경험을 전반적으로 향상시킨다.
도 6은 본 공개의 실시예에 따른 검색 모델의 훈련 장치(600)의 블록도를 나타낸다. 도 6에 도시된 바와 같이, 장치(600)는, 샘플 쿼리 정보를 기반으로 상기 검색 모델을 훈련시키기 위한 제1 샘플 데이터 세트를 획득하도록 구성된 제1 샘플 데이터 세트 획득 모듈(602); 사전 구축된 지식 베이스를 기반으로 상기 샘플 쿼리 정보와 연관된 부가 쿼리 정보를 결정하도록 구성된 부가 쿼리 정보 결정 모듈(604); 상기 부가 쿼리 정보를 기반으로 상기 검색 모델을 훈련시키기 위한 제2 샘플 데이터 세트를 얻도록 구성되되, 상기 제2 샘플 데이터 세트는 상기 제1 샘플 데이터 세트와 다른 제2 샘플 데이터 세트 획득 모듈(606); 및 상기 샘플 쿼리 정보, 상기 제1 샘플 데이터 세트 및 상기 제2 샘플 데이터 세트를 기반으로, 상기 검색 모델을 훈련시키도록 구성된 검색 모델의 훈련 모듈(608);을 포함할 수 있다.
일부 실시예에서, 상기 지식 베이스는 지식 그래프이고, 상기 부가 쿼리 정보 결정 모듈은, 상기 샘플 쿼리 정보 중의 키워드를 획득하도록 구성된 키워드 획득 모듈; 상기 지식 그래프로부터 상기 키워드와 연결 관계가 있는 부가 키워드를 결정하도록 구성된 부가 키워드 획득 모듈; 및 상기 부가 키워드를 기반으로 상기 부가 쿼리 정보를 결정하도록 구성된 정보 획득 모듈;을 포함할 수 있다.
일부 실시예에서, 상기 지식 그래프는 다수의 노드 및 상기 다수의 노드를 연결하기 위한 다수의 링크를 포함하고, 상기 다수의 링크는 상기 다수의 노드 간의 관계를 나타내고, 상기 부가 키워드 획득 모듈은, 상기 지식 그래프에서의 상기 키워드의 대응하는 키 노드의 상위 노드를 결정하도록 구성된 상위 노드 결정 모듈; 상기 다수의 링크 중 상기 상위 노드에 연결된 링크를 기반으로 상기 상위 노드와 연관된 적어도 하나의 노드를 얻도록 구성되되, 상기 적어도 하나의 노드는 상기 키 노드와 다른 부가 노드 결정 모듈; 및 상기 적어도 하나의 노드의 대응하는 키워드를 상기 부가 키워드로 결정하도록 구성된 부가 키워드 결정 모듈;을 포함할 수 있다.
일부 실시예에서, 상기 부가 쿼리 정보 결정 모듈은, 상기 키워드와 상기 부가 키워드의 경로 거리를 결정하도록 구성되되, 상기 경로 거리는 상기 키워드와 상기 부가 키워드 간의 링크의 수인 경로 거리 결정 모듈을 더 포함할 수 있다.
일부 실시예에서, 상기 제2 샘플 데이터 세트 획득 모듈은, 상기 경로 거리가 임계 값 경로 거리보다 작거나 같은 것에 대한 응답으로, 상기 부가 쿼리 정보를 기반으로 상기 제2 샘플 데이터 세트를 얻도록 구성된 데이터 세트 획득 모듈을 포함할 수 있다.
일부 실시예에서, 상기 검색 모델의 훈련 모듈은, 상기 샘플 쿼리 정보와 상기 제1 샘플 데이터 세트 중의 제1 샘플에 기반하여, 상기 제1 샘플이 상기 샘플 쿼리 정보를 적중하는 제1 확률을 결정하도록 구성된 제1 확률 결정 모듈; 상기 샘플 쿼리 정보와 상기 제2 샘플 데이터 세트 중의 제2 샘플에 기반하여, 상기 제2 샘플이 상기 샘플 쿼리 정보를 적중하는 제2 확률을 결정하도록 구성된 제2 확률 결정 모듈; 및 상기 제1 확률이 상기 제2 확률보다 작거나 같은 것에 대한 응답으로, 상기 검색 모델의 매개 변수를 최적화하여, 상기 제1 확률 및 상기 제2 확률을 업데이트함으로써, 업데이트된 상기 제1 확률이 업데이트된 상기 제2 확률보다 크도록 구성된 매개 변수 최적화 모듈;을 포함할 수 있다.
일부 실시예에서, 상기 키워드는 개념어 또는 상기 개념어의 수식어이다.
일부 실시예에서, 상기 제1 샘플 데이터 세트 및 상기 제2 샘플 데이터 세트는 모두 이미지 데이터 세트이다.
일부 실시예에서, 상기 제1 샘플 데이터 세트는 포지티브 샘플 데이터 세트이고, 상기 제2 샘플 데이터 세트는 네거티브 샘플 데이터 세트이다.
도 7은 본 공개의 다수의 실시예를 실시 가능한 컴퓨팅 기기(700)의 블록도를 나타낸다. 기기(700)는 도 1의 컴퓨팅 기기(120) 또는 도 2의 컴퓨팅 기기(220)를 구현하는 데 사용될 수 있다. 도시한 바와 같이, 기기(700)는 중앙처리 유닛(CPU, 701)을 포함하며, 롬(ROM, 702)에 저장된 컴퓨터 프로그램 명령 또는 저장 유닛(708)으로부터 램(RAM, 703)에 로딩된 컴퓨터 프로그램 명령에 따라, 다양한 적절한 동작과 처리를 수행할 수 있다. RAM(703)에는 기기(700)의 동작에 필요한 다양한 프로그램과 데이터가 저장될 수도 있다. CPU(701), ROM(702) 및 RAM(703)은 버스(704)를 통해 서로 연결된다. 입/출력(I/O) 인터페이스(705)도 버스(704)에 연결된다.
기기(700) 중의 다수의 부품은 I/O 인터페이스(705)에 연결되고, 키보드, 마우스 등과 같은 입력 유닛(706); 다양한 유형의 모니터, 스피커 등과 같은 출력 유닛(707); 디스크, 시디롬 등과 같은 저장 유닛(708); 및 NIC 카드, 모뎀, 무선 통신 송수신기 등과 같은 통신 유닛(709)을 포함한다. 통신 유닛(709)은 기기(700)가 인터넷과 같은 컴퓨터 네트워크와/또는 다양한 전신 네트워크를 통해 다른 기기와 정보 및/또는 데이터를 교환할 수 있도록 한다.
처리 유닛(701)은 위에서 설명한 각 방법과 처리, 예를 들어 프로세스(400), 프로세스(500)를 수행한다. 예를 들어, 일부 실시예에서, 프로세스(400), 프로세스(500)는 컴퓨터 소프트웨어 프로그램으로 구현되고, 기계 판독가능 저장 매체(예를 들어 저장 유닛(708))에 유형적으로 포함될 수 있다. 일부 실시예에서, 컴퓨터 프로그램의 일부 또는 전체는 ROM(702) 및/또는 통신 유닛(709)을 통해 기기(700)에 로딩 및/또는 설치될 수 있다. 컴퓨터 프로그램이 RAM(703)에 로딩되어 CPU(701)에 의해 수행되는 경우, 위에서 설명한 프로세스(400), 프로세스(500)의 하나 또는 다수의 단계를 수행할 수 있다. 대안적으로, 다른 실시예에서 CPU(701)는 기타 임의의 적절한 방식을 통해(예를 들어, 펌웨어를 통해), 프로세스(400), 프로세스(500)를 수행하도록 구성될 수 있다.
본 명세서에서 위에서 설명한 기능은 적어도 부분적으로 하나 또는 다수의 하드웨어 논리 부품에 의해 수행될 수 있다. 예를 들어, 사용할 수 있는 시범 유형의 하드웨어 논리 부품은 현장 프로그래밍 가능 게이트 어레이(FPGA), 주문형 반도체(ASIC), 주문형 표준 제품(ASSP), 시스템 온 칩 시스템(SOC) 및 복잡한 프로그래밍 가능 논리 소자(CPLD) 등을 비제한적으로 포함한다.
본 공개의 방법을 실시하는 프로그램 코드는 하나 또는 다수의 프로그래밍 언어의 임의의 조합으로 작성될 수 있다. 이들 프로그램 코드는 범용 컴퓨터, 전용 컴퓨터 또는 기타 프로그래밍 가능한 데이터 처리 장치의 프로세서나 컨트롤러에 제공되어, 프로그램 코드가 프로세서 또는 컨트롤러에 의해 실행될 때, 흐름도 및/또는 블록도에 규정된 기능/조작이 실시되도록 할 수 있다. 프로그램 코드는 완전히 기계에서 실행되거나, 부분적으로 기계에서 실행될 수 있으며, 독립적인 소프트웨어 패키지로서 부분적으로 기계에서 실행되고 부분적으로 원격 기계에서 실행되거나, 완전히 원격 기계나 서버 상에서 실행될 수 있다.
본 공개의 문맥 상, 기계 판독가능 저장 매체는 유형의 매체일 수 있으며, 명령 실행 시스템, 장치 또는 기기가 사용하거나 또는 명령 실행 시스템, 장치 또는 기기와 결합되어 사용되는 프로그램을 포함하거나 저장할 수 있다. 기계 판독가능 저장 매체는 기계 판독가능 신호 매체 또는 기계 판독가능 저장 매체일 수 있다. 기계 판독가능 저장 매체는 전기, 자기, 광학, 전자기, 적외선 또는 반도체 시스템, 장치 또는 기기, 또는 이들의 임의의 적합한 조합을 포함할 수 있으나 이에 한정하지 않는다. 기계 판독가능 매체의 더 구체적인 예시는 하나 또는 다수의 선에 의한 전기적 연결, 휴대용 컴퓨터 디스크, 하드 디스크, 램(RAM), 롬(ROM), 이피롬(EPROM) 또는 플래시 메모리, 광섬유, 휴대용 컴팩트 디스크 판독 전용 메모리(CD-ROM), 광학 저장 기기, 자기 저장 기기 또는 이들의 임의의 적합한 조합을 포함할 수 있다.
또한, 특정 순서로 각 동작을 설명하였으나, 이는 원하는 결과를 얻기 위해서는 이러한 동작이 예시된 특정 순서 또는 순차적 순서로 수행되도록 요구하거나 또는 모든 도시된 동작이 수행되도록 요구하는 것으로 이해해서는 안된다. 일정한 환경에서 멀티 태스킹과 병렬 처리가 유리할 수 있다. 마찬가지로, 비록 위의 설명에 일부 구체적인 구현 세부 사항이 포함되어 있으나, 이는 본 공개의 범위를 제한하는 것으로 해석되어서는 안된다. 개별적인 실시예의 문맥에서 설명된 일부 특징은 또한 개별적 구현에서 조합하여 구현될 수 있다. 반대로, 개별적 구현의 문맥에서 설명된 다양한 특징은 다수의 구현에서 개별적으로 또는 임의의 적절한 부분 조합의 방식으로 구현될 수도 있다.
비록 구조 특징과/또는 방법의 논리적 동작에 특화한 언어로 본 발명의 주제를 설명하였지만, 후술되는 특허청구범위에서 한정한 주제가 반드시 위에서 설명된 특정 특징 또는 동작에 한정되는 것이 아님을 이해해야 한다. 반대로, 위에서 설명한 특정 특징과 동작은 특허청구범위를 구현하는 예시적인 형태일 뿐이다.

Claims (25)

  1. 검색 모델의 훈련 방법에 있어서,
    샘플 쿼리 정보를 기반으로 상기 검색 모델을 훈련시키기 위한 제1 샘플 데이터 세트를 얻는 단계;
    사전 구축된 지식 베이스를 기반으로 상기 샘플 쿼리 정보와 연관된 부가 쿼리 정보를 결정하는 단계;
    상기 부가 쿼리 정보를 기반으로 상기 검색 모델을 훈련시키기 위한 제2 샘플 데이터 세트를 얻되, 상기 제2 샘플 데이터 세트는 상기 제1 샘플 데이터 세트와 다른 단계;
    상기 샘플 쿼리 정보, 상기 제1 샘플 데이터 세트 및 상기 제2 샘플 데이터 세트를 기반으로 상기 검색 모델을 훈련시키는 단계;를 포함하는, 검색 모델의 훈련 방법.
  2. 제1항에 있어서,
    상기 지식 베이스는 지식 그래프이고, 상기 지식 베이스를 기반으로 상기 샘플 쿼리 정보와 연관된 상기 부가 쿼리 정보를 결정하는 단계는,
    상기 샘플 쿼리 정보 중의 키워드를 얻는 단계;
    상기 지식 그래프로부터 상기 키워드와 연결 관계가 있는 부가 키워드를 결정하는 단계; 및
    상기 부가 키워드를 기반으로 상기 부가 쿼리 정보를 결정하는 단계;를 포함하는, 검색 모델의 훈련 방법.
  3. 제2항에 있어서,
    상기 지식 그래프는 다수의 노드 및 상기 다수의 노드를 연결하기 위한 다수의 링크를 포함하고, 상기 다수의 링크는 상기 다수의 노드 간의 관계를 나타내고, 상기 지식 그래프로부터 상기 부가 키워드를 결정하는 단계는,
    상기 지식 그래프에서의 상기 키워드의 대응하는 키 노드의 상위 노드를 결정하는 단계;
    상기 다수의 링크 중 상기 상위 노드에 연결된 링크를 기반으로, 상기 상위 노드와 연관된 적어도 하나의 노드를 얻되, 상기 적어도 하나의 노드는 상기 키 노드와 다른 단계; 및
    상기 적어도 하나의 노드의 대응하는 키워드를 상기 부가 키워드로 결정하는 단계;를 포함하는, 검색 모델의 훈련 방법.
  4. 제3항에 있어서,
    상기 지식 베이스를 기반으로 상기 샘플 쿼리 정보와 연관된 상기 부가 쿼리 정보를 결정하는 단계는,
    상기 키워드와 상기 부가 키워드의 경로 거리를 결정하되, 상기 경로 거리는 상기 키워드와 상기 부가 키워드 간의 링크의 수인 단계를 더 포함하는, 검색 모델의 훈련 방법.
  5. 제4항에 있어서,
    상기 부가 쿼리 정보를 기반으로 상기 검색 모델을 훈련시키기 위한 상기 제2 샘플 데이터 세트를 얻는 단계는,
    상기 경로 거리가 임계 값 경로 거리보다 작거나 같은 것에 대한 응답으로, 상기 부가 쿼리 정보를 기반으로 상기 제2 샘플 데이터 세트를 얻는 단계를 포함하는, 검색 모델의 훈련 방법.
  6. 제1항에 있어서,
    상기 검색 모델을 훈련시키는 단계는,
    상기 샘플 쿼리 정보와 상기 제1 샘플 데이터 세트 중의 제1 샘플에 기반하여, 상기 제1 샘플이 상기 샘플 쿼리 정보를 적중하는 제1 확률을 결정하는 단계;
    상기 샘플 쿼리 정보와 상기 제2 샘플 데이터 세트 중의 제2 샘플에 기반하여, 상기 제2 샘플이 상기 샘플 쿼리 정보를 적중하는 제2 확률을 결정하는 단계; 및
    상기 제1 확률이 상기 제2 확률보다 작거나 같은 것에 대한 응답으로, 상기 검색 모델의 매개 변수를 최적화하여 상기 제1 확률 및 상기 제2 확률을 업데이트하되, 업데이트된 상기 제1 확률이 업데이트된 상기 제2 확률보다 크도록 하는 단계를 포함하는, 검색 모델의 훈련 방법.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서,
    상기 키워드는 개념어 또는 상기 개념어의 수식어인, 검색 모델의 훈련 방법.
  8. 제1항 내지 제6항 중 어느 한 항에 있어서,
    상기 제1 샘플 데이터 세트 및 상기 제2 샘플 데이터 세트는 모두 이미지 데이터 세트인, 검색 모델의 훈련 방법.
  9. 제1항 내지 제6항 중 어느 한 항에 있어서,
    상기 제1 샘플 데이터 세트는 포지티브 샘플 데이터 세트이고, 상기 제2 샘플 데이터 세트는 네거티브 샘플 데이터 세트인, 검색 모델의 훈련 방법.
  10. 목표 대상의 검색 방법에 있어서,
    수신된 사용자 쿼리 정보를 기반으로 다수의 후보 목표 대상을 얻는 단계;
    제1항 내지 제9항 중 어느 한 항에 따른 방법으로 훈련된 상기 검색 모델을 기반으로, 상기 다수의 후보 목표 대상이 상기 사용자 쿼리 정보를 적중하는 확률을 각각 결정하는 단계; 및
    확률이 임계 확률을 초과하는 후보 목표 대상을 상기 목표 대상으로 결정하는 단계;를 포함하는, 목표 대상의 검색 방법.
  11. 제10항에 있어서,
    상기 목표 대상은 이미지인, 목표 대상의 검색 방법.
  12. 검색 모델의 훈련 장치에 있어서,
    샘플 쿼리 정보를 기반으로 상기 검색 모델을 훈련시키기 위한 제1 샘플 데이터 세트를 획득하도록 구성된 제1 샘플 데이터 세트 획득 모듈;
    사전 구축된 지식 베이스를 기반으로 상기 샘플 쿼리 정보와 연관된 부가 쿼리 정보를 결정하도록 구성된 부가 쿼리 정보 결정 모듈;
    상기 부가 쿼리 정보를 기반으로 상기 검색 모델을 훈련시키기 위한 제2 샘플 데이터 세트를 획득하도록 구성되되, 상기 제2 샘플 데이터 세트는 상기 제1 샘플 데이터 세트와 다른 제2 샘플 데이터 세트 획득 모듈; 및
    상기 샘플 쿼리 정보, 상기 제1 샘플 데이터 세트 및 상기 제2 샘플 데이터 세트를 기반으로, 상기 검색 모델을 훈련시키도록 구성된 검색 모델의 훈련 모듈;을 포함하는, 검색 모델의 훈련 장치.
  13. 제12항에 있어서,
    상기 지식 베이스는 지식 그래프이고, 상기 부가 쿼리 정보 결정 모듈은,
    상기 샘플 쿼리 정보 중의 키워드를 획득하도록 구성된 키워드 획득 모듈;
    상기 지식 그래프로부터 상기 키워드와 연결 관계가 있는 부가 키워드를 결정하도록 구성된 부가 키워드 획득 모듈; 및
    상기 부가 키워드를 기반으로 상기 부가 쿼리 정보를 결정하도록 구성된 정보 획득 모듈;을 포함하는, 검색 모델의 훈련 장치.
  14. 제13항에 있어서,
    상기 지식 그래프는 다수의 노드 및 상기 다수의 노드를 연결하기 위한 다수의 링크를 포함하고, 상기 다수의 링크는 상기 다수의 노드 간의 관계를 나타내고, 상기 부가 키워드 획득 모듈은,
    상기 지식 그래프에서의 상기 키워드의 대응하는 키 노드의 상위 노드를 결정하도록 구성된 상위 노드 결정 모듈;
    상기 다수의 링크 중 상기 상위 노드에 연결된 링크를 기반으로 상기 상위 노드와 연관된 적어도 하나의 노드를 얻도록 구성되되, 상기 적어도 하나의 노드는 상기 키 노드와 다른, 부가 노드 결정 모듈; 및
    상기 적어도 하나의 노드의 대응하는 키워드를 상기 부가 키워드로 결정하도록 구성된 부가 키워드 결정 모듈;을 포함하는, 검색 모델의 훈련 장치.
  15. 제14항에 있어서,
    상기 부가 쿼리 정보 결정 모듈은,
    상기 키워드와 상기 부가 키워드의 경로 거리를 결정하도록 구성되는 경로 거리 결정 모듈을 더 포함하고, 상기 경로 거리는 상기 키워드와 상기 부가 키워드 간의 링크의 수인, 검색 모델의 훈련 장치.
  16. 제15항에 있어서,
    상기 제2 샘플 데이터 세트 획득 모듈은,
    상기 경로 거리가 임계 값 경로 거리보다 작거나 같은 것에 대한 응답으로, 상기 부가 쿼리 정보를 기반으로 상기 제2 샘플 데이터 세트를 얻도록 구성된 데이터 세트 획득 모듈을 포함하는, 검색 모델의 훈련 장치.
  17. 제12항에 있어서,
    상기 검색 모델의 훈련 모듈은,
    상기 샘플 쿼리 정보와 상기 제1 샘플 데이터 세트 중의 제1 샘플에 기반하여, 상기 제1 샘플이 상기 샘플 쿼리 정보를 적중하는 제1 확률을 결정하도록 구성된 제1 확률 결정 모듈;
    상기 샘플 쿼리 정보와 상기 제2 샘플 데이터 세트 중의 제2 샘플에 기반하여, 상기 제2 샘플이 상기 샘플 쿼리 정보를 적중하는 제2 확률을 결정하도록 구성된 제2 확률 결정 모듈; 및
    상기 제1 확률이 상기 제2 확률보다 작거나 같은 것에 대한 응답으로, 상기 검색 모델의 매개 변수를 최적화하여, 상기 제1 확률 및 상기 제2 확률을 업데이트하여, 업데이트된 상기 제1 확률이 업데이트된 상기 제2 확률보다 크도록 구성된 매개 변수 최적화 모듈;을 포함하는, 검색 모델의 훈련 장치.
  18. 제12항 내지 제17항 중 어느 한 항에 있어서,
    상기 키워드는 개념어 또는 상기 개념어의 수식어인, 검색 모델의 훈련 장치.
  19. 제12항 내지 제17항 중 어느 한 항에 있어서,
    상기 제1 샘플 데이터 세트 및 상기 제2 샘플 데이터 세트는 모두 이미지 데이터 세트인, 검색 모델의 훈련 장치.
  20. 제12항 내지 제17항 중 어느 한 항에 있어서,
    상기 제1 샘플 데이터 세트는 포지티브 샘플 데이터 세트이고, 상기 제2 샘플 데이터 세트는 네거티브 샘플 데이터 세트인, 검색 모델의 훈련 장치.
  21. 목표 대상의 검색 장치에 있어서,
    수신된 사용자 쿼리 정보를 기반으로 다수의 후보 목표 대상을 획득하도록 구성된 후보 목표 대상 획득 모듈;
    제12항 내지 제20항 중 어느 한 항에 따른 장치에 의해 훈련된 상기 검색 모델을 기반으로, 상기 다수의 후보 목표 대상이 상기 사용자 쿼리 정보를 적중하는 확률을 각각 결정하는 확률 결정 모듈; 및
    확률이 임계 확률을 초과하는 후보 목표 대상을 상기 목표 대상으로 결정하도록 구성된 목표 대상 결정 모듈;을 포함하는, 목표 대상의 검색 장치.
  22. 제21항에 있어서,
    상기 목표 대상은 이미지인 목표 대상의 검색 장치.
  23. 전자 기기에 있어서,
    하나 또는 다수의 프로세서; 및
    하나 또는 다수의 프로그램을 저장하는 저장 장치;를 포함하고,
    상기 하나 또는 다수의 프로그램이 상기 하나 또는 다수의 프로세서에 의해 수행되는 경우, 상기 하나 또는 다수의 프로세서가 제1항 내지 제9항 중 어느 한 항에 따른 방법을 구현하는 전자 기기,
  24. 컴퓨터 프로그램이 저장되어 있는 컴퓨터 판독가능 저장매체에 있어서,
    상기 프로그램이 프로세서에 의해 수행되는 경우, 제1항 내지 제9항 중 어느 한 항에 따른 방법을 구현하는 컴퓨터 판독가능 저장매체.
  25. 컴퓨터 판독가능 저장매체에 저장되어 있는 컴퓨터 프로그램에 있어서,
    상기 컴퓨터 프로그램은 명령을 포함하고,
    상기 명령은 적어도 하나의 프로세서에 의해 수행되는 경우, 제1항 내지 제9항 중 어느 한 항에 따른 방법을 구현하는, 컴퓨터 프로그램 제품.
KR1020210163066A 2020-11-24 2021-11-24 검색 모델의 훈련 방법, 목표 대상의 검색 방법 및 그 장치 KR20210151017A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011330182.0A CN112328891B (zh) 2020-11-24 2020-11-24 训练搜索模型的方法、搜索目标对象的方法及其装置
CN202011330182.0 2020-11-24

Publications (1)

Publication Number Publication Date
KR20210151017A true KR20210151017A (ko) 2021-12-13

Family

ID=74322328

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210163066A KR20210151017A (ko) 2020-11-24 2021-11-24 검색 모델의 훈련 방법, 목표 대상의 검색 방법 및 그 장치

Country Status (5)

Country Link
US (1) US20220083874A1 (ko)
EP (1) EP3937029A3 (ko)
JP (1) JP2022024102A (ko)
KR (1) KR20210151017A (ko)
CN (1) CN112328891B (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114329051A (zh) * 2021-12-31 2022-04-12 腾讯科技(深圳)有限公司 数据信息识别方法、装置、设备、存储介质及程序产品
CN117312395A (zh) * 2023-11-28 2023-12-29 深圳格隆汇信息科技有限公司 基于大数据大模型的查询系统优化方法、装置及设备

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113590645B (zh) * 2021-06-30 2022-05-10 北京百度网讯科技有限公司 搜索方法、装置、电子设备及存储介质
CN114676227B (zh) * 2022-04-06 2023-07-18 北京百度网讯科技有限公司 样本生成方法、模型的训练方法以及检索方法
CN115205757B (zh) * 2022-07-28 2024-04-16 阿里巴巴(中国)有限公司 风险识别方法、装置、设备和存储介质
CN116151395A (zh) * 2023-04-21 2023-05-23 北京澜舟科技有限公司 基于实体词关系的检索模型训练方法、系统及检索方法
CN116340548A (zh) * 2023-05-29 2023-06-27 四维创智(北京)科技发展有限公司 一种数据处理方法、装置、电子设备和存储介质
CN116523024B (zh) * 2023-07-03 2023-10-13 腾讯科技(深圳)有限公司 召回模型的训练方法、装置、设备及存储介质

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9465864B2 (en) * 2010-09-29 2016-10-11 Excalibur Ip, Llc Training a search query intent classifier using wiki article titles and a search click log
JP5953151B2 (ja) * 2012-07-13 2016-07-20 日本放送協会 学習装置、及びプログラム
CN104778176A (zh) * 2014-01-13 2015-07-15 阿里巴巴集团控股有限公司 一种数据搜索处理方法及装置
US10200824B2 (en) * 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US11514244B2 (en) * 2015-11-11 2022-11-29 Adobe Inc. Structured knowledge modeling and extraction from images
US10776707B2 (en) * 2016-03-08 2020-09-15 Shutterstock, Inc. Language translation based on search results and user interaction data
WO2018141942A1 (en) * 2017-02-03 2018-08-09 Koninklijke Philips N.V. Classifier training
JP6942488B2 (ja) * 2017-03-03 2021-09-29 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
RU2744029C1 (ru) * 2018-12-29 2021-03-02 Общество С Ограниченной Ответственностью "Яндекс" Система и способ формирования обучающего набора для алгоритма машинного обучения
CN109857845B (zh) * 2019-01-03 2021-06-22 北京奇艺世纪科技有限公司 模型训练及数据检索方法、装置、终端及计算机可读存储介质
US11138285B2 (en) * 2019-03-07 2021-10-05 Microsoft Technology Licensing, Llc Intent encoder trained using search logs
CN110175615B (zh) * 2019-04-28 2021-01-01 华中科技大学 模型训练方法、域自适应的视觉位置识别方法及装置
CN110532393B (zh) * 2019-09-03 2023-09-26 腾讯科技(深圳)有限公司 文本处理方法、装置及其智能电子设备
CN111400473A (zh) * 2020-03-18 2020-07-10 北京三快在线科技有限公司 意图识别模型的训练方法及装置、存储介质及电子设备
CN111476284B (zh) * 2020-04-01 2023-12-26 杭州网易智企科技有限公司 图像识别模型训练及图像识别方法、装置、电子设备
CN111522985B (zh) * 2020-04-21 2023-04-07 易拍全球(北京)科贸有限公司 基于深浅层特征提取与融合的古董艺术品图像检索方法
CN111666374A (zh) * 2020-05-15 2020-09-15 华东师范大学 一种在深度语言模型中融入额外知识信息的方法
CN111782950A (zh) * 2020-06-30 2020-10-16 北京三快在线科技有限公司 样本数据集获取方法、装置、设备及存储介质
CN111737418B (zh) * 2020-07-20 2021-05-14 北京每日优鲜电子商务有限公司 搜索词和商品的相关性预测方法、设备和存储介质
CN111950254B (zh) * 2020-09-22 2023-07-25 北京百度网讯科技有限公司 搜索样本的词特征提取方法、装置、设备以及存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114329051A (zh) * 2021-12-31 2022-04-12 腾讯科技(深圳)有限公司 数据信息识别方法、装置、设备、存储介质及程序产品
CN114329051B (zh) * 2021-12-31 2024-03-05 腾讯科技(深圳)有限公司 数据信息识别方法、装置、设备、存储介质及程序产品
CN117312395A (zh) * 2023-11-28 2023-12-29 深圳格隆汇信息科技有限公司 基于大数据大模型的查询系统优化方法、装置及设备
CN117312395B (zh) * 2023-11-28 2024-02-09 深圳格隆汇信息科技有限公司 基于大数据大模型的查询系统优化方法、装置及设备

Also Published As

Publication number Publication date
CN112328891B (zh) 2023-08-01
JP2022024102A (ja) 2022-02-08
EP3937029A2 (en) 2022-01-12
EP3937029A3 (en) 2022-04-27
CN112328891A (zh) 2021-02-05
US20220083874A1 (en) 2022-03-17

Similar Documents

Publication Publication Date Title
KR20210151017A (ko) 검색 모델의 훈련 방법, 목표 대상의 검색 방법 및 그 장치
WO2021093755A1 (zh) 问题的匹配方法及装置、问题的回复方法及装置
CN110727839B (zh) 自然语言查询的语义解析
CN110704743B (zh) 一种基于知识图谱的语义搜索方法及装置
US9183511B2 (en) System and method for universal translating from natural language questions to structured queries
JP3225912B2 (ja) 情報検索装置、方法及び記録媒体
US20180075013A1 (en) Method and system for automating training of named entity recognition in natural language processing
US20150154286A1 (en) Method for disambiguated features in unstructured text
CN110457708B (zh) 基于人工智能的词汇挖掘方法、装置、服务器及存储介质
CN112800172B (zh) 一种基于两阶段注意力机制的代码搜索方法
JP2020500371A (ja) 意味的検索のための装置および方法
JPWO2020023787A5 (ko)
CN113326267B (zh) 基于倒排索引和神经网络算法的地址匹配方法
KR100378240B1 (ko) 엔트로피와 사용자 프로파일을 적용한 문서순위 조정방법
JP2006227823A (ja) 情報処理装置及びその制御方法
CN113468311B (zh) 一种基于知识图谱的复杂问句问答方法、装置及存储介质
US20220083879A1 (en) Inferring a comparative advantage of multi-knowledge representations
JP7428250B2 (ja) 文書検索の性能を評価する方法、システム、および装置
JP5379812B2 (ja) データ抽出装置、データ抽出方法、及びプログラム
CN112199461A (zh) 基于块索引结构的文档检索方法、装置、介质和设备
CN116501841B (zh) 数据模型模糊查询方法、系统及存储介质
CN117951246B (zh) 一种网络技术新词发现及应用领域预测方法和系统
CN110442346B (zh) 用于编译器代码检测的规则扩充方法
JP5696555B2 (ja) プログラム及び情報処理装置
Xin et al. Casie: Canonicalize and informative selection of the openie system

Legal Events

Date Code Title Description
E902 Notification of reason for refusal