JP2022024102A - 検索モデルのトレーニング方法、目標対象の検索方法及びその装置 - Google Patents

検索モデルのトレーニング方法、目標対象の検索方法及びその装置 Download PDF

Info

Publication number
JP2022024102A
JP2022024102A JP2021187732A JP2021187732A JP2022024102A JP 2022024102 A JP2022024102 A JP 2022024102A JP 2021187732 A JP2021187732 A JP 2021187732A JP 2021187732 A JP2021187732 A JP 2021187732A JP 2022024102 A JP2022024102 A JP 2022024102A
Authority
JP
Japan
Prior art keywords
sample
query information
probability
keyword
additional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021187732A
Other languages
English (en)
Inventor
ドンハイ・ビアン
Donghai Bian
ウェイファ・ペン
Weihua Peng
ユ・ルオ
Yu Luo
シュアイ・ジアーン
Shuai Jiang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2022024102A publication Critical patent/JP2022024102A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/535Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • G06F16/9024Graphs; Linked lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/957Browsing optimisation, e.g. caching or content distillation
    • G06F16/9574Browsing optimisation, e.g. caching or content distillation of access to content, e.g. by caching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Figure 2022024102000001
【課題】検索モデルのトレーニングを効率的且つ低コストで完了させ、これによって、ユーザクエリ情報に比較的関連する対象を確定する、検索モデルのトレーニング方法、目標対象の検索方法及びその装置を提供する。
【解決手段】方法は、サンプルクエリ情報に基づいて、検索モデルをトレーニングするための第1サンプルデータセットを取得することと、予めに構築した知識ベースに基づいてサンプルクエリ情報に関連する付加クエリ情報を確定することと、付加クエリ情報に基づいて、検索モデルをトレーニングするための、第1サンプルデータセットと異なる第2サンプルデータセットを取得することを含む。且つ、方法はさらに、サンプルクエリ情報及び第1サンプルデータセットと第2サンプルデータセットに基づいて、検索モデルをトレーニングすることを含む。
【選択図】図4

Description

本開示の実施例は、主に人工知能分野に関し、より具体的には、検索モデルのトレーニング方法、目標対象の検索方法、及びその装置、電子機器、コンピュータ可読記憶媒体、並びにコンピュータプログラム製品に関する。
ユーザが画像を検索する時、類似のユーザクエリ情報(又は、クエリ用語、すなわち、「query」と称する)は全く異なる種類を表す可能性があり、例えば、「ファッション性が高い韓国風セーター」と「ファッション性が高い欧米風セーター」では、文字通りにいずれも「セーター」というユーザクエリ情報を検索することであるが、実はユーザが特定スタイルのタイプのセーターに注目している。従来の画像検索方法では、このような詳細な分類に対して比較的効果的な解決手段がまだない。更に、画像検索モデルをトレーニングするための関連するデータセットは基本的にいずれも正サンプルデータである。そのため、トレーニングした画像検索に用いられるモデルでは性能が不十分である場合が存在する恐れがある。
本開示の実施例に基づいて、検索モデルをトレーニングする手段を提供する。
本開示の第1態様では、検索モデルのトレーニング方法を提供する。この方法はサンプルクエリ情報に基づいて、前記検索モデルをトレーニングする第1サンプルデータセットを取得することを含んでもよい。この方法は更に、予めに構築した知識ベースに基づいて前記サンプルクエリ情報に関連する付加クエリ情報を確定することを含んでもよい。また、この方法は更に、前記付加クエリ情報に基づいて、前記検索モデルをトレーニングする、前記第1サンプルデータセットと異なる第2サンプルデータセットを取得することを含んでもよい。且つ、この方法は更に、前記サンプルクエリ情報、前記第1サンプルデータセットと前記第2サンプルデータセットに基づいて、前記検索モデルをトレーニングすることを含んでもよい。
本開示の第2態様では、検索モデルのトレーニング装置を提供し、サンプルクエリ情報に基づいて、前記検索モデルをトレーニングする第1サンプルデータセットを取得するように構成される第1サンプルデータセット取得モジュールと、予めに構築した知識ベースに基づいて前記サンプルクエリ情報に関連する付加クエリ情報を確定するように構成される付加クエリ情報確定モジュールと、前記付加クエリ情報に基づいて、前記検索モデルをトレーニングする、前記第1サンプルデータセットと異なる第2サンプルデータセットを取得するように構成される第2サンプルデータセット取得モジュールと、前記サンプルクエリ情報、前記第1サンプルデータセットと前記第2サンプルデータセットに基づいて、前記検索モデルをトレーニングするように構成される検索モデルトレーニングモジュールと、を含む。
本開示の第3態様では、目標対象の検索方法を提供し、受信したユーザクエリ情報に基づいて複数の候補目標対象を取得することと、本開示の第1態様による方法によってトレーニングされる前記検索モデルに基づいて、それぞれ前記複数の候補目標対象が前記ユーザクエリ情報にヒットする確率を確定することと、確率が閾値確率を超えた候補目標対象を前記目標対象に確定することと、を含む。
本開示の第4態様では、目標対象の検索装置を提供し、受信したユーザクエリ情報に基づいて複数の候補目標対象を取得するように構成される候補目標対象取得モジュールと、本開示の第2態様による装置によってトレーニングされる前記検索モデルに基づいて、それぞれ前記複数の候補目標対象が前記ユーザクエリ情報にヒットする確率を確定するように構成される確率確定モジュールと、確率が閾値確率を超えた候補目標対象を前記目標対象に確定するように構成される目標対象確定モジュールと、を含む。
本開示の第5態様では、電子機器を提供し、1つ又は複数のプロセッサと、1つ又は複数のプロセッサによって実行されることで、本開示の第1態様による方法を実現する1つ又は複数のプログラムを記憶するための記憶装置と、を含む。
本開示の第6態様では、プロセッサによって実行されると、本開示の第1態様による方法を実現するコンピュータプログラムが記憶されたコンピュータ可読記憶媒体を提供する。
本開示の第7態様では、非一時的コンピュータ可読媒体に有形に記憶され且つ機械実行可能なコマンドを含むコンピュータプログラム製品を提供し、前記機械実行可能なコマンドが実行されると、機械に本開示の第1態様による方法のステップを実行させる。
理解すべきことは、本発明の明細書に記述された内容は、本開示の実施例の肝心又は重要な特徴を制限するものでもなく、本開示の範囲を制限するものでもないことである。本発明の他の特徴は、以下の説明により容易に理解され得る。
図面に合わせて以下の詳細な説明を参照しながら、本開示の各実施例の上記と他の特徴、利点及び態様は、より顕著になる。図面において、同一又は類似の符号は同一又は類似の元素を示し、ここで、
本開示の複数の実施例を実現できる例示的な環境の模式図である。 本開示の実施例による詳細な例示的な環境の模式図である。 本開示の一部の実施例による知識グラフの模式図である。 本開示の実施例による検索モデルをトレーニングする過程のフローチャートである。 本開示の実施例による検索目標対象の過程のフローチャートである。 本開示の実施例による検索モデルのトレーニング装置のブロック図である。 本開示の複数の実施例を実施できる計算機器のブロック図である。
以下、図面を参照しながら本開示の実施例をより詳細に説明する。図面では、本開示の幾つかの実施例を示すが、理解すべきことは、本開示は、様々な形態によって実現することができ、そして本明細書に記載される実施例に限定されると解釈すべきではなく、逆で提供するこれらの実施例は、本開示をより明確と全体的に理解するためのものであることである。理解すべきことは、本開示の図面及び実施例は、例示的なものに過ぎず、本開示の保護範囲を限定するためのものではないことである。
本開示の実施例の説明において、「含む」の用語及びその類似用語は、開放的に含む、すなわち「含むがこれらに限定されない」と理解すべきである。用語「に基づいて」は、「少なくとも一部の的に...に基づいて」と理解すべきである。「一実施例」又は「当該実施例」は、「少なくとも1つの実施例」であると理解すべきである。「第1」、「第2」などの用語は、異なるまたは同一のものを指すことがある。以下、他の明確な定義と暗黙的定義を含める可能性もある。
従来の画像検索方法では、一般的にサーバ側はユーザの入力したユーザクエリ情報を受信し、サーバ側にある検索エンジンはこのクエリ情報に基づいて複数の候補画像を検索し、更にこれらの画像とユーザクエリ情報をいずれも予めにトレーニングした検索モデルに入力することによって、この検索モデルを利用してユーザクエリ情報に比較的関連する1つ又は複数の画像を確定し、ユーザを表示する。
従来の画像検索方法の欠点は少なくとも、まず、上記複数の候補画像はいずれも対応するユーザクエリ情報に基づいて検索されたものであるため、この検索モデルをトレーニングするデータセットはいずれもこのユーザクエリ情報に関する正サンプルデータセットである。幾つかのトレーニング方法は他のサンプルデータセットを含み、この他のサンプルデータセット自体も正サンプルデータセットに関連せず且つ詳細ではなく、トレーニングしたモデルの性能が不安定であり且つ予測結果が十分に正確ではないことを引き起こす。更に、従来の画像検索方法は詳細な検索に適用せず、検索結果も一般的にユーザを満足させることができない。
上述のように、モデルトレーニング方法が強く求められ、迅速、効率的且つ低コストで検索モデル、特に画像検索モデルをトレーニングし、更にこのモデルを利用してユーザクエリ情報に比較的関連する1つ又は複数の画像を確定する。
本開示の実施例に基づいて、モデルトレーニングの手段を提供する。この手段において、ユーザクエリ情報に対する分野スペクトルを自動的に構築することによって、正例のみがある場合に高精度で画像を細分化し、同時に逆順対学習方式を使用して検索手段の収束速度と予測精度を加速させることができる。具体的には、本開示の検索モデルトレーニング方法は、ユーザの入力したユーザクエリ情報に基づいてモデルをトレーニングする正サンプルデータセットを確定することと、且つ予めに確定された知識グラフに基づいてこのクエリ用語の関連項目を確定し、更にこの関連項目に基づいてモデルをトレーニングする負サンプルデータセットを確定することと、を含んでもよい。これを基にし、この正サンプルデータセットとこの負サンプルデータセットを検索モデルのトレーニング用データセットとして使用することができる。また、本開示の実施例は、更に、上記方法によってトレーニングされる検索モデルを利用して対象(例えば、画像など)を検索することを含む。
以下、図面を参照しながら本開示の実施例を詳細に説明する。図1は本開示の複数の実施例を実現できる例示的な環境100の模式図を示す。図1に示すように、例示的な環境100はユーザクエリ情報110、計算機器120と計算機器120により予測される目標対象130を含む。
ユーザクエリ情報110はネットワークプラットフォームの大容量ユーザにおける1つ又は複数のユーザの入力したクエリ情報であってもよい。理解すべきことは、本明細書で記述された「ユーザクエリ情報110」及び「クエリ情報」はいずれもユーザにより入力されたキーワード情報又はユーザにより入力されたテキスト情報から抽出されるキーワード情報を示すことである。本開示において、キーワード情報は主にエンティティワード情報と修飾語情報を含む。幾つかの実施例において、例えば、依存構文分析モデルの意味識別モデルに基づいてユーザの入力したテキスト情報から例えば、エンティティワード情報と修飾語情報のキーワード情報を抽出することによって、ユーザクエリ情報110を確定してよい。
その後、計算機器120はその中にロードされた例えば、機械学習モデルなどの人工知能ネットワークによりユーザクエリ情報110に対応する目標対象130を確定してよい。ここで、目標対象130はユーザクエリ情報110に対応する画像、又はビデオ、ウェブページなどのネットワーク検索エンジンに基づいて検索可能な対象であってもよい。例えば、計算機器120は複数の候補画像からユーザクエリ情報110に比較的関連する1つ又は複数の目標画像を確定し、目標対象130としてユーザに表示してよい。
下記内容は機械学習モデルを一例として図2を参照して計算機器120におけるモデルのトレーニングと使用を説明する。
図2は本開示の実施例による詳細な例示的な環境200の模式図を示す。図1に類似して、例示的な環境200は計算機器220、ユーザクエリ情報210と目標対象230を含んでもよい。差異は、例示的な環境200は全体的にモデルトレーニングシステム260とモデル応用システム270を含んでもよいことである。一例として、モデルトレーニングシステム260及び/又はモデル応用システム270は図1に示すような計算機器120又は図2に示すような計算機器220において実現することができる。理解すべきことは、例示的な目的だけで、例示的な環境200の構造と機能を説明するが、本明細書で説明するテーマの範囲を制限するものではないことである。本明細書で説明するテーマは異なる構造及び/又は機能において実施することができる。
上記のように、ユーザクエリ情報210に基づいて検索される複数の候補目標対象からユーザクエリ情報210に比較的関連する1つ又は複数の目標対象を選択する過程は、モデルトレーニング段階とモデル応用段階という2つの段階に分けられてよい。一例として、モデルトレーニング段階において、モデルトレーニングシステム260はデータセット250を利用して確率を確定するモデル240をトレーニングしてよい。モデル応用段階において、モデル応用システム270はトレーニングされるモデル240を受信することで、モデル240がユーザクエリ情報210及び計算機器220に基づいて検索した複数の候補目標対象によりユーザクエリ情報210に比較的関連する目標対象230を確定する。理解すべきことは、トレーニングデータセット250はサンプルクエリ情報及びそれに関連する正、負サンプルデータセットであってもよいことである。
別の実施例において、モデル240は学習ネットワークとして構築されてよい。一部の実施例において、この学習ネットワークは複数のネットワークを含んでもよく、ここで、各ネットワークは大量のニューロンで構成される1つの多層ニューラルネットワークであってもよい。トレーニング過程により、各ネットワークにおけるニューロンの対応するパラメータは確定される。これらのネットワークにおけるニューロンのパラメータはモデル240のパラメータと総称される。
モデル240のトレーニング過程は反復方式で実行されてよい。具体的には、モデルトレーニングシステム260はトレーニングデータセット250からサンプルデータを取得してよく、このサンプルデータを利用してトレーニング過程を1回反復することで、モデル240の対応するパラメータを更新する。モデルトレーニングシステム260はトレーニングデータセット250における複数のサンプルデータに基づいて上記過程を実行してよく、モデル240のパラメータのうちの少なくとも一部のパラメータが収束し又は所定の反復回数に達するまで実行することで、最終のモデルパラメータを取得する。
理解すべきことは、本開示は、サンプルクエリ情報に基づいて正サンプルデータセット(例えば、サンプルクエリ情報に基づいて正サンプルデータセットとして複数の画像が検索された)確定してよいのみならず、更にこのサンプルクエリ情報に関連する付加クエリ情報に基づいて、更に付加クエリ情報に基づいて負サンプルデータセットを確定してよく、よってトレーニングデータセットを拡張することである。図2において、モデル240のトレーニング過程の1つの重要なポイントは、付加クエリ情報の確定は知識ベースに基づいて実現されることにある。理解すべきことは、知識ベースは例えば、知識グラフの大容量情報データベースであってもよいことである。一例として、知識ベースはインターネットにおける大容量テキスト情報又は関連機関の内部テキスト情報が知識グラフの形態で作成されてよい。下記内容は知識グラフ形態の知識ベースを詳細に説明する。
図3は本開示の一部の実施例による知識グラフ300の模式図を示す。図3は複数のノード及びノードとの間の関係を示し且つ各ノードを接続するための複数の辺を含む。例えば、ノード310は特定のエンティティワード又は修飾語、例えば、「衣類」を示してよい。図3に示すように、ノード310の以外、知識グラフ300は更に、ノード320、321、322、330、331と332などを含む。例えば、ノード320はノード310の1つの下位エンティティワード、例えば、「靴」を示してよく、ノード330はノード320の1つの下位エンティティワード、例えば、「ハイヒール靴」を示してよく、ノード331はノード320の他の下位エンティティワード、例えば、「フラットシューズ」を示してよい。同様に、ノード321はノード310の他の下位エンティティワード、例えば、「ズボン」を示してよく、ノード332はノード321の1つの下位エンティティワード、例えば、「スラックス」を示してよく、及びノード322はノード310の他の下位エンティティワード、例えば、「スカート」を示してよい。このようにして、知識グラフ300は各ノードとの間の関係を説明する。
知識グラフ300が作成された場合、計算機器120は知識グラフ300からあらゆるノードに関連する上位ノード又は下位ノード、又は他の関連ノードを確定してよい。例えば、サンプルクエリ情報が「ハイヒール靴」である場合、「ハイヒール靴」に対応するノード330に基づいてその上位ノード320(すなわち、付加クエリ情報「靴」)及びノード320の他の下位ノード331(すなわち、付加クエリ情報「フラットシューズ」)を確定してよい。計算機器120は、確定した関連ノード及びそれに対応する付加クエリ情報に基づいて、複数の付加候補目標対象を検索し、モデル240をトレーニングする負サンプルデータセットとしてよい。よって、サンプルクエリ情報及び確定された正サンプルデータセット及び負サンプルデータセットに基づいてモデル240をトレーニングしてよい。
上記内容で説明した技術的解決手段は例示的なものに過ぎず、本発明を限定するものではない。理解すべきことは、更に他の方式と接続関係に応じて各ネットワークを設置してよいことである。上記解決手段の原理をより明確に説明するために、下記内容は図4を参照してモデル240をトレーニングする過程をより詳細に説明する。
図4は本開示の実施例による検索モデルをトレーニングする過程400のフローチャートを示す。幾つかの実施例において、過程400は図1の計算機器120及び図2の計算機器220において実現することができる。図4を参照して本開示実施例によるモデルトレーニングの過程400を説明する。容易に理解することができるために、下記内容で記述する実施例は、いずれも例示的なものであり、本開示の特許請求の範囲を限定するためのものではない。
402では、計算機器220はサンプルクエリ情報に基づいて、検索モデルをトレーニングする第1サンプルデータセットを取得してよい。画像検索モデルのトレーニングを一例として、計算機器220はサンプルクエリ情報を受信した後、ネットワークには複数の画像を検索することができ、これらの画像は画像検索モデルをトレーニングする第1サンプルデータセットの一部として使用されてよい。理解すべきことは、第1サンプルデータセットは正サンプルデータセットであることである。
404では、計算機器220は予めに構築した知識ベースに基づいてサンプルクエリ情報に関連する付加クエリ情報を確定してよい。理解すべきことは、この知識ベースは知識グラフ300又は他のデータベースであってもよいことである。知識ベースが知識グラフ300である場合、サンプルクエリ情報に関連する付加クエリ情報を確定するために、計算機器220はサンプルクエリ情報におけるキーワードを取得し、知識グラフ300からキーワードと接続関係を有する付加キーワードを確定し、更にこの付加キーワードに基づいて付加クエリ情報を確定してよい。このようにして、本開示は、知識グラフを利用して、正サンプルデータセットと異なり且つ密接に関連する負サンプルデータセットを構築することができるため、モデルトレーニングにより高品質なトレーニングデータセットを提供する。
理解すべきことは、知識グラフ300は上記複数のノード及びノードとの間の関係を示し且つこれらのノードを接続するための複数の辺を含むことである。
幾つかの実施例において、知識グラフ300から付加キーワードを確定するために、計算機器220はまずサンプルクエリ情報におけるキーワードが知識グラフ300における対応する「キーノード」の上位ノードを確定してよい。一例として、キーワードが「ハイヒール靴」である場合、まず知識グラフ300におけるキーワード「ハイヒール靴」のノード330を確定してよい。これにより、少なくともノード330の上位ノード320を確定してよい。理解すべきことは、各ノードに対応するキーワードはエンティティワードであってもよいことである。代替的又は付加的に、キーワードは更に、エンティティワードの修飾語であってもよい。その後、計算機器220は上記複数の辺において上位ノード320に接続される辺に基づいて、上位ノード320に関連する、ノード330以外の他の下位ノード331を取得してよい。一例として、計算機器220はこの上位ノード320の他の下位ノード331を確定してよい。計算機器220はノード320、331のうちの少なくとも1つのノードに対応するキーワードを付加キーワードとして確定してよい。よって付加クエリ情報が「靴」と「フラットシューズ」であることを確定してよい。このようにして、正サンプルデータセットに関連する負サンプルデータセットを確定することができ、この負サンプルデータセットは非常に参照価値がある。
幾つかの実施例において、予めに構築した知識グラフ300がない場合、本開示は、サンプルクエリ情報から関連するエンティティワード、修飾語、文脈、同義語などの情報を検索することで知識グラフを構築してよい。一例として、サンプルクエリ情報に対する依存構文分析を行い、関連するエンティティワード、修飾語を得て、対応関係を付する。エンティティワード又は修飾語に対し、従来の概念スペクトルを使用してこのエンティティワード又は修飾語に対応する上下位及び同義語、反義語などを取得する。最後、上記結果に基づいて知識グラフ300を構築する。
406では、計算機器220は付加クエリ情報に基づいて、検索モデルをトレーニングする第2サンプルデータセットを取得してよい。理解すべきことは、第2サンプルデータセットは負サンプルデータセットであることである。一例として、計算機器220はノード320、331のうちの少なくとも1つのノードに対応するキーワードを付加キーワードとして確定してよい。その後、例えば、付加キーワード「フラットシューズ」に基づいて複数の画像を検索でき、これらの画像は「ハイヒール靴」ではないが、ハイヒール靴に密接に関連する。このようにして、検索モデルのトレーニングに十分且つ高品質な負サンプルデータセットを提供することができる。
幾つかの実施例において、負サンプルデータセットのデータ量を更に拡張するために、知識グラフ300からキーワードのノードに関連するより多くの他のノードを選択してよく、これらのノードに基づいて検索した画像を負サンプルデータセットに確定する。しかし、モデルのトレーニングにおいてサンプルが均衡であることを回避するために、各ノードと上記キーノードとの関連性スコアに基づいて複数の負サンプルデータセットに対する分級を行ってもよい。
一例として、計算機器220はキーワードと付加キーワードとの経路距離を確定してよい。ここで、経路距離はキーワードと付加キーワードとの間の辺の数である。例えば、ノード330とノード320との間の辺の数は1であるため、キーワード「ハイヒール靴」と付加キーワード「靴」の経路距離は1である。また例えば、ノード330とノード331との間の辺の数は2であるため、キーワード「ハイヒール靴」と付加キーワード「フラットシューズ」の経路距離は2である。理解すべきことは、更に経路距離が2より大きい付加キーワードが存在することである。このようにして、モデルトレーニングの開発者は経路距離に基づいて比較的関連しない負サンプルに対する取捨選択を行ってよい。
正負サンプルが不均衡であること及びモデルの学習能力が低下する問題を回避するために、計算機器220は各レベルの負サンプルデータに対する動的なサンプリングを行ってよく、よってモデルをトレーニングする。幾つかの実施例において、経路距離が閾値経路距離以下である場合、付加クエリ情報に基づいて負サンプルデータセットを取得してよい。好ましくは、モデル学習の前期において、各分割レベルに対し、1:1の比例に応じて各レベルの負サンプルデータを使用してサンプリング学習を行ってよく、モデル学習の中期において、関連性スコアが低い負サンプルデータセットを除去し、残された3つ又は4つのレベルの負サンプルデータを用いてサンプリング学習を行ってよく、モデル学習の後期において、関連性スコアが最も高い1つ又は2つのみのレベルの負サンプルデータを用いてサンプリング学習を行う。理解すべきことは、上記トレーニング過程において、各レベルのデータセットの選択がランダムであり、好ましくは、モデル精度の変化が1%以下になるまで、上記形態を参照して複数回にトレーニングしてよいことである。
これにより、各ノードとキーノードの関連性スコアを確定することで、優先的にはキーワード比較的に関連する付加キーワードに対応する画像を負サンプルデータセットとして選択することで、トレーニングデータセットの品質を最適化することができる。
408では、計算機器220は上記サンプルクエリ情報、負サンプルデータセットと正サンプルデータセットに基づいて検索モデルをトレーニングしてよい。一例として、本開示は、逆順対の方式を用いてトレーニング過程を最適化する。例えば、計算機器220はサンプルクエリ情報と正サンプルデータセットにおける正サンプルに基づいてこの正サンプルがサンプルクエリ情報にヒットする第1確率を確定し、サンプルクエリ情報と負サンプルデータセットにおける負サンプルに基づいて負サンプルがサンプルクエリ情報にヒットする第2確率を確定してよい。その後、第1確率と第2確率を比較し、第1確率が第2確率より小さい場合、すなわち、正サンプルがサンプルクエリ情報にヒットする確率は負サンプルがサンプルクエリ情報にヒットする確率より小さい場合、このモデルには大きな誤差が存在すると示し、そのため、検索モデルのパラメータを更に最適化して、第1確率と第2確率を、更新された第1確率は更新された第2確率より大きくなるまで更新する。
具体的には、損失関数を改善することでトレーニング過程を最適化してよい。例えば、交差エントロピーの形態に応じて以下の第1損失関数を定義してよい。
Figure 2022024102000002
ここで、labelが正サンプルである場合、1であり、そうでなければ0である。pは予測結果が正サンプルである確率である。
また、更に以下の第2損失関数を定義することで逆順対に基づく学習を実現してよい。
Figure 2022024102000003
ここで、Pposは予測結果が正サンプルである確率であり、Pnegは予測結果が負サンプルである確率であり、marginは0.1としてよい。すなわち、予測結果が負サンプルである確率は予測結果が正サンプルである確率以上である場合、予測結果には誤りが存在すると考えられ、この際、第2損失関数Lloss-2はゼロより大きい値に与えられることによって、モデルパラメータを更に最適化する。
代替的又は付加的に、以下の第2損失関数を定義して逆順対に基づく学習を実現してよい。
Figure 2022024102000004
ここで、Pposは予測結果が正サンプルである確率であり、Pnegは予測結果が負サンプルである確率であり、τは0.1としてよく、vは5としてよい。
以上2つの損失関数に対する例えば加重平均演算を行うことで、最適化された目標損失関数を取得してよい。
Figure 2022024102000005
以上の実施例により、本開示は、目標トレーニングを最適化するための損失関数を設計する。従来の損失関数に比べて、本開示の目標損失関数は正サンプルがサンプルクエリ情報にヒットする確率が閾値確率より大きいか否かを判定することを実行するのみならず、また正サンプルがサンプルクエリ情報にヒットする確率と負サンプルがサンプルクエリ情報にヒットする確率の比較を実行し、よってより細かく、正確にモデルのトレーニング過程を実現する。
図5は本開示の実施例による目標対象を検索する過程500のフローチャートを示す。幾つかの実施例において、過程500は図1の計算機器120及び図2の計算機器220において実現することができる。図5を参照して本開示実施例の目標対象を検索する過程500に基づいて説明する。容易に理解することができるために、下記内容で記述する実施例は、いずれも例示的なものであり、本開示の特許請求の範囲を限定するためのものではない。
図5に示すように、502では、計算機器220は受信したユーザクエリ情報210に基づいて複数の候補目標対象を取得してよい。計算機器220はサーバ側に設置されてよく、その中にはユーザクエリ情報210に基づいて候補目標対象を取得する検索モジュールが構成される。また、計算機器220には更に、図4で説明した方法を参照してトレーニングするモデル240が構成される。
504では、計算機器220はモデル240に基づいて、それぞれ複数の候補目標対象がユーザクエリ情報210にヒットする確率を確定してよい。且つ506では、計算機器220は確率が閾値確率を超えた候補目標対象を目標対象230に確定してよい。
幾つかの実施例において、目標対象は画像、ビデオ、ウェブページ又は他のテキストに基づいて検索可能な対象であってもよい。
このようにして、モデル240によりユーザにより正確な検索結果を提供することで、ユーザ体験を全体的に向上させることができる。
図6は本開示の実施例による検索モデルのトレーニング装置600のブロック図を示す。図6に示すように、装置600は、サンプルクエリ情報に基づいて、前記検索モデルをトレーニングする第1サンプルデータセットを取得するように構成される第1サンプルデータセット取得モジュール602と、予めに構築した知識ベースに基づいて前記サンプルクエリ情報に関連する付加クエリ情報を確定するように構成される付加クエリ情報確定モジュール604と、前記付加クエリ情報に基づいて、前記検索モデルをトレーニングする、前記第1サンプルデータセットと異なる第2サンプルデータセットを取得するように構成される第2サンプルデータセット取得モジュール606と、前記サンプルクエリ情報、前記第1サンプルデータセットと前記第2サンプルデータセットに基づいて、前記検索モデルをトレーニングするように構成される検索モデルトレーニングモジュール608と、を含んでもよい。
幾つかの実施例において、前記知識ベースは知識グラフであり、前記付加クエリ情報確定モジュールは、サンプルクエリ情報におけるキーワードを取得するように構成されるキーワード取得モジュールと、知識グラフからキーワードと接続関係を有する付加キーワードを確定するように構成される付加キーワード取得モジュールと、付加キーワードに基づいて前記付加クエリ情報を確定するように構成される情報取得モジュールと、を含んでもよい。
幾つかの実施例において、前記知識グラフは複数のノード及び前記複数のノードとの間の関係を示し且つ前記複数のノードを接続するための複数の辺を含み、前記付加キーワード取得モジュールは、前記知識グラフにおけるキーワードに対応するキーノードの上位ノードを確定するように構成される上位ノード確定モジュールと、前記複数の辺において前記上位ノードに接続される辺に基づいて、前記上位ノードに関連する少なくとも1つの、前記キーノードと異なるノードを取得するように構成される付加ノード確定モジュールと、前記少なくとも1つのノードに対応するキーワードを前記付加キーワードとして確定するように構成される付加キーワード確定モジュールと、を含んでもよい。
幾つかの実施例において、前記付加クエリ情報確定モジュールは更に、前記キーワードと前記付加キーワードとの経路距離、すなわち前記キーワードと前記付加キーワードとの間の辺の数を確定するように構成される経路距離確定モジュールを含んでもよい。
幾つかの実施例において、前記第2サンプルデータセット取得モジュールは、経路距離が閾値経路距離以下であることに応答して、前記付加クエリ情報に基づいて前記第2サンプルデータセットを取得するように構成されるデータセット取得モジュールを含んでもよい。
幾つかの実施例において、前記検索モデルトレーニングモジュールは、前記サンプルクエリ情報と前記第1サンプルデータセットにおける第1サンプルに基づいて、前記第1サンプルが前記サンプルクエリ情報にヒットする第1確率を確定するように構成される第1確率確定モジュールと、前記サンプルクエリ情報と前記第2サンプルデータセットにおける第2サンプルに基づいて、前記第2サンプルが前記サンプルクエリ情報にヒットする第2確率を確定するように構成される第2確率確定モジュールと、第1確率が前記第2確率以下であることに応答して、前記検索モデルのパラメータを最適化することで前記第1確率と前記第2確率を更新し、更新された前記第1確率を更新された前記第2確率より大きくするように構成されるパラメータ最適化モジュールと、を含んでもよい。
幾つかの実施例において、前記キーワードはエンティティワード又は前記エンティティワードの修飾語である。
幾つかの実施例において、前記第1サンプルデータセットと前記第2サンプルデータセットはいずれも画像データセットである。
幾つかの実施例において、前記第1サンプルデータセットは正サンプルデータセットであり、前記第2サンプルデータセットは負サンプルデータセットである。
図7は本開示の複数の実施例を実施できる計算機器700のブロック図を示す。装置700は図1の計算機器120又は図2の計算機器220を実現することができる。図に示すように、装置700は中央処理ユニット(CPU)701を含み、読み出し専用メモリ(ROM)702に記憶されるコンピュータプログラムコマンド又は記憶ユニット708からランダム・アクセス・メモリ(RAM)703にロードされるコンピュータプログラムコマンドに基づいて、様々な適切な動作と処理を実行してよい。RAM 703において、更に装置700を操作するために必要な様々なプログラムとデータを記憶してよい。CPU 701、ROM 702及びRAM 703はバス704を介して相互に接続される。入力/出力(I/O)インターフェース705もバス704に接続される。
装置700における複数の部品はI/Oインターフェース705に接続され、例えば、キーボード、マウスなどの入力ユニット706と、例えば、様々なタイプのディスプレイ、スピーカーなどの出力ユニット707と、例えば、磁気ディスク、光ディスクなどの記憶ユニット708と、例えば、ネットワークカード、モデム、無線通信送受信機など通信ユニット709と、を含む。通信ユニット709は、装置700例えば、インターネットであるコンピュータネットワーク及び/又は様々な電気通信ネットワークを介して他の装置と情報/データのやり取りをすることを可能にする。
処理ユニット701は上記内容で説明した各方法と処理、例えば、過程400、500を実行する。例えば、一部の実施例において、過程400、500はコンピュータソフトウェアプログラムとして実現してよく、機械可読記憶媒体、例えば、記憶ユニット708に有形に含まれる。一部の実施例において、コンピュータプログラムの部分又は全てはROM 702及び/又は通信ユニット709を経由して装置700にロード及び/又はインストールされてよい。コンピュータプログラムはRAM 703にロードされてCPU 701により実行される場合、上記内容で説明した過程400、500の1つ又は複数のステップを実行してよい。代替的に、別の実施例において、CPU 701は他のいかなる適切な方式で(例えば、ファームウェアにより)過程400、500を実行するように構成されてよい。
本明細書で説明した機能は1つ又は複数のハードウェア論理装置により少なくとも部分的に実行してよい。例えば、非限定的に、利用できる例示的な種類のハードウェア論理装置は、フィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップシステム(SOC)、コンプレックス・プログラマブル・ロジック・デバイス(CPLD)などを含んでもよい。
本開示の方法を実施するプログラムコードは1つ又は複数のプログラミング言語のいかなる組み合わせで書かれてよい。これらのプログラムコードを汎用コンピュータ、特殊目的のコンピュータ又は他のプログラマブルデータ処理装置のプロセッサ又はコントローラに提供してよく、よってプログラムコードはプロセッサ又はコントローラにより実行されると、フローチャート及び/又はブロック図に規定の機能/操作を実施する。プログラムコードは完全に機械で実行してよく、部分的に機械で実行してよく、独立ソフトウェアパッケージとして部分的に機械で実行し且つ部分的に遠隔機械で実行してよく、又は完全に遠隔機械又はサーバで実行してよい。
本開示の文脈において、機械可読記憶媒体は有形の媒体であってもよく、コマンド実行システム、装置又は機器に使用される又はコマンド実行システム、装置又は機器に結合されて使用されるプログラムを具備又は記憶してよい。機械可読記憶媒体は機械可読信号媒体又は機械可読記憶媒体であってもよい。機械可読記憶媒体は、電子、磁気、光学、電磁、赤外線、又は半導体システム、装置又は機器、又は上記内容のいかなる適切な組み合わせを含んでもよいが、これらに限定されない。機械可読記憶媒体のより具体的な例は、1つ又は複数のリード線による電気接続、ポータブルコンピュータディスク、ハードディスク、ランダム・アクセス・メモリ(RAM)、読み出し専用メモリ(ROM)、消去可能なプログラマブル読み出し専用メモリ(EPROM又はフラッシュメモリ)、光ファイバー、ポータブルコンパクトディスク読み出し専用メモリ(CD-ROM)、光記憶装置、磁気記憶装置、又は上記内容のいかなる適切な組み合わせを含む。
更に、特定の順序を用いて各操作を示すが、理解すべきことは、示された特定の順序又は順番で実行するためにこれらの操作が求められ、又は全ての図示される操作を実行することで所望の結果を取得することである。一定の環境下で、マルチタスク及び並行処理が有利であり得る。同様に、上記説明に様々な具体的な実施例の詳細が含まれているが、本開示の範囲に対する限制ではないと理解すべきである。別々の実施例で説明されているいくつかの特徴、単一の実現において組み合わせて実現することもできる。逆で、単一の実現の文脈に説明した様々な特徴は、個別に又はいかなる適切な一部の組み合わせの方式で複数の実現において実現してよい。
構造の特徴及び/又は方法のロジックの動作に固有の言語を使用して本主題を説明したが、特許請求の範囲に限定された主題は、必ずしも前述した特定の特徴又は動作に限定されるべきではないことを理解すべきである。逆で、前述した特定の特徴又は動作、単に特許請求の範囲を実現する例示的形式に過ぎない。

Claims (25)

  1. 検索モデルのトレーニング方法であって、
    サンプルクエリ情報に基づいて、前記検索モデルをトレーニングするための第1サンプルデータセットを取得することと、
    予めに構築した知識ベースに基づいて前記サンプルクエリ情報に関連する付加クエリ情報を確定することと、
    前記付加クエリ情報に基づいて、前記検索モデルをトレーニングする、前記第1サンプルデータセットと異なる第2サンプルデータセットを取得することと、
    前記サンプルクエリ情報、前記第1サンプルデータセットと前記第2サンプルデータセットに基づいて、前記検索モデルをトレーニングすることと、を含む、検索モデルのトレーニング方法。
  2. 前記知識ベースは知識グラフであり、前記知識ベースに基づいて前記サンプルクエリ情報に関連する前記付加クエリ情報を確定することは、
    前記サンプルクエリ情報におけるキーワードを取得することと、
    前記知識グラフから、前記キーワードと接続関係を有する付加キーワードを確定することと、
    前記付加キーワードに基づいて前記付加クエリ情報を確定することと、を含む、請求項1に記載の方法。
  3. 前記知識グラフは複数のノード及び、前記複数のノード同士間の関係を示し且つ前記複数のノードを接続するための複数の辺を含み、前記知識グラフから前記付加キーワードを確定することは、
    前記キーワードの前記知識グラフにおける対応するキーノードの上位ノードを確定することと、
    前記複数の辺における前記上位ノードに接続される辺によって、前記上位ノードに関連する、前記キーノードと異なる少なくとも1つのノードを取得することと、
    前記少なくとも1つのノードの対応キーワードを前記付加キーワードとして確定することと、を含む、請求項2に記載の方法。
  4. 前記知識ベースに基づいて前記サンプルクエリ情報に関連する前記付加クエリ情報を確定することは、
    前記キーワードと前記付加キーワードとの経路距離を更に含み、前記経路距離は、前記キーワードと前記付加キーワードとの間の辺の数である、請求項3に記載の方法。
  5. 前記付加クエリ情報に基づいて、前記検索モデルをトレーニングするための前記第2サンプルデータセットを取得することは、
    前記経路距離が閾値経路距離以下であることに応答して、前記付加クエリ情報に基づいて前記第2サンプルデータセットを取得することを含む、請求項4に記載の方法。
  6. 前記検索モデルをトレーニングすることは、
    前記サンプルクエリ情報と前記第1サンプルデータセットにおける第1サンプルに基づいて、前記第1サンプルが前記サンプルクエリ情報にヒットする第1確率を確定することと、
    前記サンプルクエリ情報と前記第2サンプルデータセットにおける第2サンプルに基づいて、前記第2サンプルが前記サンプルクエリ情報にヒットする第2確率を確定することと、
    前記第1確率が前記第2確率以下であることに応答して、前記検索モデルのパラメータを最適化して前記第1確率と前記第2確率を更新し、更新された前記第1確率を更新された前記第2確率より大きくすることと、を含む、請求項1に記載の方法。
  7. 前記キーワードはエンティティワード又は前記エンティティワードの修飾語である、請求項1~6のいずれか一項に記載の方法。
  8. 前記第1サンプルデータセットと前記第2サンプルデータセットはいずれも画像データセットである、請求項1~6のいずれか一項に記載の方法。
  9. 前記第1サンプルデータセットは正サンプルデータセットであり、前記第2サンプルデータセットは負サンプルデータセットである、請求項1~6のいずれか一項に記載の方法。
  10. 目標対象を検索するための方法であって、
    受信したユーザクエリ情報に基づいて複数の候補目標対象を取得することと、
    請求項1~9のいずれか一項に記載の方法によってトレーニングされる前記検索モデルに基づいて、前記複数の候補目標対象が前記ユーザクエリ情報にヒットする確率をそれぞれ確定することと、
    確率が閾値確率を超えた候補目標対象を前記目標対象に確定することと、を含む、目標対象の検索方法。
  11. 前記目標対象は画像である、請求項10に記載の方法。
  12. 検索モデルをトレーニングする装置であって、
    サンプルクエリ情報に基づいて、前記検索モデルをトレーニングするための第1サンプルデータセットを取得するように構成される第1サンプルデータセット取得モジュールと、
    予めに構築した知識ベースに基づいて前記サンプルクエリ情報に関連する付加クエリ情報を確定するように構成される付加クエリ情報確定モジュールと、
    前記付加クエリ情報に基づいて、前記検索モデルをトレーニングするための、前記第1サンプルデータセットと異なる第2サンプルデータセットを取得するように構成される第2サンプルデータセット取得モジュールと、
    前記サンプルクエリ情報、前記第1サンプルデータセットと前記第2サンプルデータセットに基づいて、前記検索モデルをトレーニングするように構成される検索モデルトレーニングモジュールと、を含む、検索モデルをトレーニングする装置。
  13. 前記知識ベースは知識グラフであり、前記付加クエリ情報確定モジュールは、
    前記サンプルクエリ情報におけるキーワードを取得するように構成されるキーワード取得モジュールと、
    前記知識グラフから、前記キーワードと接続関係を有する付加キーワードを確定するように構成される付加キーワード取得モジュールと、
    前記付加キーワードに基づいて前記付加クエリ情報を確定するように構成される情報取得モジュールと、を含む、請求項12に記載の装置。
  14. 前記知識グラフは複数のノード及び、前記複数のノード同士間の関係を示し且つ前記複数のノードを接続するための複数の辺を含み、前記付加キーワード取得モジュールは、
    前記キーワードの前記知識グラフにおける対応するキーノードの上位ノードを確定するように構成される上位ノード確定モジュールと、
    前記複数の辺における前記上位ノードに接続される辺に基づいて、前記上位ノードに関連する、前記キーノードと異なる少なくとも1つのノードを取得するように構成される付加ノード確定モジュールと、
    前記少なくとも1つのノードの対応キーワードを前記付加キーワードとして確定するように構成される付加キーワード確定モジュールと、を含む、請求項13に記載の装置。
  15. 前記付加クエリ情報確定モジュールは、
    前記キーワードと前記付加キーワードとの経路距離を確定するように配置される経路距離確定モジュールを更に含み、前記経路距離は、前記キーワードと前記付加キーワードとの間の辺の数である、請求項14に記載の装置。
  16. 前記第2サンプルデータセット取得モジュールは、
    前記経路距離が閾値経路距離以下であることに応答して、前記付加クエリ情報に基づいて前記第2サンプルデータセットを取得するように構成されるデータセット取得モジュールを含む、請求項15に記載の装置。
  17. 前記検索モデルトレーニングモジュールは、
    前記サンプルクエリ情報と前記第1サンプルデータセットにおける第1サンプルに基づいて、前記第1サンプルが前記サンプルクエリ情報にヒットする第1確率を確定するように構成される第1確率確定モジュールと、
    前記サンプルクエリ情報と前記第2サンプルデータセットにおける第2サンプルに基づいて、前記第2サンプルが前記サンプルクエリ情報にヒットする第2確率を確定するように構成される第2確率確定モジュールと、
    前記第1確率が前記第2確率以下であることに応答して、前記検索モデルのパラメータを最適化して前記第1確率と前記第2確率を更新し、更新された前記第1確率を更新された前記第2確率より大きくするように構成されるパラメータ最適化モジュールと、を含む、請求項12に記載の装置。
  18. 前記キーワードはエンティティワード又は前記エンティティワードの修飾語である、請求項12~17のいずれか一項に記載の装置。
  19. 前記第1サンプルデータセットと前記第2サンプルデータセットはいずれも画像データセットである、請求項12~17のいずれか一項に記載の装置。
  20. 前記第1サンプルデータセットは正サンプルデータセットであり、前記第2サンプルデータセットは負サンプルデータセットである、請求項12~17のいずれか一項に記載の装置。
  21. 目標対象を検索するための装置であって、
    受信したユーザクエリ情報に基づいて複数の候補目標対象を取得するように構成される候補目標対象取得モジュールと、
    請求項12~20のいずれか一項に記載の装置によってトレーニングされる前記検索モデルに基づいて、前記複数の候補目標対象が前記ユーザクエリ情報にヒットする確率をそれぞれ確定するように構成される確率確定モジュールと、
    確率が閾値確率を超えた候補目標対象を前記目標対象に確定するように構成される目標対象確定モジュールと、を含む、目標対象を検索するための装置。
  22. 前記目標対象は画像である、請求項21に記載の装置。
  23. 電子機器であって、
    1つ又は複数のプロセッサと、
    前記1つ又は複数のプロセッサによって実行されると、前記1つ又は複数のプロセッサに請求項1~9のいずれか一項に記載の方法を実現させる1つ又は複数のプログラムを記憶するための記憶装置と、を含む、電子機器。
  24. コンピュータ可読記憶媒体であって、プロセッサによって実行されると、請求項1~9のいずれか一項に記載の方法を実現するコンピュータプログラムが記憶されたコンピュータ可読記憶媒体。
  25. コンピュータプログラムコマンドを含むコンピュータプログラム製品であって、前記コンピュータプログラムコマンドはプロセッサによって実行されると、請求項1~9のいずれか一項に記載の方法を実現する、コンピュータプログラム製品。
JP2021187732A 2020-11-24 2021-11-18 検索モデルのトレーニング方法、目標対象の検索方法及びその装置 Pending JP2022024102A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011330182.0 2020-11-24
CN202011330182.0A CN112328891B (zh) 2020-11-24 2020-11-24 训练搜索模型的方法、搜索目标对象的方法及其装置

Publications (1)

Publication Number Publication Date
JP2022024102A true JP2022024102A (ja) 2022-02-08

Family

ID=74322328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021187732A Pending JP2022024102A (ja) 2020-11-24 2021-11-18 検索モデルのトレーニング方法、目標対象の検索方法及びその装置

Country Status (4)

Country Link
US (1) US20220083874A1 (ja)
EP (1) EP3937029A3 (ja)
JP (1) JP2022024102A (ja)
CN (1) CN112328891B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113590645B (zh) * 2021-06-30 2022-05-10 北京百度网讯科技有限公司 搜索方法、装置、电子设备及存储介质
CN114676227B (zh) * 2022-04-06 2023-07-18 北京百度网讯科技有限公司 样本生成方法、模型的训练方法以及检索方法
CN115205757B (zh) * 2022-07-28 2024-04-16 阿里巴巴(中国)有限公司 风险识别方法、装置、设备和存储介质
CN116151395A (zh) * 2023-04-21 2023-05-23 北京澜舟科技有限公司 基于实体词关系的检索模型训练方法、系统及检索方法
CN116340548A (zh) * 2023-05-29 2023-06-27 四维创智(北京)科技发展有限公司 一种数据处理方法、装置、电子设备和存储介质
CN116523024B (zh) * 2023-07-03 2023-10-13 腾讯科技(深圳)有限公司 召回模型的训练方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120226641A1 (en) * 2010-09-29 2012-09-06 Yahoo! Inc. Training a search query intent classifier using wiki article titles and a search click log
JP2014022837A (ja) * 2012-07-13 2014-02-03 Nippon Hoso Kyokai <Nhk> 学習装置、及びプログラム
CN110532393A (zh) * 2019-09-03 2019-12-03 腾讯科技(深圳)有限公司 文本处理方法、装置及其智能电子设备
US20200210891A1 (en) * 2018-12-29 2020-07-02 Yandex Europe Ag Method of and system for generating training set for machine learning algorithm (mla)
US20200285687A1 (en) * 2019-03-07 2020-09-10 Microsoft Technology Licensing, Llc Intent Encoder Trained Using Search Logs
CN111737418A (zh) * 2020-07-20 2020-10-02 北京每日优鲜电子商务有限公司 搜索词和商品的相关性预测方法、设备和存储介质

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104778176A (zh) * 2014-01-13 2015-07-15 阿里巴巴集团控股有限公司 一种数据搜索处理方法及装置
US10200824B2 (en) * 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US11514244B2 (en) * 2015-11-11 2022-11-29 Adobe Inc. Structured knowledge modeling and extraction from images
US10776707B2 (en) * 2016-03-08 2020-09-15 Shutterstock, Inc. Language translation based on search results and user interaction data
CN110249341A (zh) * 2017-02-03 2019-09-17 皇家飞利浦有限公司 分类器训练
JP6942488B2 (ja) * 2017-03-03 2021-09-29 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
CN109857845B (zh) * 2019-01-03 2021-06-22 北京奇艺世纪科技有限公司 模型训练及数据检索方法、装置、终端及计算机可读存储介质
CN110175615B (zh) * 2019-04-28 2021-01-01 华中科技大学 模型训练方法、域自适应的视觉位置识别方法及装置
CN111400473A (zh) * 2020-03-18 2020-07-10 北京三快在线科技有限公司 意图识别模型的训练方法及装置、存储介质及电子设备
CN111476284B (zh) * 2020-04-01 2023-12-26 杭州网易智企科技有限公司 图像识别模型训练及图像识别方法、装置、电子设备
CN111522985B (zh) * 2020-04-21 2023-04-07 易拍全球(北京)科贸有限公司 基于深浅层特征提取与融合的古董艺术品图像检索方法
CN111666374A (zh) * 2020-05-15 2020-09-15 华东师范大学 一种在深度语言模型中融入额外知识信息的方法
CN111782950A (zh) * 2020-06-30 2020-10-16 北京三快在线科技有限公司 样本数据集获取方法、装置、设备及存储介质
CN111950254B (zh) * 2020-09-22 2023-07-25 北京百度网讯科技有限公司 搜索样本的词特征提取方法、装置、设备以及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120226641A1 (en) * 2010-09-29 2012-09-06 Yahoo! Inc. Training a search query intent classifier using wiki article titles and a search click log
JP2014022837A (ja) * 2012-07-13 2014-02-03 Nippon Hoso Kyokai <Nhk> 学習装置、及びプログラム
US20200210891A1 (en) * 2018-12-29 2020-07-02 Yandex Europe Ag Method of and system for generating training set for machine learning algorithm (mla)
US20200285687A1 (en) * 2019-03-07 2020-09-10 Microsoft Technology Licensing, Llc Intent Encoder Trained Using Search Logs
CN110532393A (zh) * 2019-09-03 2019-12-03 腾讯科技(深圳)有限公司 文本处理方法、装置及其智能电子设备
CN111737418A (zh) * 2020-07-20 2020-10-02 北京每日优鲜电子商务有限公司 搜索词和商品的相关性预测方法、设备和存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
宮川 礼子: "専門検索エンジンの高速半自動生成法", FIT2006 第5回情報科学技術フォーラム 情報科学技術レターズ 第5巻, JPN6023000217, 21 August 2006 (2006-08-21), JP, pages 355 - 358, ISSN: 0005113876 *
森中 雄: "事例間の類似性に基づく負例の生成によるデータベースからの知識獲得", 人工知能学会誌, vol. 第15巻 第5号, JPN6023000216, 1 September 2000 (2000-09-01), JP, pages 862 - 870, ISSN: 0005113877 *

Also Published As

Publication number Publication date
KR20210151017A (ko) 2021-12-13
EP3937029A2 (en) 2022-01-12
CN112328891A (zh) 2021-02-05
CN112328891B (zh) 2023-08-01
EP3937029A3 (en) 2022-04-27
US20220083874A1 (en) 2022-03-17

Similar Documents

Publication Publication Date Title
US10725836B2 (en) Intent-based organisation of APIs
JP2022024102A (ja) 検索モデルのトレーニング方法、目標対象の検索方法及びその装置
CN111444320B (zh) 文本检索方法、装置、计算机设备和存储介质
US20210342549A1 (en) Method for training semantic analysis model, electronic device and storage medium
US9183511B2 (en) System and method for universal translating from natural language questions to structured queries
US9239875B2 (en) Method for disambiguated features in unstructured text
US9201931B2 (en) Method for obtaining search suggestions from fuzzy score matching and population frequencies
US20180075013A1 (en) Method and system for automating training of named entity recognition in natural language processing
JP2022073981A (ja) ソースコード取得
CN108710662B (zh) 语言转换方法和装置、存储介质、数据查询系统和方法
KR102292040B1 (ko) 기계 독해 기반 지식 추출을 위한 시스템 및 방법
US11797281B2 (en) Multi-language source code search engine
JP2022091986A (ja) インテリジェント対話方法、装置、電子機器及び記憶媒体
US20170124090A1 (en) Method of discovering and exploring feature knowledge
CN116383412B (zh) 基于知识图谱的功能点扩增方法和系统
KR102221263B1 (ko) 뇌기능 지식 베이스 자가 성장 시스템 및 방법
US20160085760A1 (en) Method for in-loop human validation of disambiguated features
CN113468311B (zh) 一种基于知识图谱的复杂问句问答方法、装置及存储介质
KR102685008B1 (ko) 검색 모델의 훈련 방법, 목표 대상의 검색 방법 및 그 장치
JP2021163477A (ja) 画像処理方法及び装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラム
CN116501841B (zh) 数据模型模糊查询方法、系统及存储介质
CN112579841B (zh) 一种多模态数据库建立方法、检索方法及系统
WO2023102831A1 (en) Systems and methods to search for digital twins
US20240028646A1 (en) Textual similarity model for graph-based metadata
JP2018041281A (ja) 検索装置、方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230725