JP2022049010A - Information search method, device, and computer readable storage medium - Google Patents

Information search method, device, and computer readable storage medium Download PDF

Info

Publication number
JP2022049010A
JP2022049010A JP2021149311A JP2021149311A JP2022049010A JP 2022049010 A JP2022049010 A JP 2022049010A JP 2021149311 A JP2021149311 A JP 2021149311A JP 2021149311 A JP2021149311 A JP 2021149311A JP 2022049010 A JP2022049010 A JP 2022049010A
Authority
JP
Japan
Prior art keywords
query
information retrieval
model
data
training data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021149311A
Other languages
Japanese (ja)
Other versions
JP7230979B2 (en
Inventor
ディン レイ
Dein Rei
トォン イシュアヌ
yi xuan Tong
ドォン ビヌ
Bin Dong
ジアン シャヌシャヌ
shan shan Jiang
ジャン ヨンウエイ
yong wei Zhang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2022049010A publication Critical patent/JP2022049010A/en
Application granted granted Critical
Publication of JP7230979B2 publication Critical patent/JP7230979B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9538Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

To provide an information search method, a device, and a computer readable storage medium.SOLUTION: An information search method of the present invention includes: a step for acquiring a query command and first training data including a query result corresponding to the query command; a step for acquiring second training data by deleting noises in the first training data; a step for initializing an information search model by utilizing the second training data; and a step for searching information by utilizing the information search model. A technology proposal of the present invention enhances accuracy for information search results, which enables improving efficiency of the information search.SELECTED DRAWING: Figure 1

Description

本発明は情報検索分野に関するものであり、具体的には情報検索方法、装置およびコンピュータ読み取り可能記憶媒体に関する。 The present invention relates to the field of information retrieval, and specifically relates to an information retrieval method, an apparatus, and a computer-readable storage medium.

情報検索技術は検索エンジン、質問応答システム、推奨システムやその他各種インテリジェントサービスに広く応用されている重要な技術である。より優れた情報検索技術により、メーカーは顧客の意図を正確に理解し、適切な製品またはサービスを提供することができる。 Information retrieval technology is an important technology widely applied to search engines, question answering systems, recommendation systems and various other intelligent services. Better information retrieval technology allows manufacturers to accurately understand customer intent and provide appropriate products or services.

現在、情報検索は主に大規模なニューラルネットワークモデルに基づいてユーザー問い合わせとドキュメントのセマンティックとの相関性を判断する。大規模なニューラルネットワークモデルをトレーニングするには、大量のラベリングデータが必要だが、人工的にラベリングするとコストが非常に高い。関連技術は生成に基づいた方法でトレーニング用ラベリングデータを構築することを提示した。ただし、生成したデータには通常一部ノイズが含まれ、且つ生成したデータには負のサンプル(negative sample)の相関性が不足し、情報検索の効果に影響を与えた。 Currently, information retrieval determines the correlation between user queries and document semantics, primarily based on large neural network models. Training a large neural network model requires a large amount of labeling data, but artificial labeling is very costly. Related techniques have been presented to construct training labeling data in a generation-based manner. However, the generated data usually contains some noise, and the generated data lacks the correlation of the negative sample, which affects the effect of information retrieval.

本発明の実施例は、情報検索方法、装置およびコンピュータ読み取り可能記憶媒体を提供し、情報検索結果の精度を高め、情報検索の効率を改善することを目的とする。 It is an object of the present invention to provide an information retrieval method, an apparatus and a computer-readable storage medium, to improve the accuracy of information retrieval results, and to improve the efficiency of information retrieval.

本発明の実施例の一面によれば、
クエリーコマンドと前記クエリーコマンドに対応するクエリー結果を含む第一トレーニングデータを取得するステップと、
前記第一トレーニングデータにおけるノイズを消去し、第二トレーニングデータを取得するステップと、
前記第二トレーニングデータを利用して情報検索モデルを初期化するステップと、
前記情報検索モデルを利用して情報を検索するステップ、
を含む情報検索方法を提供する。
According to one aspect of the embodiment of the present invention
The step of acquiring the first training data including the query command and the query result corresponding to the query command, and
The step of eliminating noise in the first training data and acquiring the second training data,
The step of initializing the information retrieval model using the second training data,
Steps to search for information using the information retrieval model,
Provides an information retrieval method including.

また、本発明の少なくとも一つの実施例によれば、情報検索モデルを初期化してから、前記方法が、敵対的クエリーによって前記情報検索モデルを最適化するステップ、をさらに含む。 Further, according to at least one embodiment of the present invention, the method further comprises, after initializing the information retrieval model, the step of optimizing the information retrieval model by a hostile query.

また、本発明の少なくとも一つの実施例によれば、前記第一トレーニングデータを取得するステップは、
クエリーコマンドと前記クエリーコマンドに対応するクエリー結果を含むオープンデータを取得することと、
前記オープンデータを利用してトレーニングによりクエリーデータ生成モデルを生成し、前記クエリーデータ生成モデルは入力したクエリー結果によって前記クエリー結果に対応するクエリーコマンドを生成することと、
特定分野のドキュメントを前記クエリーデータ生成モデルに入力し、前記第一トレーニングデータを生成することと、を含む。
Further, according to at least one embodiment of the present invention, the step of acquiring the first training data is
Acquiring open data including the query command and the query result corresponding to the query command, and
Using the open data, a query data generation model is generated by training, and the query data generation model generates a query command corresponding to the query result based on the input query result.
It includes inputting a document of a specific field into the query data generation model and generating the first training data.

また、本発明の少なくとも一つの実施例によれば、前記第一トレーニングデータにおけるノイズを消去する前記ステップは、
前記第一トレーニングデータを利用してノイズ分類モデルを初期化することと、
前記ノイズ分類モデルをトレーニングすることと、
トレーニングしたノイズ分類モデルを利用して、前記第一トレーニングデータにおけるノイズを消去することと、を含む。
Further, according to at least one embodiment of the present invention, the step of eliminating noise in the first training data is
Initializing the noise classification model using the first training data,
Training the noise classification model and
It includes eliminating noise in the first training data using a trained noise classification model.

また、本発明の少なくとも一つの実施例によれば、前記ノイズ分類モデルをトレーニングする前記ステップは、
N回のイテレーションを行ってトレーニングしたノイズ分類モデルを取得し、Nは正の整数であることを含み、
その中で、毎回のイテレーションにおいて、前記ノイズ分類モデルを利用して前記第一トレーニングデータにおけるノイズを消去し、ノイズを消去したデータを利用して前記情報検索モデルをトレーニングし、トレーニングした前記情報検索モデルの損失関数を利用して前記ノイズ分類モデルのパラメータを更新する。
Also, according to at least one embodiment of the invention, the step of training the noise classification model is
Obtained a noise classification model trained by performing N iterations, including that N is a positive integer.
Among them, in each iteration, the noise classification model is used to eliminate noise in the first training data, and the information retrieval model is trained and trained using the noise-erased data. The parameters of the noise classification model are updated using the loss function of the model.

また、本発明の少なくとも一つの実施例によれば、前記敵対的クエリーによって前記情報検索モデルを最適化するステップは、
前記第二トレーニングデータを利用して無相関クエリー生成モデルを初期化し、前記無相関クエリー生成モデルの入力はクエリー結果及び前記クエリー結果と相関する第一クエリーコマンドで、出力は前記クエリー結果と無相関である第二クエリーコマンドであることと、
前記情報検索モデルの出力結果を前記無相関クエリー生成モデルに入力し、前記無相関クエリー生成モデルの出力結果を利用して前記情報検索モデルをトレーニングすること、を含む。
Also, according to at least one embodiment of the invention, the step of optimizing the information retrieval model by the hostile query is.
The second training data is used to initialize the uncorrelated query generation model, the input of the uncorrelated query generation model is the query result and the first query command that correlates with the query result, and the output is uncorrelated with the query result. It is a second query command that is
This includes inputting the output result of the information retrieval model into the uncorrelated query generation model and training the information retrieval model using the output result of the uncorrelated query generation model.

また、本発明の少なくとも一つの実施例によれば、前記無相関クエリー生成モデルの目標関数は、
前記無相関クエリー生成モデルが生成した第二クエリーコマンドとクエリー結果の相関性と、
前記無相関クエリー生成モデルが生成した第二クエリーコマンドと第一クエリーコマンドのテキストの類似性と、を含む。
Further, according to at least one embodiment of the present invention, the target function of the uncorrelated query generation model is
The correlation between the second query command generated by the uncorrelated query generation model and the query result,
The text similarity between the second query command and the first query command generated by the uncorrelated query generation model is included.

本発明の実施例の他の一面によれば、
クエリーコマンドと前記クエリーコマンドに対応するクエリー結果を含む第一トレーニングデータを取得する取得ユニットと、
前記第一トレーニングデータにおけるノイズを消去し、第二トレーニングデータを取得するノイズ消去ユニットと、
前記第二トレーニングデータを利用して情報検索モデルを初期化する初期化ユニットと、
前記情報検索モデルを利用して情報を検索する情報検索ユニット、
を含む情報検索装置を提供する。
According to another aspect of the embodiment of the invention.
An acquisition unit that acquires the first training data including the query command and the query result corresponding to the query command, and the acquisition unit.
A noise elimination unit that eliminates noise in the first training data and acquires second training data,
An initialization unit that initializes the information retrieval model using the second training data,
An information retrieval unit that searches for information using the information retrieval model,
Provides an information retrieval device including.

また、本発明の少なくとも一つの実施例によれば、敵対的クエリーによって前記情報検索モデルを最適化する最適化ユニット、をさらに含む。 Also included, according to at least one embodiment of the invention, is an optimization unit that optimizes the information retrieval model by hostile queries.

また、本発明の少なくとも一つの実施例によれば、前記取得ユニットは、
クエリーコマンドと前記クエリーコマンドに対応するクエリー結果を含むオープンデータを取得する取得サブユニットと、
前記オープンデータを利用してトレーニングによりクエリーデータ生成モデルを生成し、前記クエリーデータ生成モデルは入力したクエリー結果によって前記クエリー結果に対応するクエリーコマンドを生成する第一処理サブユニットと、
特定分野のドキュメントを前記クエリーデータ生成モデルに入力し、前記第一トレーニングデータを生成する第二処理サブユニットと、を含む。
Further, according to at least one embodiment of the present invention, the acquisition unit is
A query command, an acquisition subunit that acquires open data containing the query results corresponding to the query command, and
The query data generation model is generated by training using the open data, and the query data generation model is a first processing subunit that generates a query command corresponding to the query result based on the input query result.
A second processing subunit, which inputs a document of a specific field into the query data generation model and generates the first training data, is included.

また、本発明の少なくとも一つの実施例によれば、前記ノイズ消去ユニットは、
前記第一トレーニングデータを利用してノイズ分類モデルを初期化する第一初期化サブユニットと、
前記ノイズ分類モデルをトレーニングするトレーニングサブユニットと、
トレーニングしたノイズ分類モデルを利用して、前記第一トレーニングデータにおけるノイズを消去する消去サブユニットと、を含む。
Further, according to at least one embodiment of the present invention, the noise elimination unit is
The first initialization subunit that initializes the noise classification model using the first training data,
A training subunit that trains the noise classification model,
It includes an erasing subunit that eliminates noise in the first training data using a trained noise classification model.

また、本発明の少なくとも一つの実施例によれば、前記最適化ユニットは、
前記第二トレーニングデータを利用して無相関クエリー生成モデルを初期化し、前記無相関クエリー生成モデルの入力はクエリー結果及び前記クエリー結果と相関する第一クエリーコマンドで、出力は前記クエリー結果と無相関である第二クエリーコマンドである第二初期化サブユニットと、
前記情報検索モデルの出力結果を前記無相関クエリー生成モデルに入力し、前記無相関クエリー生成モデルの出力結果を利用して前記情報検索モデルをトレーニングする敵対トレーニングサブユニットと、を含む。
Further, according to at least one embodiment of the present invention, the optimization unit is
The second training data is used to initialize the uncorrelated query generation model, the input of the uncorrelated query generation model is the query result and the first query command that correlates with the query result, and the output is uncorrelated with the query result. The second query command, the second initialization subunit,
It includes a hostile training subunit that inputs the output result of the information retrieval model into the uncorrelated query generation model and trains the information retrieval model using the output result of the uncorrelated query generation model.

本発明は、
プロセッサーと、
コンピュータプログラムコマンドが格納されるメモリーと、を含み、
前記コンピュータプログラムコマンドが前記プロセッサーにより実行される時に、前記プロセッサーに前記情報検索方法のステップを実現させる情報検索装置を提供する。
The present invention
With the processor
Contains memory for storing computer program commands,
Provided is an information retrieval device that enables the processor to realize the steps of the information retrieval method when the computer program command is executed by the processor.

本発明は、
コンピュータ読み取り可能な記憶媒体であって、前記コンピュータ読み取り可能な記憶媒体はコンピュータプログラムを格納して、前記コンピュータプログラムがプロセッサーにより実行される場合、前記情報検索方法のステップを実現するコンピュータ読み取り可能な記憶媒体を提供する。
The present invention
A computer-readable storage medium, wherein the computer-readable storage medium stores a computer program, and when the computer program is executed by a processor, the computer-readable storage realizes the step of the information retrieval method. Provide a medium.

従来の技術に比べ、本発明の実施例が提供する情報検索方法、装置及びコンピュータ読み取り可能記憶媒体は、情報検索モデルをトレーニングする第一トレーニングデータを取得してから、第一トレーニングデータを直接利用して情報検索モデルを生成せず、まず第一トレーニングデータにおけるノイズを消去し、ノイズを消去した第二トレーニングデータを利用して情報検索モデルを初期化することで、情報検索モデルの性能を最適化し、情報検索結果の精度を高め、情報検索の効率を改善することができる。 Compared with the prior art, the information retrieval method, apparatus and computer readable storage medium provided by the embodiments of the present invention acquire the first training data for training the information retrieval model and then directly use the first training data. The performance of the information retrieval model is optimized by first eliminating the noise in the first training data and then initializing the information retrieval model using the second training data that eliminates the noise without generating the information retrieval model. It is possible to improve the accuracy of information retrieval results and improve the efficiency of information retrieval.

本発明の実施例の技術方案をより明確に説明するために、以下、本発明の実施例の説明に必要とされる図面について簡単に紹介するが、明らかに、下記の図は本発明のいくつかの実施例にすぎず、当業者は、高度な技術を必要としない前提において、これらの図面によって他の図面を得ることもできる。
本発明実施例の情報検索方法のフローチャートである。 本発明実施例の第一トレーニングデータを取得するフローチャートである。 本発明実施例の第一トレーニングデータを取得するフローチャートである。 本発明の実施例のノイズ分類モデルをトレーニングする概略図である。 本発明実施例の情報検索モデルを最適化するフローチャートである。 本発明の実施例の無相関クエリーを生成する概略図である。 本発明の実施例の情報検索モデルと無相関クエリー生成モデルを敵対トレーニングする概略図である。 本発明実施例の情報検索装置の構造概略図である。 本発明実施例の情報検索装置の別の構造概略図である。 本発明実施例の取得ユニットの構造概略図である。 本発明実施例のノイズ消去ユニットの構造概略図である。 本発明実施例の最適化ユニットの構造概略図である。 本発明実施例の情報検索装置のもうひとつの構造概略図である。
In order to more clearly explain the technical plan of the embodiment of the present invention, the drawings required for the description of the embodiment of the present invention will be briefly introduced below. These drawings may be used by those skilled in the art to obtain other drawings on the premise that they do not require a high level of skill.
It is a flowchart of the information retrieval method of an Example of this invention. It is a flowchart which acquires the 1st training data of an Example of this invention. It is a flowchart which acquires the 1st training data of an Example of this invention. It is a schematic diagram which trains the noise classification model of the Example of this invention. It is a flowchart which optimizes the information retrieval model of the Example of this invention. It is a schematic diagram which generates the uncorrelated query of the Example of this invention. It is a schematic diagram for hostile training of the information retrieval model and the uncorrelated query generation model of the embodiment of the present invention. It is a structural schematic diagram of the information retrieval apparatus of an Example of this invention. It is another structural schematic diagram of another information retrieval apparatus of this invention embodiment. It is a structural schematic diagram of the acquisition unit of the Example of this invention. It is a structural schematic diagram of the noise elimination unit of the Example of this invention. It is a structural schematic diagram of the optimization unit of the Example of this invention. It is another structural schematic diagram of the information retrieval apparatus of this invention embodiment.

本発明が解決する技術問題、技術案及び優れた点をより明確にするため、以下に図面と具体的な実施例を組み合わせて詳しく説明する。以下の説明において、具体的な配置とコンポーネントの特定の細部を提供することは、本発明の実施例を全面的に理解するのを助けるためだけのものである。したがって、本発明の範囲と主旨から逸脱することなく、ここで述べた実施例に対して様々な変更と改良が可能であることは、当業者にとって自明である。また、明瞭且つ簡潔にするため、既知の機能と構造の記述は省略する。 In order to clarify the technical problems, technical proposals, and excellent points to be solved by the present invention, the drawings and specific examples will be described in detail below. In the following description, the provision of specific arrangements and specific details of the components is solely to aid in a full understanding of the embodiments of the present invention. Therefore, it is obvious to those skilled in the art that various changes and improvements can be made to the embodiments described here without departing from the scope and gist of the present invention. Also, for the sake of clarity and conciseness, the description of known functions and structures is omitted.

本明細書で言及した「一つの実施例」または「実施例」は、実施例に関連する特定の特徴、構造または特性が本発明の少なくとも一つの実施例に含まれることを意味する。したがって、本明細書のいたるところに出現する「一つの実施例で」または「実施例で」とは必ずしも同じ実施例を指すとは限らない。なお、これら特定の特徴、構造若しくは特性は任意に適当な方式で一つ或は複数の実施例に結合することができる。 As used herein, "one example" or "example" means that a particular feature, structure or property associated with an example is included in at least one embodiment of the invention. Therefore, "in one embodiment" or "in an embodiment" that appear throughout the specification does not necessarily refer to the same embodiment. It should be noted that these specific features, structures or properties can be arbitrarily combined into one or more embodiments in any suitable manner.

本発明の各実施例において、下記の各プロセスのシリアル番号の大きさは実行手順の前後順序を意味するものではなく、各プロセスの実行手順はその機能と内部ロジックによって確定され、本発明の実施例の実施プロセスに対し如何なる制限を構成してはならない。 In each embodiment of the present invention, the magnitude of the serial number of each of the following processes does not mean the order before and after the execution procedure, and the execution procedure of each process is determined by its function and internal logic, and the execution of the present invention is carried out. No restrictions may be configured for the example implementation process.

情報検索システムに必要なラベリングデータの量が大きく、人工的にデータをラベリングするコストが高いという問題を解決するため、クエリーデータ生成モデルを使ってターゲットフィールドのドキュメントにクエリーを生成し、その後生成したクエリーを使って「クエリー―結果」のデータペアを構成して情報検索モデルをトレーニングする。 To solve the problem of the large amount of labeling data required for information retrieval systems and the high cost of artificially labeling data, a query data generation model was used to generate a query on a document in the target field, which was then generated. Use queries to construct a "query-result" data pair to train an information retrieval model.

ただし、この方法には2つの問題がある。一つは、生成したデータにノイズが存在する。もう一つは、上記方法において、生成したクエリーを相関クエリーとし、無相関クエリーはランダムに選択したその他のドキュメントのクエリーによって構成され、無相関クエリーの数と品質が要件を満足することができない。質の高い無相関クエリーは情報検索システムの効果を効果的に高めることができる。そのうち、高品質の無相関クエリーとは、相関クエリーとテキスト上では類似しているが、クエリー結果の内容とは相関しないものを指す。例えば、「iphoneXはアップル社が生産する」というクエリー結果に対し、相関クエリーは「iphoneXの生産メーカーは?」で、対応する高品質の無相関クエリーは「iphoneXのカラーは?」で、低品質の無相関クエリーは「トランプは誰?」である。 However, there are two problems with this method. One is that there is noise in the generated data. Second, in the above method, the generated query is a correlated query, the uncorrelated query is composed of queries from other randomly selected documents, and the number and quality of uncorrelated queries cannot meet the requirements. High-quality uncorrelated queries can effectively enhance the effectiveness of information retrieval systems. A high-quality uncorrelated query is one that is textually similar to a correlated query but does not correlate with the content of the query result. For example, in response to the query result "iphone X is produced by Apple Inc.", the correlated query is "What is the manufacturer of iphone X?", And the corresponding high-quality uncorrelated query is "What is the color of iphone X?", Which is low quality. The uncorrelated query for is "Who is Trump?".

本発明の実施例は、情報検索方法、装置およびコンピュータ読み取り可能記憶媒体を提供し、情報検索結果の精度を高め、情報検索の効率を改善することを目的とする。 It is an object of the present invention to provide an information retrieval method, an apparatus and a computer-readable storage medium, to improve the accuracy of information retrieval results, and to improve the efficiency of information retrieval.

本発明の実施例は、図1に示すように、次のステップを含む異常データ検出方法を提供する。 An embodiment of the present invention provides an anomalous data detection method comprising the following steps, as shown in FIG.

ステップ101:クエリーコマンドと前記クエリーコマンドに対応するクエリー結果を含む第一トレーニングデータを取得する。 Step 101: Acquire the first training data including the query command and the query result corresponding to the query command.

例えば、「iphoneXの生産メーカーは?」のクエリーコマンドに対し、対応するクエリー結果は「iphoneXはアップル社が生産する」である。そのうち、第一トレーニングデータは特定ターゲットフィールドの「クエリーコマンド―クエリー結果」のデータペアである。 For example, in response to the query command "Who is the manufacturer of iphone X?", The corresponding query result is "iphone X is manufactured by Apple Inc.". Among them, the first training data is a data pair of "query command-query result" of a specific target field.

図2に示すように、第一トレーニングデータを取得するステップは、次のステップを含む。 As shown in FIG. 2, the step of acquiring the first training data includes the following steps.

ステップ1011:クエリーコマンドと前記クエリーコマンドに対応するクエリー結果を含むオープンデータを取得する。 Step 1011: Acquire open data including the query command and the query result corresponding to the query command.

そのうち、オープンデータはネットワークに公開したデータセットであることができ、ネットワークから収集して取得することもできる。例えば、Q&Aサイトの「質問―回答」データをクエリーコマンドとクエリーコマンドに対応するクエリー結果と見ることができ、「質問-回答」データをクエリーデータ生成モデルの生成に用いるトレーニングデータとすることができる。 Of these, open data can be datasets published to the network and can also be collected and retrieved from the network. For example, the "question-answer" data on the Q & A site can be viewed as the query command and the query result corresponding to the query command, and the "question-answer" data can be the training data used to generate the query data generation model. ..

第一トレーニングデータと異なる点として、取得したオープンデータは必ずしも特定ターゲットフィールドのデータであるわけではなく、例えば、特定ターゲットフィールドが医学分野である場合、取得したオープンデータは機械分野のようなその他の分野のデータである可能性がある。 The difference from the first training data is that the acquired open data is not necessarily the data of the specific target field, for example, if the specific target field is in the medical field, the acquired open data is other such as the mechanical field. It may be field data.

ステップ1012:前記オープンデータを利用してトレーニングによりクエリーデータ生成モデルを生成し、前記クエリーデータ生成モデルは入力したクエリー結果によって前記クエリー結果に対応するクエリーコマンドを生成する。 Step 1012: The query data generation model is generated by training using the open data, and the query data generation model generates a query command corresponding to the query result based on the input query result.

そのうち、オープンデータ生成モデルはニューラルネットワークモデルで、取得したオープンデータを利用してトレーニングによりクエリーデータ生成モデルを生成し、クエリーデータ生成モデルは入力したクエリー結果によって前記クエリー結果に対応するクエリーコマンドを生成することができる。例えば、入力したクエリー結果が「トランプはアメリカ大統領である」の場合、生成した出力はクエリーコマンドの「トランプは誰?」である。 Among them, the open data generation model is a neural network model, which uses the acquired open data to generate a query data generation model by training, and the query data generation model generates a query command corresponding to the query result based on the input query result. can do. For example, if the input query result is "Trump is the President of the United States", the output generated is the query command "Who is Trump?".

ステップ1013:特定分野のドキュメントを前記クエリーデータ生成モデルに入力し、前記第一トレーニングデータを生成する。 Step 1013: A document of a specific field is input to the query data generation model to generate the first training data.

そのうち、必要に応じて特定分野のドキュメントをクエリーデータ生成モデルに入力することができ、特定分野とは医学分野、機械製造分野などを含むがこの限りではない。特定分野のドキュメントをクエリーデータ生成モデルに入力すると、「クエリーコマンド―クエリー結果」のデータセットを生成することができ、これによりクエリーデータ生成モデルを利用して特定分野の「クエリーコマンド―クエリー結果」データを大量に生成し、情報検索システムに必要なラベリングデータの量が大きく、人工的にデータをラベリングするコストが高いという問題を解決することができる。 Among them, documents in a specific field can be input to the query data generation model as needed, and the specific field includes, but is not limited to, the medical field, the machine manufacturing field, and the like. By inputting a specific field document into the query data generation model, it is possible to generate a data set of "query command-query result", which utilizes the query data generation model to generate a specific field "query command-query result". It is possible to solve the problem that a large amount of data is generated, the amount of labeling data required for an information retrieval system is large, and the cost of artificially labeling the data is high.

ステップ102:前記第一トレーニングデータにおけるノイズを消去し、第二トレーニングデータを取得する。 Step 102: Eliminate the noise in the first training data and acquire the second training data.

ステップ101において生成した特定分野の「クエリーコマンド―クエリー結果」のデータセットにもしノイズ(即ち不正確なデータ)が存在すると、情報検索モデルの精度に不利な影響を与えるため、情報検索モデルを初期化トレーニングする前に、まずデータのノイズを消去しなければならない。本実施例においては、ノイズ分類モデルを利用して第一トレーニングデータにおけるノイズを消去することができ、ノイズ分類モデルは任意のテキスト分類モデルであることができ、一つのデータがノイズであるか否かを区分することができる。 The information retrieval model is initially initialized because the presence of noise (ie, inaccurate data) in the data set of the "query command-query result" of the specific field generated in step 101 adversely affects the accuracy of the information retrieval model. Before training, data noise must first be eliminated. In this embodiment, the noise classification model can be used to eliminate noise in the first training data, the noise classification model can be any text classification model, and whether one data is noise or not. Can be classified.

図3に示すように、本実施例において、前記第一トレーニングデータにおけるノイズを消去するステップは以下のステップを含む。 As shown in FIG. 3, in this embodiment, the step of eliminating noise in the first training data includes the following steps.

ステップ1021:前記第一トレーニングデータを利用してノイズ分類モデルを初期化する。 Step 1021: Initialize the noise classification model using the first training data.

ステップ1022:前記ノイズ分類モデルをトレーニングする。 Step 1022: Train the noise classification model.

本実施例においては、N回のイテレーションを行ってトレーニングしたノイズ分類モデルを取得することができ、Nは正の整数である。 In this embodiment, a noise classification model trained by performing N iterations can be obtained, where N is a positive integer.

図4に示すように、毎回のイテレーションにおいて、ノイズ分類モデルを利用して前記第一トレーニングデータにおけるノイズを消去し、ノイズを消去したデータを利用して情報検索モデルをトレーニングし、トレーニングした情報検索モデルの損失関数を利用してノイズ分類モデルのパラメータを更新することにより、ノイズ分類モデルを最適化する。 As shown in FIG. 4, in each iteration, the noise classification model is used to eliminate noise in the first training data, and the noise-removed data is used to train an information retrieval model and trained information retrieval. Optimize the noise classification model by updating the parameters of the noise classification model using the loss function of the model.

本実施例において、ノイズ分類モデルは以下に示すように、データがノイズである確率pjを予測することができる。

Figure 2022049010000002
In this embodiment, the noise classification model can predict the probability p j that the data is noise, as shown below.
Figure 2022049010000002

そのうち、πはノイズ分類モデルの関数で、a=1はデータがノイズでないことを示し、a=0はデータがノイズであることを示す。 Of these, π is a function of the noise classification model, a = 1 indicates that the data is not noise, and a = 0 indicates that the data is noise.

ノイズ分類モデルのパラメータθは、以下の損失関数によって更新することができる。

Figure 2022049010000003
The parameter θ of the noise classification model can be updated by the following loss function.
Figure 2022049010000003

そのうち、Uiはi回目にイテレーションする時、ノイズ分類モデルを利用して第一トレーニングデータにおけるノイズを消去してから残ったデータで、Ui-1はi-1回目にイテレーションする時、ノイズ分類モデルを利用して第一トレーニングデータにおけるノイズを消去してから残ったデータで、Fは情報検索モデルを評価する性能指標である。 Of these, U i is the data remaining after eliminating the noise in the first training data using the noise classification model when iterating at the i-th time, and U i-1 is the noise when it is iterated at the i-1st time. F is a performance index for evaluating the information retrieval model, which is the data remaining after eliminating the noise in the first training data using the classification model.

そのうち、Nは、例えば50或いは100のようなデフォルト値であることができ、またイテレーション後の情報検索モデルの性能に基づいて決定することもできる。N回目のイテレーション後、情報検索モデルの性能がN-1回目のイテレーションより性能のアップが限られていた場合、イテレーションを終了する。 Of these, N can be a default value, for example 50 or 100, and can also be determined based on the performance of the information retrieval model after iteration. After the Nth iteration, if the performance of the information retrieval model is limited to the performance improvement from the N-1th iteration, the iteration is terminated.

ステップ1023:トレーニングしたノイズ分類モデルを利用して、前記第一トレーニングデータにおけるノイズを消去する。 Step 1023: The trained noise classification model is used to eliminate the noise in the first training data.

トレーニングしたノイズ分類モデルを利用して、前記第一トレーニングデータにおけるノイズを消去した後、第一トレーニングデータにおける誤ったデータを排除して、情報検索モデルの精度を向上させることができる。 The trained noise classification model can be used to eliminate noise in the first training data and then eliminate erroneous data in the first training data to improve the accuracy of the information retrieval model.

ステップ103:前記第二トレーニングデータを利用して情報検索モデルを初期化する。 Step 103: Initialize the information retrieval model using the second training data.

本実施例において、ノイズを消去した第二トレーニングデータを利用して情報検索モデルを初期化することで、情報検索結果の精度を高め、情報検索の効率を改善することができる。 In this embodiment, by initializing the information retrieval model using the second training data in which noise is eliminated, the accuracy of the information retrieval results can be improved and the efficiency of the information retrieval can be improved.

性能を向上させるため、情報検索モデルを初期化してから、前記方法は、敵対的クエリーによって前記情報検索モデルを最適化するステップをさらに含む。図5に示すように、敵対的クエリーによって前記情報検索モデルを最適化する前記ステップは、次のステップをさらに含む。 To improve performance, the information retrieval model is initialized and then the method further comprises optimizing the information retrieval model by hostile queries. As shown in FIG. 5, the step of optimizing the information retrieval model by a hostile query further comprises the following steps:

ステップ1051:前記第二トレーニングデータを利用して無相関クエリー生成モデルを初期化し、前記無相関クエリー生成モデルの入力はクエリー結果及び前記クエリー結果と相関する第一クエリーコマンドで、出力は前記クエリー結果と相関しない第二クエリーコマンドである。 Step 1051: Initialize the uncorrelated query generation model using the second training data, the input of the uncorrelated query generation model is the query result and the first query command that correlates with the query result, and the output is the query result. This is a second query command that does not correlate with.

そのうち、第二クエリーコマンドは高品質の無相関クエリーで、第二クエリーコマンドはクエリー結果と無相関であり、且つ第一クエリーコマンドとテキストの類似性を有する必要がある。そのうち、前記無相関クエリー生成モデルの目標関数は、前記無相関クエリー生成モデルが生成した第二クエリーコマンドとクエリー結果の相関性と、前記無相関クエリー生成モデルが生成した第二クエリーコマンドと第一クエリーコマンドのテキストの類似性を含む。上記目標関数は小さいほど望ましい。 Of these, the second query command must be a high quality uncorrelated query, the second query command must be uncorrelated with the query results, and have text similarities to the first query command. Among them, the target function of the uncorrelated query generation model is the correlation between the second query command generated by the uncorrelated query generation model and the query result, and the second query command and the first one generated by the uncorrelated query generation model. Includes textual similarities in query commands. The smaller the objective function, the more desirable it is.

図6に示すように、そのうち、無相関クエリー生成モデルの入力は、「iphoneXはアップル社が生産する」のようなクエリー結果と例えば「iphoneXの生産メーカーは?」のようなクエリー結果と相関するクエリーコマンドで、出力は例えば「iphoneXのカラーは?」のようなクエリー結果と無相関である別のクエリーコマンドで、その無相関クエリーコマンドは「iphoneXの生産メーカーは?」とテキストの類似性を有し、すなわち高品質の無相関クエリーである。 As shown in Figure 6, the input of the uncorrelated query generation model correlates with a query result such as "iphone X is produced by Apple Inc." and a query result such as "Who is the manufacturer of iphone X?" In a query command, the output is another query command that is uncorrelated with the query result, for example "What is the color of iphone X?", And that uncorrelated query command has a text similarity of "Who is the manufacturer of iphone X?" Have, i.e., a high quality uncorrelated query.

初期化のプロセスにおいて、以下の目標関数を使って生成済みのクエリーコマンドとクエリー結果を無相関にするが、相関するクエリーコマンドとはテキストの上では類似する。
(外1)

Figure 2022049010000004
In the initialization process, the following objective function is used to make the generated query command and the query result uncorrelated, but the correlated query command is similar in text.
(Outside 1)
Figure 2022049010000004

そのうち、
(外2)

Figure 2022049010000005
の部分は生成済みの無相関クエリーとクエリー結果の相関性を示し、上記初期化トレーニングした情報検索モデルによって取得することができる。
(外3)
Figure 2022049010000006
は編集距離など、テキストの類似性を判断する指標であることができる。この二つの部分はいずれも小さいほど望ましい。λは第二部分の重要度を調整する重み係数で、必要に応じてλの値を調整することができる。 Of which
(Outside 2)
Figure 2022049010000005
The part of shows the correlation between the generated uncorrelated query and the query result, and can be obtained by the above-mentioned initialization-trained information retrieval model.
(Outside 3)
Figure 2022049010000006
Can be an index for judging the similarity of texts, such as the editing distance. The smaller these two parts are, the more desirable. λ is a weighting factor that adjusts the importance of the second part, and the value of λ can be adjusted as needed.

ステップ1052:前記情報検索モデルの出力結果を前記無相関クエリー生成モデルに入力し、前記無相関クエリー生成モデルの出力結果を利用して前記情報検索モデルをトレーニングする。 Step 1052: The output result of the information retrieval model is input to the uncorrelated query generation model, and the information retrieval model is trained by using the output result of the uncorrelated query generation model.

図7に示すように、無相関クエリー生成モデルの出力結果をトレーニングデータとして情報検索モデルをトレーニングし、情報検索モデルが出力した結果をフィードバックとして無相関クエリー生成モデルに入力して敵対トレーニングを行い、情報検索モデルを最適化する。 As shown in Fig. 7, the information retrieval model is trained using the output result of the uncorrelated query generation model as training data, and the result output by the information retrieval model is input to the uncorrelated query generation model as feedback for hostile training. Optimize the information retrieval model.

情報検索モデルの入力が「クエリーコマンド―クエリー結果」で、出力が確率である場合、クエリー結果がクエリーコマンドに対応する正確なクエリー結果の確率であることを示し、もし「相関するクエリーコマンド及び対応するクエリー結果」のみを利用して情報検索モデルをトレーニングすると、情報検索モデルの精度に限りがあるため、本実施例では、無相関クエリー生成モデルが出力する「無相関クエリーコマンド―クエリー結果」データを利用して情報検索モデルをトレーニングし、情報検索モデルと無相関クエリー生成モデルを敵対トレーニングして、イテレーションによって二つのモデルがお互いに相手の効果を最適化できるようにさせる。 If the input of the information retrieval model is "query command-query result" and the output is probability, it indicates that the query result is the probability of the exact query result corresponding to the query command, and if "correlated query command and correspondence". Since the accuracy of the information retrieval model is limited if the information retrieval model is trained using only the "query result to be performed", in this embodiment, the "uncorrelated query command-query result" data output by the uncorrelated query generation model. Use to train an information retrieval model, hostile training an information retrieval model and an uncorrelated query generation model, and allow the two models to optimize each other's effects by iteration.

ステップ104:前記情報検索モデルを利用して情報を検索する。 Step 104: Search for information using the information retrieval model.

本実施例においては、情報検索モデルを利用してユーザーのクエリーコマンドとドキュメントの意味の相関性を正確に判断することができる。 In this embodiment, the information retrieval model can be used to accurately determine the correlation between the user's query command and the meaning of the document.

本実施例においては、第一トレーニングデータを取得してから、第一トレーニングデータを直接利用して情報検索モデルを生成せず、まず第一トレーニングデータにおけるノイズを消去し、ノイズを消去した第二トレーニングデータを利用して情報検索モデルを初期化することで、情報検索モデルの性能を最適化し、情報検索結果の精度を高め、情報検索の効率を改善することができる。 In this embodiment, after the first training data is acquired, the information retrieval model is not generated by directly using the first training data, but the noise in the first training data is first eliminated and the noise is eliminated. By initializing the information retrieval model using the training data, it is possible to optimize the performance of the information retrieval model, improve the accuracy of the information retrieval results, and improve the efficiency of the information retrieval.

本発明の実施例はまた、図8に示すように、次のユニットを含む情報検索装置を提供する。 The embodiments of the present invention also provide an information retrieval apparatus including the following units, as shown in FIG.

取得ユニット21:クエリーコマンドと前記クエリーコマンドに対応するクエリー結果を含む第一トレーニングデータを取得する。 Acquisition unit 21: Acquires the first training data including the query command and the query result corresponding to the query command.

例えば、「iphoneXの生産メーカーは?」のクエリーコマンドに対し、対応するクエリー結果は「iphoneXはアップル社が生産する」である。そのうち、第一トレーニングデータは特定ターゲットフィールドの「クエリーコマンド―クエリー結果」のデータペアである。 For example, in response to the query command "Who is the manufacturer of iphone X?", The corresponding query result is "iphone X is manufactured by Apple Inc.". Among them, the first training data is a data pair of "query command-query result" of a specific target field.

ノイズ消去ユニット22:前記第一トレーニングデータにおけるノイズを消去して、第二トレーニングデータを取得する。 Noise elimination unit 22: The noise in the first training data is erased, and the second training data is acquired.

生成した特定分野の「クエリーコマンド―クエリー結果」のデータセットにもしノイズ(即ち不正確なデータ)が存在すると、情報検索モデルの精度に不利な影響を与えるため、情報検索モデルを初期化トレーニングする前に、まずデータのノイズを消去しなければならない。本実施例においては、ノイズ分類モデルを利用して第一トレーニングデータにおけるノイズを消去することができ、ノイズ分類モデルは任意のテキスト分類モデルであることができ、一つのデータがノイズであるか否かを区分することができる。 The information retrieval model is initialized and trained because the presence of noise (that is, inaccurate data) in the generated "query command-query result" dataset adversely affects the accuracy of the information retrieval model. Before we do, we must first eliminate the noise in the data. In this embodiment, the noise classification model can be used to eliminate noise in the first training data, the noise classification model can be any text classification model, and whether one data is noise or not. Can be classified.

初期化ユニット23:前記第二トレーニングデータを利用して情報検索モデルを初期化する。 Initialization unit 23: The information retrieval model is initialized by using the second training data.

本実施例において、ノイズを消去した第二トレーニングデータを利用して情報検索モデルを初期化することで、情報検索結果の精度を高め、情報検索の効率を改善することができる。 In this embodiment, by initializing the information retrieval model using the second training data in which noise is eliminated, the accuracy of the information retrieval results can be improved and the efficiency of the information retrieval can be improved.

情報検索ユニット24:前記情報検索モデルを利用して情報を検索する。 Information retrieval unit 24: Search for information using the information retrieval model.

本実施例においては、情報検索モデルを利用してユーザーのクエリーコマンドとドキュメントの意味の相関性を正確に判断することができる。 In this embodiment, the information retrieval model can be used to accurately determine the correlation between the user's query command and the meaning of the document.

本実施例においては、第一トレーニングデータを取得してから、第一トレーニングデータを直接利用して情報検索モデルを生成せず、まず第一トレーニングデータにおけるノイズを消去し、ノイズを消去した第二トレーニングデータを利用して情報検索モデルを初期化することで、情報検索モデルの性能を最適化し、情報検索結果の精度を高め、情報検索の効率を改善することができる。 In this embodiment, after the first training data is acquired, the information retrieval model is not generated by directly using the first training data, but the noise in the first training data is first eliminated and the noise is eliminated. By initializing the information retrieval model using the training data, it is possible to optimize the performance of the information retrieval model, improve the accuracy of the information retrieval results, and improve the efficiency of the information retrieval.

一部実施例において、前記装置は、図9に示すように、敵対的クエリーによって前記情報検索モデルを最適化する最適化ユニット25をさらに含む。 In some embodiments, the apparatus further comprises an optimization unit 25 that optimizes the information retrieval model by hostile queries, as shown in FIG.

一部実施例においては、図10に示すように、前記取得ユニット21は次のユニットを含む。 In some embodiments, the acquisition unit 21 includes the following units, as shown in FIG.

取得サブユニット211:クエリーコマンドと前記クエリーコマンドに対応するクエリー結果を含むオープンデータを取得する。 Acquisition subunit 211: Acquires open data including the query command and the query result corresponding to the query command.

第一処理サブユニット212:前記オープンデータを利用してトレーニングによりクエリーデータ生成モデルを生成し、前記クエリーデータ生成モデルは入力したクエリー結果によって前記クエリー結果に対応するクエリーコマンドを生成する。 First processing subunit 212: The open data is used to generate a query data generation model by training, and the query data generation model generates a query command corresponding to the query result based on the input query result.

そのうち、オープンデータはネットワークに公開したデータセットであることができ、ネットワークから収集して取得することもできる。例えば、Q&Aサイトの「質問―回答」データをクエリーコマンドとクエリーコマンドに対応するクエリー結果と見ることができ、「質問―回答」データをクエリーデータ生成モデルの生成に用いるトレーニングデータとすることができる。 Of these, open data can be datasets published to the network and can also be collected and retrieved from the network. For example, the "question-answer" data on the Q & A site can be viewed as the query command and the query result corresponding to the query command, and the "question-answer" data can be the training data used to generate the query data generation model. ..

第一トレーニングデータと異なる点として、取得したオープンデータは必ずしも特定ターゲットフィールドのデータであるわけではなく、例えば、特定ターゲットフィールドが医学分野である場合、取得したオープンデータは機械分野のようなその他の分野のデータである可能性がある。 The difference from the first training data is that the acquired open data is not necessarily the data of the specific target field, for example, if the specific target field is in the medical field, the acquired open data is other such as the mechanical field. It may be field data.

そのうち、オープンデータ生成モデルはニューラルネットワークモデルで、取得したオープンデータを利用してトレーニングによりクエリーデータ生成モデルを生成し、クエリーデータ生成モデルは入力したクエリー結果によって前記クエリー結果に対応するクエリーコマンドを生成することができる。例えば、入力したクエリー結果が「トランプはアメリカ大統領である」の場合、生成した出力はクエリーコマンドの「トランプは誰?」である。 Among them, the open data generation model is a neural network model, which uses the acquired open data to generate a query data generation model by training, and the query data generation model generates a query command corresponding to the query result based on the input query result. can do. For example, if the input query result is "Trump is the President of the United States", the output generated is the query command "Who is Trump?".

第二処理サブユニット213:特定分野のドキュメントを前記クエリーデータ生成モデルに入力し、前記第一トレーニングデータを生成する。 Second processing subunit 213: A document of a specific field is input to the query data generation model to generate the first training data.

そのうち、必要に応じて特定分野のドキュメントをクエリーデータ生成モデルに入力することができ、特定分野とは医学分野、機械製造分野などを含むがこの限りではない。特定分野のドキュメントをクエリーデータ生成モデルに入力すると、「クエリーコマンド―クエリー結果」のデータセットを生成することができ、これによりクエリーデータ生成モデルを利用して特定分野の「クエリーコマンド―クエリー結果」データを大量に生成し、情報検索システムに必要なラベリングデータの量が大きく、人工的にデータをラベリングするコストが高いという問題を解決することができる。 Among them, documents in a specific field can be input to the query data generation model as needed, and the specific field includes, but is not limited to, the medical field, the machine manufacturing field, and the like. By inputting a specific field document into the query data generation model, it is possible to generate a data set of "query command-query result", which utilizes the query data generation model to generate a specific field "query command-query result". It is possible to solve the problem that a large amount of data is generated, the amount of labeling data required for an information retrieval system is large, and the cost of artificially labeling the data is high.

一部実施例においては、図11に示すように、前記ノイズ消去ユニット22は次のユニットを含む。 In some embodiments, as shown in FIG. 11, the noise elimination unit 22 includes the following units.

第一初期化サブユニット221:前記第一トレーニングデータを利用してノイズ分類モデルを初期化する。 First initialization subunit 221: Initialize the noise classification model using the first training data.

トレーニングサブユニット222:前記ノイズ分類モデルをトレーニングする。 Training subunit 222: Trains the noise classification model.

本実施例においては、N回のイテレーションを行ってトレーニングしたノイズ分類モデルを取得することができ、Nは正の整数である。 In this embodiment, a noise classification model trained by performing N iterations can be obtained, where N is a positive integer.

図4に示すように、毎回のイテレーションにおいて、ノイズ分類モデルを利用して前記第一トレーニングデータにおけるノイズを消去し、ノイズを消去したデータを利用して情報検索モデルをトレーニングし、トレーニングした情報検索モデルの損失関数を利用してノイズ分類モデルのパラメータを更新することにより、ノイズ分類モデルを最適化する。 As shown in FIG. 4, in each iteration, the noise classification model is used to eliminate noise in the first training data, and the noise-removed data is used to train an information retrieval model and trained information retrieval. Optimize the noise classification model by updating the parameters of the noise classification model using the loss function of the model.

本実施例において、ノイズ分類モデルは以下に示すように、データがノイズである確率pjを予測することができる。

Figure 2022049010000007
In this embodiment, the noise classification model can predict the probability p j that the data is noise, as shown below.
Figure 2022049010000007

そのうち、πはノイズ分類モデルの関数で、a=1はデータがノイズでないことを示し、a=0はデータがノイズであることを示す。 Of these, π is a function of the noise classification model, a = 1 indicates that the data is not noise, and a = 0 indicates that the data is noise.

ノイズ分類モデルのパラメータθは、以下の損失関数によって更新することができる。

Figure 2022049010000008
The parameter θ of the noise classification model can be updated by the following loss function.
Figure 2022049010000008

そのうち、Uiはi回目にイテレーションする時、ノイズ分類モデルを利用して第一トレーニングデータにおけるノイズを消去してから残ったデータで、Ui-1はi-1回目にイテレーションする時、ノイズ分類モデルを利用して第一トレーニングデータにおけるノイズを消去してから残ったデータで、Fは情報検索モデルを評価する性能指標である。 Of these, U i is the data remaining after eliminating the noise in the first training data using the noise classification model when iterating at the i-th time, and U i-1 is the noise when it is iterated at the i-1st time. F is a performance index for evaluating the information retrieval model, which is the data remaining after eliminating the noise in the first training data using the classification model.

そのうち、Nは、例えば50或いは100のようなデフォルト値であることができ、またイテレーション後の情報検索モデルの性能に基づいて決定することもできる。N回目のイテレーション後、情報検索モデルの性能がN-1回目のイテレーションより性能のアップが限られていた場合、イテレーションを終了する。 Of these, N can be a default value, for example 50 or 100, and can also be determined based on the performance of the information retrieval model after iteration. After the Nth iteration, if the performance of the information retrieval model is limited to the performance improvement from the N-1th iteration, the iteration is terminated.

消去サブユニット223:トレーニングしたノイズ分類モデルを利用して、前記第一トレーニングデータにおけるノイズを消去する。 Elimination subunit 223: Eliminates noise in the first training data using the trained noise classification model.

トレーニングしたノイズ分類モデルを利用して、前記第一トレーニングデータにおけるノイズを消去した後、第一トレーニングデータにおける誤ったデータを排除して、情報検索モデルの精度を向上させることができる。 The trained noise classification model can be used to eliminate noise in the first training data and then eliminate erroneous data in the first training data to improve the accuracy of the information retrieval model.

一部実施例においては、図12に示すように、前記最適化ユニット25は次のユニットを含む。 In some embodiments, as shown in FIG. 12, the optimization unit 25 includes the following units.

第二初期化サブユニット251:前記第二トレーニングデータを利用して無相関クエリー生成モデルを初期化し、前記無相関クエリー生成モデルの入力はクエリー結果及び前記クエリー結果と相関する第一クエリーコマンドで、出力は前記クエリー結果と相関しない第二クエリーコマンドである。 Second initialization subunit 251: Initialize the uncorrelated query generation model using the second training data, and the input of the uncorrelated query generation model is the query result and the first query command that correlates with the query result. The output is a second query command that does not correlate with the query result.

そのうち、第二クエリーコマンドは高品質の無相関クエリーで、第二クエリーコマンドはクエリー結果と無相関し、且つ第一クエリーコマンドとテキストの類似性を有する必要がある。そのうち、前記無相関クエリー生成モデルの目標関数は、前記無相関クエリー生成モデルが生成した第二クエリーコマンドとクエリー結果の相関性と、前記無相関クエリー生成モデルが生成した第二クエリーコマンドと第一クエリーコマンドのテキストの類似性を含む。上記目標関数は小さいほど望ましい。 Of these, the second query command must be a high quality uncorrelated query, the second query command must be uncorrelated with the query results, and have text similarities to the first query command. Among them, the target function of the uncorrelated query generation model is the correlation between the second query command generated by the uncorrelated query generation model and the query result, and the second query command and the first one generated by the uncorrelated query generation model. Includes textual similarities in query commands. The smaller the objective function, the more desirable it is.

図6に示すように、そのうち、無相関クエリー生成モデルの入力は、「iphoneXはアップル社が生産する」のようなクエリー結果と例えば「iphoneXの生産メーカーは?」のようなクエリー結果と相関するクエリーコマンドで、出力は例えば「iphoneXのカラーは?」のようなクエリー結果と無相関である別のクエリーコマンドで、その無相関クエリーコマンドは「iphoneXの生産メーカーは?」とテキストの類似性を有し、すなわち高品質の無相関クエリーである。 As shown in Figure 6, the input of the uncorrelated query generation model correlates with a query result such as "iphone X is produced by Apple Inc." and a query result such as "Who is the manufacturer of iphone X?" In a query command, the output is another query command that is uncorrelated with the query result, for example "What is the color of iphone X?", And that uncorrelated query command has a text similarity of "Who is the manufacturer of iphone X?" Have, i.e., a high quality uncorrelated query.

初期化のプロセスにおいて、以下の目標関数を使って生成済みのクエリーコマンドとクエリー結果を無相関にさせるが、相関するクエリーコマンドとはテキストの上では類似する。
(外4)

Figure 2022049010000009
In the initialization process, the following objective function is used to make the generated query command and the query result uncorrelated, but the correlated query command is similar in text.
(Outside 4)
Figure 2022049010000009

そのうち、
(外5)

Figure 2022049010000010
の部分は生成済みの無相関クエリーとクエリー結果の相関性を示し、上記初期化トレーニングした情報検索モデルによって取得することができる。
(外6)
Figure 2022049010000011
は編集距離など、テキストの類似性を判断する指標であることができる。この二つの部分はいずれも小さいほど望ましい。λは第二部分の重要度を調整する重み係数で、必要に応じてλの値を調整することができる。 Of which
(Outside 5)
Figure 2022049010000010
The part of shows the correlation between the generated uncorrelated query and the query result, and can be obtained by the above-mentioned initialization-trained information retrieval model.
(Outside 6)
Figure 2022049010000011
Can be an index for judging the similarity of texts, such as the editing distance. The smaller these two parts are, the more desirable. λ is a weighting factor that adjusts the importance of the second part, and the value of λ can be adjusted as needed.

敵対トレーニングサブユニット252:前記情報検索モデルの出力結果を前記無相関クエリー生成モデルに入力し、前記無相関クエリー生成モデルの出力結果を利用して前記情報検索モデルをトレーニングする。 Hostile training subunit 252: The output result of the information retrieval model is input to the uncorrelated query generation model, and the information retrieval model is trained using the output result of the uncorrelated query generation model.

図7に示すように、無相関クエリー生成モデルの出力結果をトレーニングデータとして情報検索モデルをトレーニングし、情報検索モデルが出力した結果をフィードバックとして無相関クエリー生成モデルに入力して敵対トレーニングを行い、情報検索モデルを最適化する。 As shown in Fig. 7, the information retrieval model is trained using the output result of the uncorrelated query generation model as training data, and the result output by the information retrieval model is input to the uncorrelated query generation model as feedback for hostile training. Optimize the information retrieval model.

情報検索モデルの入力が「クエリーコマンド―クエリー結果」で、出力が確率である場合、クエリー結果がクエリーコマンドに対応する正確なクエリー結果の確率であることを示し、もし「相関するクエリーコマンド及び対応するクエリー結果」のみを利用して情報検索モデルをトレーニングすると、情報検索モデルの精度に限りがあるため、本実施例では、無相関クエリー生成モデルが出力する「無相関クエリーコマンド―クエリー結果」データを利用して情報検索モデルをトレーニングし、情報検索モデルと無相関クエリー生成モデルを敵対トレーニングして、イテレーションによって二つのモデルがお互いに相手の効果を最適化できるようにさせる。 If the input of the information retrieval model is "query command-query result" and the output is probability, it indicates that the query result is the probability of the exact query result corresponding to the query command, and if "correlated query command and correspondence". Since the accuracy of the information retrieval model is limited if the information retrieval model is trained using only the "query result to be performed", in this embodiment, the "uncorrelated query command-query result" data output by the uncorrelated query generation model. Use to train an information retrieval model, hostile training an information retrieval model and an uncorrelated query generation model, and allow the two models to optimize each other's effects by iteration.

本発明の実施例はまた、図13に示すように、
プロセッサー32と、
コンピュータプログラムのコマンドを格納するメモリー34と、含む情報検索装置30を提供する。
Examples of the present invention are also shown in FIG.
Processor 32 and
It provides a memory 34 for storing computer program commands and an information retrieval device 30 including the memory 34.

その中で、前記コンピュータプログラムコマンドが前記プロセッサーにより実行される時、前記プロセッサー32に、次のステップ、即ち、
クエリーコマンドと前記クエリーコマンドに対応するクエリー結果を含む第一トレーニングデータを取得するステップと、
前記第一トレーニングデータにおけるノイズを消去し、第二トレーニングデータを取得するステップと、
前記第二トレーニングデータを利用して情報検索モデルを初期化するステップと、
前記情報検索モデルを利用して情報を検索するステップと、を実行させる。
In it, when the computer program command is executed by the processor, the processor 32 is given the next step, i.e.
The step of acquiring the first training data including the query command and the query result corresponding to the query command, and
The step of eliminating noise in the first training data and acquiring the second training data,
The step of initializing the information retrieval model using the second training data,
The step of searching for information using the information retrieval model and the step of searching for information are executed.

さらに、図13に示すように、情報検索装置30は、ネットワークインターフェイス31、入力デバイス33、ハードディスク35とディスプレイデバイス36を含む。 Further, as shown in FIG. 13, the information retrieval device 30 includes a network interface 31, an input device 33, a hard disk 35 and a display device 36.

上記各インターフェイスとデバイスはバスアーキテクチャを通じて相互に接続することができる。バスアーキテクチャは任意の数の相互に接続されたバスおよびブリッジを含むことができる。具体的には、プロセッサー32に代表される一つまたは複数の中央処理ユニット(CPU)及びメモリー34に代表される一つまたは複数のメモリーの各種電気回路が互いに接続されている。バスアーキテクチャは例えば、周辺機器、電圧レギュレータやパワーマネジメント回路などの各種その他の電気回路をお互いに接続させることができる。バスアーキテクチャはこれらのコンポーネント間の接続通信を実現するのに用いられることを理解すべきである。バスアーキテクチャはデータバスの外、電源バス、制御バスとステータス信号バスを含み、これらは当分野では周知のことのため、本明細書では詳しく説明しないものとする。 Each of the above interfaces and devices can be interconnected through a bus architecture. The bus architecture can include any number of interconnected buses and bridges. Specifically, one or more central processing units (CPUs) represented by the processor 32 and various electric circuits of one or more memories represented by the memory 34 are connected to each other. Bus architectures can, for example, connect peripherals, various other electrical circuits such as voltage regulators and power management circuits to each other. It should be understood that the bus architecture is used to achieve connection communication between these components. The bus architecture includes outside the data bus, power bus, control bus and status signal bus, which are well known in the art and are not described in detail herein.

前記ネットワークインターフェイス31は、ネットワーク(例えば、インターネット、イーサーネットなど)に接続することができ、例えばネットワークから公開データのような関連データを取得し、且つハードディスク35に格納することができる。 The network interface 31 can be connected to a network (for example, the Internet, Ethernet, etc.), and can acquire related data such as public data from the network and store it in the hard disk 35.

前記入力デバイス33は、オペレータが入力したさまざまなコマンドを受信し、且つプロセッサー32に送信して実行させることができる。前記入力デバイス33は、キーボード或いはクリックデバイス(例えば、マウス、トラックボール(trackball)、タッチパッド或いはタッチパネルなど)を含むことができる。 The input device 33 can receive various commands input by the operator and transmit them to the processor 32 for execution. The input device 33 may include a keyboard or click device (eg, mouse, trackball, touch pad, touch panel, etc.).

前記ディスプレイデバイス36は、プロセッサー32がコマンドを実行して取得した結果を表示することができる。 The display device 36 can display the result obtained by executing the command by the processor 32.

前記メモリー34は、オペレーションシステムの実行に必要なプログラムとデータ及びプロセッサー32の計算プロセスの中間結果などのデータを格納する。 The memory 34 stores data such as programs and data necessary for executing the operating system and intermediate results of the calculation process of the processor 32.

本発明の実施例においてメモリー34は、揮発性メモリー或いは非揮発性メモリーであることができ、或いは揮発性と非揮発性メモリーの両者を含むことができることを理解すべきである。その中で、非揮発性メモリーは読み取り専用メモリー(ROM)、プログラマブル読み取り専用メモリー(PROM)、消去可能プログラマブル読み取り専用メモリー(EPROM)、電気的消去可能プログラマブル読み取り専用メモリー(EEPROM)或いはフラッシュメモリーであることができる。揮発性メモリーはランダムアクセスメモリー(RM)であることができ、それを外部キャッシュに用いる。本明細書に記述した装置と方法のメモリー34は、限定される訳ではないが、これらおよびその他任意の適切なタイプのメモリーを含むことが意図される。 It should be understood that in the embodiments of the present invention, the memory 34 can be volatile or non-volatile memory, or can include both volatile and non-volatile memory. Among them, non-volatile memory is read-only memory (ROM), programmable read-only memory (PROM), erasable programmable read-only memory (EPROM), electrically erasable programmable read-only memory (EEPROM), or flash memory. be able to. Volatile memory can be random access memory (RM), which is used for external cache. The memory 34 of the devices and methods described herein is intended to include, but is not limited to, these and any other suitable type of memory.

一部の実施方式において、メモリー34は下記の要素を格納し、モジュール或いはデータ構造を実行することができ、或いはそのサブセット、またはその拡張セットであるオペレーションシステム341とアプリケーション342を実行することができる。 In some embodiments, the memory 34 can store the following elements and execute modules or data structures, or a subset thereof, or an extension set thereof, operating systems 341 and applications 342. ..

その中で、オペレーティングシステム341は、例えば、フレーム層、コアライブラリー層、ドライブ層など、さまざまなシステムプログラムを含み、さまざまな基本業務の実現やハードウェアベースのタスク処理に用いられる。アプリケーション342は、例えば、ブラウザー(Browser)などさまざまなアプリケーションを含み、各種アプリケーション業務の実現に用いられる。本発明実施例の方法を実現するプログラムは、アプリケーション342に含まれることができる。 Among them, the operating system 341 includes various system programs such as a frame layer, a core library layer, and a drive layer, and is used for realizing various basic tasks and processing hardware-based tasks. The application 342 includes various applications such as a browser and is used for realizing various application operations. A program that implements the methods of the embodiments of the present invention can be included in application 342.

上記プロセッサー32は、メモリー34に格納されたアプリケーションとデータを呼び出して実行する場合、具体的には、アプリケーション342に格納されたプログラムまたはコマンドである場合、クエリーコマンドと前記クエリーコマンドに対応するクエリー結果を含む第一トレーニングデータを取得し、前記トレーニングデータにおけるノイズを消去して第二トレーニングデータを取得し、前記第二トレーニングデータを利用して情報検索モデルを初期化し、前記情報検索モデルを利用して情報を検索する。 When the processor 32 calls and executes an application and data stored in the memory 34, specifically, when the program or command is stored in the application 342, the query command and the query result corresponding to the query command are used. The first training data including the above is acquired, the noise in the training data is eliminated, the second training data is acquired, the information retrieval model is initialized by using the second training data, and the information retrieval model is used. Search for information.

さらに、上記プロセッサー32は、メモリー34に格納されたアプリケーションとデータを呼び出して実行する場合、具体的には、アプリケーション342に格納されたプログラムまたはコマンドである場合、敵対的クエリーによって前記情報検索モデルを最適化する。 Further, when the processor 32 calls and executes an application and data stored in the memory 34, specifically, when it is a program or a command stored in the application 342, the information retrieval model is executed by a hostile query. Optimize.

さらに、上記プロセッサー32は、メモリー34に格納されたアプリケーションとデータを呼び出して実行する場合、具体的には、アプリケーション342に格納されたプログラムまたはコマンドである場合、クエリーコマンドと前記クエリーコマンドに対応するクエリー結果を含むオープンデータを取得し、前記オープンデータを利用してトレーニングによりクエリーデータ生成モデルを生成し、前記クエリーデータ生成モデルは入力したクエリー結果によって前記クエリー結果に対応するクエリーコマンドを生成し、特定分野のドキュメントを前記クエリーデータ生成モデルに入力して、前記第一トレーニングデータを生成する。 Further, the processor 32 corresponds to a query command and the query command when calling and executing an application and data stored in the memory 34, specifically, when the program or command is stored in the application 342. The open data including the query result is acquired, the query data generation model is generated by training using the open data, and the query data generation model generates a query command corresponding to the query result based on the input query result. The document of a specific field is input to the query data generation model to generate the first training data.

さらに、上記プロセッサー32は、メモリー34に格納されたアプリケーションとデータを呼び出して実行する場合、具体的には、アプリケーション342に格納されたプログラムまたはコマンドである場合、前記第一トレーニングデータを利用してノイズ分類モデルを初期化し、前記ノイズ分類モデルをトレーニングし、トレーニングしたノイズ分類モデルを利用して、前記第一トレーニングデータにおけるノイズを消去する。 Further, when the processor 32 calls and executes the application and data stored in the memory 34, specifically, when the program or command is stored in the application 342, the processor 32 utilizes the first training data. The noise classification model is initialized, the noise classification model is trained, and the trained noise classification model is used to eliminate the noise in the first training data.

さらに、上記プロセッサー32は、メモリー34に格納されたアプリケーションとデータを呼び出して実行する場合、具体的には、アプリケーション342に格納されたプログラムまたはコマンドである場合、N回のイテレーションを行ってトレーニングしたノイズ分類モデルを取得し、Nは正の整数であり、そのうち、毎回のイテレーションにおいて、前記ノイズ分類モデルを利用して前記第一トレーニングデータにおけるノイズを消去し、ノイズを消去したデータを利用して前記情報検索モデルをトレーニングし、トレーニングした前記情報検索モデルの損失関数を利用して前記ノイズ分類モデルのパラメータを更新する。 Further, the processor 32 is trained by performing N iterations when calling and executing the application and data stored in the memory 34, specifically, when the program or command is stored in the application 342. A noise classification model is acquired, and N is a positive integer, of which, in each iteration, the noise classification model is used to eliminate the noise in the first training data, and the noise-removed data is used. The information retrieval model is trained, and the parameters of the noise classification model are updated by using the loss function of the trained information retrieval model.

さらに、上記プロセッサー32は、メモリー34に格納されたアプリケーションとデータを呼び出して実行する場合、具体的には、アプリケーション342に格納されたプログラムまたはコマンドである場合、前記第二トレーニングデータを利用して無相関クエリー生成モデルを初期化し、前記無相関クエリー生成モデルの入力はクエリー結果及び前記クエリー結果と相関する第一クエリーコマンドで、出力は前記クエリー結果と相関しない第二クエリーコマンドであり、前記情報検索モデルの出力結果を前記無相関クエリー生成モデルに入力し、前記無相関クエリー生成モデルの出力結果を利用して前記情報検索モデルをトレーニングする。 Further, when the processor 32 calls and executes the application and data stored in the memory 34, specifically, when the program or command is stored in the application 342, the second training data is used. Initialize the uncorrelated query generation model, the input of the uncorrelated query generation model is the query result and the first query command that correlates with the query result, and the output is the second query command that does not correlate with the query result. The output result of the search model is input to the uncorrelated query generation model, and the information retrieval model is trained using the output result of the uncorrelated query generation model.

前記無相関クエリー生成モデルの目標関数は、
前記無相関クエリー生成モデルが生成した第二クエリーコマンドとクエリー結果の相関性と、
前記無相関クエリー生成モデルが生成した第二クエリーコマンドと第一クエリーコマンドのテキストの類似性を含む。
The goal function of the uncorrelated query generation model is
The correlation between the second query command generated by the uncorrelated query generation model and the query result,
Includes text similarities between the second query command and the first query command generated by the uncorrelated query generation model.

本発明の上記実施例に掲示した方法はプロセッサー32に応用することができ、或いはプロセッサー32により実現することができる。プロセッサー32は集積回路チップであることができ、信号処理能力を持っている。実現プロセスにおいて、上記方法の各ステップはプロセッサー32のハードウェアの集積論理回路或いはソフトウェアタイプのコマンドにより完成することができる。本発明の実施例に開示した各方法、ステップ及び論理ブロックは、汎用プロセッサー、デジタル信号プロセッサー(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)或いはその他のプログラマブル論理デバイス、離散ゲート或いはトランジスタ論理デバイス、離散ハードウェアコンポネントであることができる上記プロセッサー32によって実現または実行可能である。汎用プロセッサーはマイクロプロセッサーであることができ、或いは当該プロセッサーは如何なる従来のプロセッサーなどであることもできる。本発明の実施例に開示した方法を融合したステップは、直接ハードウェアデコードプロセッサーで実行を完成するか、或いはデコードプロセッサーのハードウェアとソフトウェアモジュールを組み合わせて実行を完成させることができる。ソフトウェアモジュールはランダムアクセスメモリー、フラッシュメモリー、読み取り専用メモリー、プログラマブル読み取り専用メモリー或いは電気的消去可能プログラマブル読み取り専用メモリー、レジスタなど当技術分野で成熟した記憶媒体に位置することができる。当該メモリーはメモリー34に位置し、プロセッサー32はメモリー34に格納された情報を読み取り、そのハードウェアと組み合わせて上記方法のステップを完成する。 The method shown in the above embodiment of the present invention can be applied to the processor 32 or can be realized by the processor 32. The processor 32 can be an integrated circuit chip and has signal processing capability. In the implementation process, each step of the above method can be completed by the hardware integrated logic circuit of the processor 32 or a software type command. The methods, steps and logic blocks disclosed in the embodiments of the present invention include general purpose processors, digital signal processors (DSPs), application specific integrated circuits (ASICs), field programmable gate arrays (FPGAs) or other programmable logic devices. It can be realized or implemented by the processor 32 described above, which can be a discrete gate or transistor logic device, a discrete hardware component. The general purpose processor can be a microprocessor, or the processor can be any conventional processor or the like. The steps fused with the methods disclosed in the embodiments of the present invention can complete the execution directly on the hardware decode processor, or the hardware and software modules of the decode processor can be combined to complete the execution. Software modules can be located in storage media mature in the art such as random access memory, flash memory, read-only memory, programmable read-only memory or electrically erasable programmable read-only memory, registers. The memory is located in memory 34, and the processor 32 reads the information stored in memory 34 and combines it with the hardware to complete the steps of the above method.

本明細書に記述したこれらの実施例は、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード或いはその組み合わせによって実現することができることを理解すべきである。ハードウェア実装について、処理ユニットは、1つ或いは複数の特定用途向け集積回路(ASIC)、デジタル信号プロセッサー(DSP)、デジタル信号処理デバイス(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、汎用プロセッサー、コントローラ、マイクロコントローラ、マイクロプロセッサー、本請求に記述した機能を実行するための他の電子ユニットまたはその組み合わせによって実装することができる。 It should be understood that these embodiments described herein can be implemented by hardware, software, firmware, middleware, microcode or a combination thereof. For hardware implementation, the processing unit can be one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays ( It can be implemented by FPGAs), general purpose processors, controllers, microcontrollers, microcontrollers, and other electronic units or combinations thereof for performing the functions described in this claim.

ソフトウェア実装について、本明細書に記述した機能のモジュール(例えばプロセス、関数など)を実行することによって本明細書に記述した技術を実装することができる。ソフトウェアコードはメモリーに保存され、プロセッサーによって実行される。メモリーはプロセッサーに実装することも、プロセッサーの外部に実装することもできます。 For software implementation, the techniques described herein can be implemented by executing modules of functionality described herein (eg, processes, functions, etc.). The software code is stored in memory and executed by the processor. Memory can be implemented on the processor or outside the processor.

本発明の実施例はまた、コンピュータ読み取り可能記憶媒体を提供する。前記コンピュータ読み取り可能記憶媒体はコンピュータプログラムを格納し、前記コンピュータプログラムはプロセッサーにより実行される場合、前記プロセッサーに次のステップ、即ち、
クエリーコマンドと前記クエリーコマンドに対応するクエリー結果を含む第一トレーニングデータを取得するステップと、
前記第一トレーニングデータにおけるノイズを消去し、第二トレーニングデータを取得するステップと、
前記第二トレーニングデータを利用して情報検索モデルを初期化するステップと、
前記情報検索モデルを利用して情報を検索するステップと、を実行させる。
The embodiments of the present invention also provide a computer-readable storage medium. If the computer-readable storage medium stores a computer program and the computer program is executed by the processor, the next step, ie, to the processor.
The step of acquiring the first training data including the query command and the query result corresponding to the query command, and
The step of eliminating noise in the first training data and acquiring the second training data,
The step of initializing the information retrieval model using the second training data,
The step of searching for information using the information retrieval model and the step of searching for information are executed.

以上は本発明の好ましい実施方式であり、当業者にとって、本発明の前記原理を逸脱しない前提で、いくつかの改善や修飾が可能であり、これらの改善や修飾も本発明の保護範囲とみなされる。 The above is a preferred embodiment of the present invention, and a person skilled in the art can make some improvements and modifications on the premise that the principle of the present invention is not deviated, and these improvements and modifications are also regarded as the scope of protection of the present invention. Will be.

Claims (14)

クエリーコマンドと前記クエリーコマンドに対応するクエリー結果を含む第一トレーニングデータを取得するステップと、
前記第一トレーニングデータにおけるノイズを消去し、第二トレーニングデータを取得するステップと、
前記第二トレーニングデータを利用して情報検索モデルを初期化するステップと、
前記情報検索モデルを利用して情報を検索するステップと、
を含むことを特徴とする情報検索方法。
The step of acquiring the first training data including the query command and the query result corresponding to the query command, and
The step of eliminating noise in the first training data and acquiring the second training data,
The step of initializing the information retrieval model using the second training data,
Steps to search for information using the information retrieval model,
An information retrieval method characterized by including.
情報検索モデルを初期化してから、
敵対的クエリーによって前記情報検索モデルを最適化するステップ
をさらに含むことを特徴とする請求項1に記載の情報検索方法。
After initializing the information retrieval model
The information retrieval method according to claim 1, further comprising a step of optimizing the information retrieval model by a hostile query.
前記第一トレーニングデータを取得するステップは、
クエリーコマンドと前記クエリーコマンドに対応するクエリー結果を含むオープンデータを取得することと、
前記オープンデータを利用してトレーニングによりクエリーデータ生成モデルを生成し、前記クエリーデータ生成モデルは入力したクエリー結果によって前記クエリー結果に対応するクエリーコマンドを生成することと、
特定分野のドキュメントを前記クエリーデータ生成モデルに入力し、前記第一トレーニングデータを生成することと、
を含むことを特徴とする請求項1に記載の情報検索方法。
The step of acquiring the first training data is
Acquiring open data including the query command and the query result corresponding to the query command, and
Using the open data, a query data generation model is generated by training, and the query data generation model generates a query command corresponding to the query result based on the input query result.
By inputting a document of a specific field into the query data generation model and generating the first training data,
The information retrieval method according to claim 1, wherein the information retrieval method comprises.
前記第一トレーニングデータにおけるノイズを消去する前記ステップは、
前記第一トレーニングデータを利用してノイズ分類モデルを初期化することと、
前記ノイズ分類モデルをトレーニングすることと、
トレーニングしたノイズ分類モデルを利用して、前記第一トレーニングデータにおけるノイズを消去することと、
を含むことを特徴とする請求項1に記載の情報検索方法。
The step of eliminating noise in the first training data is
Initializing the noise classification model using the first training data,
Training the noise classification model and
Using the trained noise classification model, eliminating the noise in the first training data and
The information retrieval method according to claim 1, wherein the information retrieval method comprises.
前記ノイズ分類モデルをトレーニングする前記ステップは、
N回のイテレーションを行ってトレーニングしたノイズ分類モデルを取得し、Nは正の整数であることを含み、
その中で、毎回のイテレーションにおいて、前記ノイズ分類モデルを利用して前記第一トレーニングデータにおけるノイズを消去し、ノイズを消去したデータを利用して前記情報検索モデルをトレーニングし、トレーニングした前記情報検索モデルの損失関数を利用して前記ノイズ分類モデルのパラメータを更新する、
ことを特徴とする請求項4に記載の情報検索方法。
The step of training the noise classification model is
Obtained a noise classification model trained by performing N iterations, including that N is a positive integer.
Among them, in each iteration, the noise classification model is used to eliminate noise in the first training data, and the information retrieval model is trained and trained using the noise-erased data. Update the parameters of the noise classification model using the loss function of the model,
The information retrieval method according to claim 4, wherein the information is retrieved.
前記敵対的クエリーによって前記情報検索モデルを最適化するステップは、
前記第二トレーニングデータを利用して無相関クエリー生成モデルを初期化し、前記無相関クエリー生成モデルの入力はクエリー結果及び前記クエリー結果と相関する第一クエリーコマンドで、出力は前記クエリー結果と相関しない第二クエリーコマンドであることと、
前記情報検索モデルの出力結果を前記無相関クエリー生成モデルに入力し、前記無相関クエリー生成モデルの出力結果を利用して前記情報検索モデルをトレーニングすること、
を含むことを特徴とする請求項2に記載の情報検索方法。
The step of optimizing the information retrieval model by the hostile query is
The second training data is used to initialize the uncorrelated query generation model, the input of the uncorrelated query generation model is the query result and the first query command that correlates with the query result, and the output does not correlate with the query result. Being a second query command
Input the output result of the information retrieval model into the uncorrelated query generation model, and train the information retrieval model using the output result of the uncorrelated query generation model.
The information retrieval method according to claim 2, wherein the information is retrieved.
前記無相関クエリー生成モデルの目標関数は、
前記無相関クエリー生成モデルが生成した第二クエリーコマンドとクエリー結果の相関性と、
前記無相関クエリー生成モデルが生成した第二クエリーコマンドと第一クエリーコマンドのテキストの類似性と、
を含むことを特徴とする請求項6に記載の情報検索方法。
The goal function of the uncorrelated query generation model is
The correlation between the second query command generated by the uncorrelated query generation model and the query result,
The text similarity between the second query command and the first query command generated by the uncorrelated query generation model,
The information retrieval method according to claim 6, wherein the information retrieval method comprises.
クエリーコマンドと前記クエリーコマンドに対応するクエリー結果を含む第一トレーニングデータを取得する取得ユニットと、
前記第一トレーニングデータにおけるノイズを消去し、第二トレーニングデータを取得するノイズ消去ユニットと、
前記第二トレーニングデータを利用して情報検索モデルを初期化する初期化ユニットと、
前記情報検索モデルを利用して情報を検索する情報検索ユニットと、
を含むことを特徴とする情報検索装置。
An acquisition unit that acquires the first training data including the query command and the query result corresponding to the query command, and the acquisition unit.
A noise elimination unit that eliminates noise in the first training data and acquires second training data,
An initialization unit that initializes the information retrieval model using the second training data,
An information retrieval unit that searches for information using the information retrieval model, and
An information retrieval device characterized by including.
敵対的クエリーによって前記情報検索モデルを最適化する最適化ユニット
をさらに含むことを特徴とする請求項8に記載の情報検索装置。
The information retrieval device according to claim 8, further comprising an optimization unit that optimizes the information retrieval model by a hostile query.
前記取得ユニットが、
クエリーコマンドと前記クエリーコマンドに対応するクエリー結果を含むオープンデータを取得する取得サブユニットと、
前記オープンデータを利用してトレーニングによりクエリーデータ生成モデルを生成し、前記クエリーデータ生成モデルは入力したクエリー結果によって前記クエリー結果に対応するクエリーコマンドを生成する第一処理サブユニットと、
特定分野のドキュメントを前記クエリーデータ生成モデルに入力し、前記第一トレーニングデータを生成する第二処理サブユニットと、
を含むことを特徴とする請求項8に記載の情報検索装置。
The acquisition unit
A query command, an acquisition subunit that acquires open data containing the query results corresponding to the query command, and
The query data generation model is generated by training using the open data, and the query data generation model is a first processing subunit that generates a query command corresponding to the query result based on the input query result.
A second processing subunit that inputs a document of a specific field into the query data generation model and generates the first training data,
The information retrieval apparatus according to claim 8, wherein the information retrieval apparatus comprises.
前記ノイズ消去ユニットが、
前記第一トレーニングデータを利用してノイズ分類モデルを初期化する第一初期化サブユニットと、
前記ノイズ分類モデルをトレーニングするトレーニングサブユニットと、
トレーニングしたノイズ分類モデルを利用して、前記第一トレーニングデータにおけるノイズを消去する消去サブユニットと、
を含むことを特徴とする請求項8に記載の情報検索装置。
The noise elimination unit
The first initialization subunit that initializes the noise classification model using the first training data,
A training subunit that trains the noise classification model,
Using the trained noise classification model, an erasing subunit that eliminates noise in the first training data,
The information retrieval apparatus according to claim 8, wherein the information retrieval apparatus comprises.
前記最適化ユニットが、
前記第二トレーニングデータを利用して無相関クエリー生成モデルを初期化し、前記無相関クエリー生成モデルの入力はクエリー結果及び前記クエリー結果と相関する第一クエリーコマンドで、出力は前記クエリー結果と無相関である第二クエリーコマンドである第二初期化サブユニットと、
前記情報検索モデルの出力結果を前記無相関クエリー生成モデルに入力し、前記無相関クエリー生成モデルの出力結果を利用して前記情報検索モデルをトレーニングする敵対トレーニングサブユニットと、
を含むことを特徴とする請求項9に記載の情報検索装置。
The optimization unit
The second training data is used to initialize the uncorrelated query generation model, the input of the uncorrelated query generation model is the query result and the first query command that correlates with the query result, and the output is uncorrelated with the query result. The second query command, the second initialization subunit,
A hostile training subunit that inputs the output result of the information retrieval model into the uncorrelated query generation model and trains the information retrieval model using the output result of the uncorrelated query generation model.
The information retrieval apparatus according to claim 9, wherein the information retrieval apparatus comprises.
コンピュータに、請求項1乃至7のうちのいずれか1つに記載の情報検索方法を実行させるためのプログラム。 A program for causing a computer to execute the information retrieval method according to any one of claims 1 to 7. 請求項13に記載のプログラムを記憶しているコンピュータ読み取り可能な記憶媒体。 A computer-readable storage medium that stores the program of claim 13.
JP2021149311A 2020-09-15 2021-09-14 Information retrieval method, device and computer readable storage medium Active JP7230979B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010970977.1 2020-09-15
CN202010970977.1A CN114186015A (en) 2020-09-15 2020-09-15 Information retrieval method, device and computer readable storage medium

Publications (2)

Publication Number Publication Date
JP2022049010A true JP2022049010A (en) 2022-03-28
JP7230979B2 JP7230979B2 (en) 2023-03-01

Family

ID=80539270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021149311A Active JP7230979B2 (en) 2020-09-15 2021-09-14 Information retrieval method, device and computer readable storage medium

Country Status (2)

Country Link
JP (1) JP7230979B2 (en)
CN (1) CN114186015A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050143999A1 (en) * 2003-12-25 2005-06-30 Yumi Ichimura Question-answering method, system, and program for answering question input by speech
WO2016103451A1 (en) * 2014-12-26 2016-06-30 株式会社日立製作所 Method and device for acquiring relevant information and storage medium
US20190130110A1 (en) * 2017-11-01 2019-05-02 International Business Machines Corporation Protecting Cognitive Systems from Gradient Based Attacks through the Use of Deceiving Gradients
JP2020098521A (en) * 2018-12-19 2020-06-25 富士通株式会社 Information processing device, data extraction method, and data extraction program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050143999A1 (en) * 2003-12-25 2005-06-30 Yumi Ichimura Question-answering method, system, and program for answering question input by speech
WO2016103451A1 (en) * 2014-12-26 2016-06-30 株式会社日立製作所 Method and device for acquiring relevant information and storage medium
US20190130110A1 (en) * 2017-11-01 2019-05-02 International Business Machines Corporation Protecting Cognitive Systems from Gradient Based Attacks through the Use of Deceiving Gradients
JP2020098521A (en) * 2018-12-19 2020-06-25 富士通株式会社 Information processing device, data extraction method, and data extraction program

Also Published As

Publication number Publication date
CN114186015A (en) 2022-03-15
JP7230979B2 (en) 2023-03-01

Similar Documents

Publication Publication Date Title
Xu et al. Two-stage attention-based model for code search with textual and structural features
CN114585999A (en) Multilingual code line completion system
US11657802B2 (en) Utilizing a dynamic memory network for state tracking
US10755048B2 (en) Artificial intelligence based method and apparatus for segmenting sentence
US20240020579A1 (en) Computer Model Machine Learning Based on Correlations of Training Data with Performance Trends
CN111488137B (en) Code searching method based on common attention characterization learning
CN111191002A (en) Neural code searching method and device based on hierarchical embedding
JP7044839B2 (en) End-to-end model training methods and equipment
JP2021193595A (en) Conversation recommendation method, apparatus and equipment
CN107133290A (en) A kind of Personalized search and device
Groce et al. Adaptive model checking
Kersting et al. 'Say EM'for Selecting Probabilistic Models for Logical Sequences
CN116822651A (en) Large model parameter fine adjustment method, device, equipment and medium based on incremental learning
EP4298556A1 (en) Granular neural network architecture search over low-level primitives
JP2020008836A (en) Method and apparatus for selecting vocabulary table, and computer-readable storage medium
CN111738021B (en) Word vector processing method, device and storage medium of neural machine translation model
JP2022049010A (en) Information search method, device, and computer readable storage medium
US9195940B2 (en) Jabba-type override for correcting or improving output of a model
CN113076089A (en) API completion method based on object type
WO2022271369A1 (en) Training of an object linking model
Wang et al. WheaCha: A method for explaining the predictions of models of code
Weyssow et al. Combining code embedding with static analysis for function-call completion
Srinivasan et al. Model-assisted machine-code synthesis
CN113535658A (en) File prefetching method, storage device and prefetching device
CN116453702B (en) Data processing method, device, system and medium for autism behavior feature set

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230130

R151 Written notification of patent or utility model registration

Ref document number: 7230979

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151