JP7414907B2 - Pre-trained model determination method, determination device, electronic equipment, and storage medium - Google Patents

Pre-trained model determination method, determination device, electronic equipment, and storage medium Download PDF

Info

Publication number
JP7414907B2
JP7414907B2 JP2022125621A JP2022125621A JP7414907B2 JP 7414907 B2 JP7414907 B2 JP 7414907B2 JP 2022125621 A JP2022125621 A JP 2022125621A JP 2022125621 A JP2022125621 A JP 2022125621A JP 7414907 B2 JP7414907 B2 JP 7414907B2
Authority
JP
Japan
Prior art keywords
model
candidate
trained
code
models
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022125621A
Other languages
Japanese (ja)
Other versions
JP2022160590A (en
Inventor
テン シー,
カン カオ,
ガン ジャン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2022160590A publication Critical patent/JP2022160590A/en
Application granted granted Critical
Publication of JP7414907B2 publication Critical patent/JP7414907B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Description

本開示は、人工知能技術分野に関し、具体的にはコンピュータビジョン及び深層学習技術分野に関し、画像処理、画像認識などのシーンに適用することができ、特に事前訓練済みモデルの決定方法及びその決定装置、電子機器並びに記憶媒体に関する。 The present disclosure relates to the field of artificial intelligence technology, specifically to the field of computer vision and deep learning technology, and can be applied to scenes such as image processing and image recognition, and in particular, a method and device for determining a pre-trained model. , related to electronic devices and storage media.

事前訓練済みモデルは、上位人工知能タスクの効果改善に幅広く適用されており、上流タスクでは、大量の訓練データで事前訓練済みモデルが事前訓練されるため、下流タスクにおいて少量の訓練データでモデルを訓練するだけで良好な予測結果を取得することができる。したがって、どのようにして事前訓練済みモデルの訓練コストを削減し、訓練効率を向上させるかは極めて重要なことである。 Pre-trained models have been widely applied to improve the effectiveness of upper-level artificial intelligence tasks. In upstream tasks, pre-trained models are pre-trained with a large amount of training data, and in downstream tasks, models can be trained with a small amount of training data. Good prediction results can be obtained just by training. Therefore, it is extremely important how to reduce the training cost and improve the training efficiency of pre-trained models.

本開示は、事前訓練済みモデルの決定方法及びその決定装置、電子機器並びに記憶媒体を提供する。 The present disclosure provides a method for determining a pre-trained model, a determination device thereof, an electronic device, and a storage medium.

本開示の第1の態様では、複数の候補モデルを取得するステップと、前記複数の候補モデルのモデル構造に基づいて構造コーディングを行って、各前記候補モデルの構造コードを取得するステップと、訓練済みエンコーダを用いて各前記候補モデルの構造コードをマッピングして、各前記候補モデルの周波数領域コードを取得するステップと、各前記候補モデルの周波数領域コードに基づいて、各前記候補モデルのモデル性能パラメータを予測するステップと、各前記候補モデルのモデル性能パラメータに基づいて、事前訓練済みモデルとして複数の前記候補モデルからターゲットモデルを決定するステップと、を含む、事前訓練済みモデルの決定方法が提供される。 In a first aspect of the present disclosure, the steps include: obtaining a plurality of candidate models; performing structure coding based on model structures of the plurality of candidate models to obtain a structure code of each of the candidate models; mapping the structural code of each candidate model using a predefined encoder to obtain a frequency domain code of each candidate model; and determining the model performance of each candidate model based on the frequency domain code of each candidate model. and determining a target model from a plurality of candidate models as a pre-trained model based on model performance parameters of each candidate model. be done.

本開示の第2の態様では、複数の候補モデルを取得するように構成される取得モジュールと、前記複数の候補モデルのモデル構造に基づいて構造コーディングを行って、各前記候補モデルの構造コードを取得するように構成されるコーディングモジュールと、訓練済みエンコーダを用いて各前記候補モデルの構造コードをマッピングして、各前記候補モデルの周波数領域コードを取得するように構成されるマッピングモジュールと、各前記候補モデルの周波数領域コードに基づいて、各前記候補モデルのモデル性能パラメータを予測するように構成される予測モジュールと、各前記候補モデルのモデル性能パラメータに基づいて、事前訓練済みモデルとして複数の前記候補モデルからターゲットモデルを決定するように構成される決定モジュールと、を備える、事前訓練済みモデルの決定装置が提供される。 In a second aspect of the present disclosure, an acquisition module configured to acquire a plurality of candidate models, and performing structural coding based on model structures of the plurality of candidate models, generate a structure code of each of the candidate models. a mapping module configured to map a structural code of each said candidate model using a trained encoder to obtain a frequency domain code of each said candidate model; a prediction module configured to predict model performance parameters of each said candidate model based on frequency domain codes of said candidate models; and a prediction module configured to predict model performance parameters of each said candidate model based on frequency domain codes of said candidate models; a determination module configured to determine a target model from the candidate models.

本開示の第3の態様では、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサと通信可能に接続されるメモリと、を備え、前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令が前記少なくとも1つのプロセッサによって実行される場合、前記少なくとも1つのプロセッサが上記の事前訓練済みモデルの決定方法を実行できる、電子機器が提供される。 A third aspect of the present disclosure includes at least one processor and a memory communicatively connected to the at least one processor, the memory storing instructions executable by the at least one processor. and the instructions are executed by the at least one processor, an electronic device is provided, wherein the at least one processor is capable of performing the pre-trained model determination method described above.

本開示の第4の態様では、コンピュータに上記の事前訓練済みモデルの決定方法を実行させるためのコンピュータ命令を記憶した、非一時的コンピュータ読み取り可能な記憶媒体が提供される。 In a fourth aspect of the disclosure, there is provided a non-transitory computer-readable storage medium having computer instructions stored thereon for causing a computer to perform the pre-trained model determination method described above.

本開示の第5の態様では、プロセッサによって実行される場合、上記の事前訓練済みモデルの決定方法を実現する、コンピュータプログラムが提供される。 In a fifth aspect of the disclosure, a computer program product is provided which, when executed by a processor, implements the method for determining a pre-trained model described above.

なお、この概要部分で説明された内容は本開示の実施例の肝心又は重要な特徴を特定するものではなく、本開示の範囲を限定するものでもない。本開示の他の特徴は以下の明細書により分かりやすくなる。
図面は本解決案をよりよく理解するためのものであり、本開示を限定するものではない。
Note that the content described in this summary section does not specify essential or important features of the embodiments of the present disclosure, nor does it limit the scope of the present disclosure. Other features of the disclosure will become more apparent from the following specification.
The drawings are for a better understanding of the solution and do not limit the disclosure.

本開示の第1の実施例に係る事前訓練済みモデルの決定方法の概略フローチャートである。1 is a schematic flowchart of a method for determining a pre-trained model according to a first example of the present disclosure. 本開示の第2の実施例に係る事前訓練済みモデルの決定方法の概略フローチャートである。2 is a schematic flowchart of a method for determining a pre-trained model according to a second example of the present disclosure. 本開示の第3の実施例に係る事前訓練済みモデルの決定方法の概略フローチャートである。12 is a schematic flowchart of a method for determining a pre-trained model according to a third example of the present disclosure. 本開示の第4の実施例に係る事前訓練済みモデルの決定装置の概略構成図である。FIG. 7 is a schematic configuration diagram of a pre-trained model determining device according to a fourth example of the present disclosure. 本開示の第5の実施例に係る事前訓練済みモデルの決定装置の概略構成図である。FIG. 7 is a schematic configuration diagram of a pre-trained model determining device according to a fifth example of the present disclosure. 本開示の実施例に係る事前訓練済みモデルの決定方法を実現するための電子機器のブロック図である。FIG. 2 is a block diagram of an electronic device for implementing a method for determining a pre-trained model according to an embodiment of the present disclosure.

本開示の例示的な実施例を図面を参照しながら以下に説明し、ここで、理解を助けるために、本開示の実施例の様々な詳細が含まれており、それらが単に例示するものとして見なされるべきである。したがって、当業者であれば、本開示の範囲と趣旨から逸脱しない限り、ここで説明された実施例に対して様々な置換及び変更を行うことができる。同様に、明確且つ簡潔にするために、以下の説明では、周知機能及び構成に対する説明を省略している。 Exemplary embodiments of the present disclosure are described below with reference to the drawings, in which various details of embodiments of the present disclosure are included to aid in understanding and are provided by way of illustration only. should be considered. Accordingly, those skilled in the art may make various substitutions and modifications to the embodiments described herein without departing from the scope and spirit of this disclosure. Similarly, for the sake of clarity and brevity, the following description omits descriptions of well-known features and structures.

現在、事前訓練済みモデルは、上位人工知能タスクの効果改善に幅広く適用されており、上流タスクでは、大量の訓練データで事前訓練済みモデルを事前訓練することにより、下流タスクにおいて少量の訓練データでモデルを訓練するだけで好ましい予測結果を取得することができる。したがって、どのようにして事前訓練済みモデルの訓練コストを削減し、訓練効率を向上させるかは、極めて重要なことである。 Currently, pre-trained models are widely applied to improve the effectiveness of upper-level artificial intelligence tasks, and by pre-training the pre-trained model with a large amount of training data in the upstream task, a small amount of training data is required in the downstream task. Preferable prediction results can be obtained simply by training the model. Therefore, how to reduce the training cost and improve the training efficiency of pre-trained models is of great importance.

本開示は、事前訓練済みモデルの訓練コストを削減し、訓練効率を向上させるために、事前訓練済みモデルの決定方法を提供する。この方法では、複数の候補モデルを取得した後、複数の候補モデルのモデル構造に基づいて構造コーディングを行って、各候補モデルの構造コードを取得し、さらに訓練済みエンコーダを用いて各候補モデルの構造コードをマッピングして、各前記候補モデルの周波数領域コードを取得し、各候補モデルの周波数領域コードに基づいて、各候補モデルのモデル性能パラメータを予測し、各候補モデルのモデル性能パラメータに基づいて、事前訓練済みモデルとして複数の候補モデルからターゲットモデルを決定する。これにより、複数の候補モデルの周波数領域コードに基づいて、事前訓練済みモデルとして複数の候補モデルからターゲットモデルを決定することにより、事前訓練済みモデルを訓練する後続の訓練コストを削減し、訓練効率を向上させることができる。 The present disclosure provides a method for determining a pre-trained model in order to reduce the training cost of the pre-trained model and improve training efficiency. In this method, after obtaining multiple candidate models, structural coding is performed based on the model structure of the multiple candidate models to obtain the structural code of each candidate model, and then a trained encoder is used to generate the structure code of each candidate model. Mapping the structure code to obtain the frequency domain code of each candidate model, predicting model performance parameters of each candidate model based on the frequency domain code of each candidate model, and predicting model performance parameters of each candidate model based on the model performance parameters of each candidate model. Then, a target model is determined from multiple candidate models as pre-trained models. This reduces the subsequent training cost of training pre-trained models and improves training efficiency by determining the target model from multiple candidate models as pre-trained models based on the frequency domain codes of multiple candidate models. can be improved.

以下、図面を参照しながら本開示の実施例の事前訓練済みモデルの決定方法、事前訓練済みモデルの装置、電子機器、非一時的コンピュータ読み取り可能な記憶媒体及びコンピュータプログラム製品を説明する。 Hereinafter, a method for determining a pre-trained model, a pre-trained model apparatus, an electronic device, a non-transitory computer-readable storage medium, and a computer program product according to embodiments of the present disclosure will be described with reference to the drawings.

まず、図1を参照しながら本開示に係る事前訓練済みモデルの決定方法を詳しく説明する。 First, a method for determining a pre-trained model according to the present disclosure will be described in detail with reference to FIG.

図1は、本開示の第1の実施例に係る事前訓練済みモデルの決定方法の概略フローチャートである。 FIG. 1 is a schematic flowchart of a method for determining a pre-trained model according to a first embodiment of the present disclosure.

ここで、本開示の実施例に係る事前訓練済みモデルの決定方法の実行主体が事前訓練済みモデルの決定装置であり、以下は決定装置をいう。当該決定装置は電子機器であってもよいし、電子機器内に配置されてもよい。これにより、複数の候補モデルの周波数領域コードに基づいて、事前訓練済みモデルとして複数の候補モデルからターゲットモデルを決定することが実現され、事前訓練済みモデルを訓練する後続の訓練コストを削減し、訓練効率を向上させることができる。本開示の実施例では、決定装置が電子機器内に配置される場合を例として説明する。 Here, the entity that executes the pre-trained model determining method according to the embodiment of the present disclosure is a pre-trained model determining device, and hereinafter the determining device will be referred to as the determining device. The determining device may be an electronic device or may be located within the electronic device. This realizes determining a target model from multiple candidate models as a pre-trained model based on the frequency domain codes of multiple candidate models, reducing the subsequent training cost of training the pre-trained model, Training efficiency can be improved. In the embodiments of the present disclosure, a case will be described in which the determination device is placed in an electronic device.

ここで、電子機器は、データ処理を行うことができる任意の固定又はモバイルコンピューティングデバイスであり、例えば、ノートパソコン、スマートフォン、ウェアラブルデバイスなどのモバイルコンピューティングデバイス、或いはデスクトップパソコンなどの固定コンピューティングデバイス、或いはサーバ、或いは他のタイプのコンピューティングデバイスなどであってよく、本開示では限定されない。 Here, an electronic device is any fixed or mobile computing device capable of performing data processing, for example, a mobile computing device such as a laptop, a smartphone, a wearable device, or a fixed computing device such as a desktop computer. , or a server, or other type of computing device, but is not limited by this disclosure.

図1に示すように、事前訓練済みモデルの決定方法は、以下のステップ101~105を含むことができる。 As shown in FIG. 1, the method for determining a pre-trained model may include the following steps 101-105.

ステップ101において、複数の候補モデルを取得する。 In step 101, a plurality of candidate models are obtained.

各候補モデルは、訓練済みの複数のサブモデルを組み合わせたものである。訓練済みの複数のサブモデルは、ニューラルネットワークモデルであってもよいし、他のタイプのモデルであってもよいが、本開示では限定されない。 Each candidate model is a combination of multiple trained submodels. The plurality of trained sub-models may be neural network models or other types of models, but are not limited in this disclosure.

ステップ102において、複数の候補モデルのモデル構造に基づいて構造コーディングを行って、各候補モデルの構造コードを取得する。 In step 102, structure coding is performed based on the model structures of a plurality of candidate models to obtain a structure code for each candidate model.

例示的な実施例では、複数の候補モデルのそれぞれに対して、当該候補モデルのモデル構造に基づいて構造コーディングを行って、各候補モデルの構造コードを取得する。 In an exemplary embodiment, structure coding is performed on each of the plurality of candidate models based on the model structure of the candidate model to obtain a structure code for each candidate model.

候補モデルの構造コードにおいて、各項目は候補モデルの1つの層に対応しおり、ここで、1つの層は、候補モデルを構成する複数のサブモデルの1つとして理解することができ、各項目の取り値は、当該項目に対応する層のサブモデルのモデルタイプである。 In the structural code of the candidate model, each item corresponds to one layer of the candidate model, where one layer can be understood as one of multiple submodels that make up the candidate model, and each item corresponds to The taken value is the model type of the submodel of the layer corresponding to the item.

例えば、候補モデルを構成する各サブモデルはモデルセットから選択されたものであると仮定すると、モデルセット内に10000タイプのサブモデルが含まれ、候補モデルAは合計6つの層であり、各層は候補モデルAの構造コードの1つの項目に対応する。これに対応して、候補モデルAの構造コードに6つの項目が含まれ、各項目に10000個の可能な取り値が含まれる。候補モデルAの第1層のサブモデルのモデルタイプのモデルセット内における番号が5、第2層のサブモデルのモデルタイプのモデルセット内における番号が2、第3層のサブモデルのモデルタイプのモデルセット内における番号が9、第4層のサブモデルのモデルタイプのモデルセット内における番号が8、第5層のサブモデルのモデルタイプのモデルセット内における番号が7、第6層のサブモデルのモデルタイプのモデルセット内における番号が4であると仮定すると、候補モデルAのモデル構造に基づいて構造コーディングを行って、候補モデルAの構造コードとして[5,2,9,8,7,4]を取得することができる。 For example, assuming that each sub-model making up a candidate model is selected from a model set, the model set contains 10000 types of sub-models, and candidate model A has a total of 6 layers, each layer is This corresponds to one item of the structure code of candidate model A. Correspondingly, the structure code of candidate model A contains six items, each item containing 10,000 possible values. The model type of the first layer submodel of candidate model A is number 5 in the model set, the model type of the second layer submodel is number 2 in the model set, and the model type of the third layer submodel is 5. The number in the model set is 9, the model type of the 4th layer submodel is number 8 in the model set, the model type of the 5th layer submodel is number 7 in the model set, the 6th layer submodel Assuming that the model type number in the model set is 4, structure coding is performed based on the model structure of candidate model A, and the structure code of candidate model A is [5, 2, 9, 8, 7, 4] can be obtained.

ステップ103において、訓練済みエンコーダを用いて各候補モデルの構造コードをマッピングして、各前記候補モデルの周波数領域コードを取得する。 In step 103, a trained encoder is used to map the structural code of each candidate model to obtain a frequency domain code of each said candidate model.

例示的な実施例では、訓練エンコーダを事前訓練することができ、エンコーダの入力が構造コードであり、出力が対応する周波数領域コードであり、したがって、各候補モデルの構造コードを訓練済みエンコーダにそれぞれ入力することにより、各候補モデルの構造コードに対応する周波数領域コードを取得することができ、これにより、各候補モデルの構造コードを対応する周波数領域コードにマッピングすることが実現することができる。 In an exemplary embodiment, a training encoder can be pre-trained such that the input of the encoder is a structural code and the output is a corresponding frequency-domain code, thus applying the structural code of each candidate model to the trained encoder respectively. By inputting the frequency domain code corresponding to the structure code of each candidate model, it is possible to obtain a frequency domain code corresponding to the structure code of each candidate model, thereby realizing mapping of the structure code of each candidate model to the corresponding frequency domain code.

ステップ104において、各候補モデルの周波数領域コードに基づいて、各候補モデルのモデル性能パラメータを予測する。 At step 104, predict model performance parameters for each candidate model based on the frequency domain code of each candidate model.

モデル性能パラメータは、候補モデルの性能の優劣を特徴付けることができる。モデル性能パラメータは、候補モデルの精度を表すパラメータ及び候補モデルの処理速度を表すパラメータなどを含むことができる。 Model performance parameters can characterize the performance of candidate models. The model performance parameters can include parameters representing the accuracy of the candidate model, parameters representing the processing speed of the candidate model, and the like.

例示的な実施例では、予め統計して、周波数領域コードと対応する候補モデルのモデル性能パラメータとの相関性を説明する相関関数を取得することができ、相関関数のパラメータは周波数領域における最尤推定に基づいて取得することができる。これにより、各候補モデルの周波数領域コードを取得した後に、周波数領域コードに対応する候補モデルのモデル性能パラメータとの間の相関性を説明する相関関数に基づいて、各候補モデルのモデル性能パラメータを予測することができる。具体的に統計して相関関数を取得する方法は相関技術を参照されたく、ここで詳しい説明を省略する。 In an exemplary embodiment, a correlation function that describes the correlation between a frequency domain code and a model performance parameter of a corresponding candidate model may be pre-statistically obtained, and the parameters of the correlation function may be calculated using the maximum likelihood in the frequency domain. It can be obtained based on estimation. Thereby, after obtaining the frequency domain code of each candidate model, model performance parameters of each candidate model are determined based on a correlation function that describes the correlation between the frequency domain code and the model performance parameter of the candidate model corresponding to the frequency domain code. Can be predicted. For a detailed method of obtaining a correlation function through statistics, please refer to the correlation technique, and a detailed explanation will be omitted here.

ステップ105において、各候補モデルのモデル性能パラメータに基づいて、事前訓練済みモデルとして複数の候補モデルからターゲットモデルを決定する。 In step 105, a target model is determined from the plurality of candidate models as pre-trained models based on the model performance parameters of each candidate model.

複数の候補モデルから決定された事前訓練済みモデルの数は、必要に応じて予め設定することができ、例えば予め1つ又は複数に設定することができ、本開示はこれに対して限定しない。 The number of pre-trained models determined from the plurality of candidate models can be set in advance as necessary, for example, it can be set in advance to one or more, and the present disclosure is not limited thereto.

例示的な実施例では、各候補モデルのモデル性能パラメータを予測して取得した後、モデル性能パラメータに基づいて、各候補モデルを性能の良い順にソートし、複数の候補モデルから、上位にある事前設定された数のターゲットモデルを事前訓練済みモデルとして決定することができ、さらには、事前訓練済みモデルを訓練することにより、事前訓練済みモデルを顔認識、画像処理、商品分類など様々なタスクに適したものにすることができる。 In the illustrative example, after predicting and obtaining model performance parameters for each candidate model, each candidate model is sorted in descending order of performance based on the model performance parameters, and from the multiple candidate models, the top A set number of target models can be determined as pre-trained models, and furthermore, by training the pre-trained models, the pre-trained models can be used for various tasks such as face recognition, image processing, product classification, etc. can be made suitable.

複数の候補モデルを取得した後、複数の候補モデルの周波数領域コードに基づいて、事前訓練済みモデルとして複数の候補モデルからターゲットモデルを決定することにより、後続で各候補モデルを訓練する必要がなく、決定された事前訓練済みモデルのみを訓練すればよい。これにより、事前訓練済みモデルを訓練する訓練コストを削減し、訓練効率を向上させることができる。また、各候補モデルのモデル性能パラメータに基づいて事前訓練済みモデルを選択することにより、各候補モデルから、精度が同じである場合に処理速度が最も早い候補モデルを事前訓練済みモデルとして選択することができる。さらに、事前訓練済みモデルを訓練した後、画像処理、画像認識などのタスクを実行する時、モデルの特定のハードウェア上での処理速度又は画像認識速度を向上させたり、低いコストのハードウェアにおいて高コストのハードウェアと同じ速度及び精度を達成したりすることができ、或いは、各候補モデルから、同じ速度条件において精度が最も高い候補モデルを事前訓練済みモデルとして選択することができ、さらに、事前訓練済みモデルを訓練した後、画像処理、画像認識などのタスクを実行する時、同等のハードウェア条件では、モデルの精度を向上させることができる。 After obtaining multiple candidate models, a target model is determined from the multiple candidate models as a pre-trained model based on the frequency domain codes of the multiple candidate models, thereby eliminating the need to subsequently train each candidate model. , only the determined pre-trained model needs to be trained. Thereby, the training cost of training a pre-trained model can be reduced and training efficiency can be improved. Also, by selecting a pre-trained model based on the model performance parameters of each candidate model, from each candidate model, the candidate model with the fastest processing speed when the accuracy is the same is selected as the pre-trained model. Can be done. Furthermore, after training a pre-trained model, when performing tasks such as image processing and image recognition, you can increase the processing speed or image recognition speed of the model on specific hardware, or use low-cost hardware. can achieve the same speed and accuracy as high-cost hardware; alternatively, from each candidate model, the candidate model with the highest accuracy under the same speed conditions can be selected as the pre-trained model; After training a pre-trained model, when performing tasks such as image processing and image recognition, the accuracy of the model can be improved under comparable hardware conditions.

本開示の実施例に係る事前訓練済みモデルの決定方法では、複数の候補モデルを取得した後、複数の候補モデルのモデル構造に基づいて構造コーディングを行って、各候補モデルの構造コードを取得し、さらに訓練済みエンコーダを用いて各候補モデルの構造コードをマッピングして、各前記候補モデルの周波数領域コードを取得し、各候補モデルの周波数領域コードに基づいて、各候補モデルのモデル性能パラメータを予測し、各候補モデルのモデル性能パラメータに基づいて、事前訓練済みモデルとして複数の候補モデルからターゲットモデルを決定する。これにより、複数の候補モデルの周波数領域コードに基づいて、事前訓練済みモデルとして複数の候補モデルからターゲットモデルを決定することにより、事前訓練済みモデルを訓練する後続の訓練コストを削減し、訓練効率を向上させることができる。 In the method for determining a pre-trained model according to the embodiment of the present disclosure, after obtaining a plurality of candidate models, structure coding is performed based on the model structures of the plurality of candidate models to obtain a structure code of each candidate model. , further map the structure code of each candidate model using a trained encoder to obtain the frequency domain code of each said candidate model, and calculate the model performance parameters of each candidate model based on the frequency domain code of each candidate model. predict and determine a target model from the plurality of candidate models as pre-trained models based on model performance parameters of each candidate model. This reduces the subsequent training cost of training pre-trained models and improves training efficiency by determining the target model from multiple candidate models as pre-trained models based on the frequency domain codes of multiple candidate models. can be improved.

上記の分析から分かるように、本開示の実施例では、訓練エンコーダを事前訓練し、訓練済みエンコーダを用いて各候補モデルの構造コードをマッピングして、各前記候補モデルの周波数領域コードを取得することができる。以下、図2を参照しながら、本開示に係る事前訓練済みモデルの決定方法におけるエンコーダの訓練プロセスをさらに説明する。 As can be seen from the above analysis, embodiments of the present disclosure pre-train a training encoder and map the structural code of each candidate model using the trained encoder to obtain the frequency domain code of each said candidate model. be able to. Hereinafter, the encoder training process in the pre-trained model determination method according to the present disclosure will be further described with reference to FIG. 2.

図2は本開示の第2の実施例に係る事前訓練済みモデルの決定方法の概略フローチャートである。図2に示すように、事前訓練済みモデルの決定方法は、以下のステップ201~208を含むことができる。 FIG. 2 is a schematic flowchart of a method for determining a pre-trained model according to a second embodiment of the present disclosure. As shown in FIG. 2, the method for determining a pre-trained model may include the following steps 201-208.

ステップ201において、訓練サンプルとして構成されたサンプル構造コードをエンコーダに入力して、エンコーダによって出力された予測周波数領域コードを取得する。 In step 201, a sample structure code configured as a training sample is input to an encoder to obtain a predicted frequency domain code output by the encoder.

サンプル構造コードは、サンプルモデルのモデル構造に基づいてサンプルモデルに対して構造コーディングを行うことで取得することができる。サンプルモデルに対して構造コーディングを行うプロセスは、上記実施例の説明を参照されたく、ここでは説明を省略する。 The sample structure code can be obtained by performing structure coding on the sample model based on the model structure of the sample model. For the process of performing structural coding on a sample model, please refer to the description of the above embodiment, and the description will be omitted here.

ステップ202において、予測周波数領域コードをデコーダに入力する。 In step 202, the predicted frequency domain code is input to a decoder.

ステップ203において、デコーダの出力とサンプル構造コードとの違いに基づいて、エンコーダとデコーダとを訓練する。 In step 203, the encoder and decoder are trained based on the differences between the decoder output and the sample structure code.

エンコーダ及びデコーダは、それぞれニューラルネットワークモデル又は他のタイプのモデルであってもよいが、本開示では限定されない。エンコーダの入力は構造コードであり、出力は構造コードに対応する周波数領域コードであり、デコーダの入力は周波数領域コードであり、出力は周波数領域コードに対応する構造コードである。 The encoder and decoder may each be neural network models or other types of models, but are not limited in this disclosure. The input of the encoder is a structured code and the output is a frequency domain code corresponding to the structured code, and the input of the decoder is a frequency domain code and the output is a structured code corresponding to the frequency domain code.

例示的な実施例では、エンコーダとデコーダとを訓練する時、例えば深層学習の方式で訓練することができる。他の機械学習方法と比べて、深層学習はビッグデータセットにおいてさらに優れた性能を発揮する。 In an exemplary embodiment, the encoder and decoder may be trained in a deep learning manner, for example. Compared to other machine learning methods, deep learning performs better on big data sets.

深層学習の方式でエンコーダ及びデコーダを訓練する時、まず、訓練サンプル内の1つ又は複数のサンプル構造コードを入力として、エンコーダに入力し、エンコーダによって出力された、当該サンプル構造コードに対応する予測周波数領域コードを取得し、次に、エンコーダによって出力された予測周波数領域コードを入力として、デコーダに入力し、デコーダによって出力された、予測周波数領域コードに対応する予測構造コードを取得し、当該サンプル構造コードに合わせて、デコーダの出力と当該サンプル構造コードとの違いを取得し、デコーダの出力と当該サンプル構造コードとの違いに基づいて、エンコーダ及びデコーダのパラメータを調整し、調整されたエンコーダ及びデコーダを取得する。 When training an encoder and decoder using a deep learning method, first, one or more sample structure codes in the training samples are input to the encoder, and the prediction corresponding to the sample structure code output by the encoder is input. Obtain a frequency domain code, then input the predicted frequency domain code output by the encoder as input to a decoder, obtain the predicted structure code corresponding to the predicted frequency domain code output by the decoder, and According to the structure code, obtain the difference between the output of the decoder and the sample structure code, adjust the parameters of the encoder and decoder based on the difference between the output of the decoder and the sample structure code, and generate the adjusted encoder and Get decoder.

そして、訓練データ内のもう1つ又は複数のサンプル構造コードを入力とし、調整されたエンコーダに入力し、調整されたエンコーダによって出力された、当該サンプル構造コードに対応する予測周波数領域コードを取得し、次に、調整されたエンコーダによって出力された予測周波数領域コードを入力とし、調整されたデコーダに入力し、調整されたデコーダによって出力された、予測周波数領域コードに対応する予測構造コードを取得し、当該サンプル構造コードに合わせて、調整されたデコーダの出力と当該サンプル構造コードとの違いを取得し、調整されたデコーダの出力と当該サンプル構造コードとの違いに基づいて、調整されたエンコーダ及び調整されたデコーダのパラメータを調整し、さらに調整されたエンコーダ及びデコーダを取得する。 Then, input one or more sample structure codes in the training data to the adjusted encoder, and obtain a predicted frequency domain code corresponding to the sample structure code output by the adjusted encoder. , then take the predicted frequency domain code output by the adjusted encoder as input, input it to the adjusted decoder, and obtain the predicted structure code corresponding to the predicted frequency domain code output by the adjusted decoder. , obtain the difference between the adjusted decoder output and the sample structure code according to the sample structure code, and calculate the adjusted encoder and the sample structure code based on the difference between the adjusted decoder output and the sample structure code. Adjust the parameters of the adjusted decoder to obtain further adjusted encoders and decoders.

これにより、エンコーダ及びデコーダのパラメータを絶えずに調整してエンコーダ及びデコーダを繰り返して訓練し、デコーダによって出力された予測構造コードの精度が予め設定された閾値を満たすと、訓練を終了し、訓練済みエンコーダ及び訓練済みデコーダを取得する。 This allows the encoder and decoder to be trained repeatedly by constantly adjusting the encoder and decoder parameters, and when the accuracy of the predicted structure code output by the decoder meets a preset threshold, the training is terminated and the trained Obtain an encoder and trained decoder.

上記プロセスにより、訓練済みエンコーダ及び訓練済みデコーダを取得することができ、訓練済みエンコーダは特定のモデルの構造コードを周波数領域コードにマッピングすることができ、訓練済みデコーダは特定のモデルの周波数領域コードを構造コードにマッピングすることができ、これにより、後続で訓練済みエンコーダを用いて各候補モデルの構造コードをマッピングして、各前記候補モデルの周波数領域コードを取得するための基礎を築いた。 Through the above process, a trained encoder and a trained decoder can be obtained, the trained encoder can map the structure code of a specific model to the frequency domain code, and the trained decoder can map the frequency domain code of the specific model. could be mapped to a structural code, thereby laying the foundation for subsequently mapping the structural code of each candidate model using a trained encoder to obtain the frequency domain code of each said candidate model.

ステップ204において、複数の候補モデルを取得する。 In step 204, a plurality of candidate models are obtained.

ステップ205において、複数の候補モデルのモデル構造に基づいて構造コーディングを行って、各候補モデルの構造コードを取得する。 In step 205, structural coding is performed based on the model structures of a plurality of candidate models to obtain a structural code for each candidate model.

ステップ206において、訓練済みエンコーダを用いて各候補モデルの構造コードをマッピングして、各前記候補モデルの周波数領域コードを取得する。 At step 206, a trained encoder is used to map the structural code of each candidate model to obtain a frequency domain code of each candidate model.

例示的な実施例では、上記訓練プロセスを用いてエンコーダとデコーダとを訓練した後、複数の候補モデルを取得し、各候補モデルの構造コードを取得すると、訓練済みエンコーダを用いて各候補モデルの構造コードをマッピングして、各前記候補モデルの周波数領域コードを取得することができる。 In an exemplary embodiment, after training the encoder and decoder using the training process described above, obtaining a plurality of candidate models and obtaining the structural code of each candidate model, the trained encoder is used to Structural codes may be mapped to obtain frequency domain codes for each of the candidate models.

ステップ207において、各候補モデルの周波数領域コードに基づいて、各候補モデルのモデル性能パラメータを予測する。 In step 207, model performance parameters for each candidate model are predicted based on the frequency domain code of each candidate model.

なお、本開示の実施例では、各候補モデルの構造コードを対応する周波数領域コードにマッピングする時、構造コードを少なくとも2次元の周波数領域コードにマッピングすることができ、少なくとも2次元の周波数領域コードは、例えば少なくとも時間次元と精度次元とを含み、これにより、各候補モデルの少なくとも2次元の周波数領域コードに基づいて各候補モデルのモデル性能パラメータを予測する時、予測の精度を向上させることができる。 Note that in the embodiments of the present disclosure, when mapping the structural code of each candidate model to the corresponding frequency domain code, the structural code can be mapped to at least a two-dimensional frequency domain code, and the at least two-dimensional frequency domain code may include, for example, at least a time dimension and an accuracy dimension, thereby improving the accuracy of prediction when predicting model performance parameters for each candidate model based on at least two-dimensional frequency domain codes of each candidate model. can.

これに対応して、エンコーダとデコーダとを訓練する時、訓練サンプルとして構成されたサンプル構造コードをエンコーダに入力した後、エンコーダにより少なくとも2次元のコーディングを行って、エンコーダによって出力された少なくとも2次元の予測周波数領域コードを取得することができ、次に、少なくとも2次元の予測周波数領域コードをデコーダに入力し、デコーダによって出力された予測構造コードとサンプル構造コードとの違いに基づいて、エンコーダとデコーダとを訓練する。これにより、訓練済みエンコーダを用いて各候補モデルの構造コードをマッピングして各前記候補モデルの少なくとも2次元の周波数領域コードを取得し、各候補モデルの少なくとも2次元の周波数領域コードに基づいて、各候補モデルのモデル性能パラメータを予測することを実現し、予測の精度を向上させることができる。 Correspondingly, when training the encoder and decoder, after inputting a sample structure code configured as a training sample to the encoder, the encoder performs at least two-dimensional coding, and the encoder outputs at least two-dimensional A predicted frequency-domain code of the sample structure can be obtained, and then the at least two-dimensional predicted frequency-domain code is input to a decoder, and the encoder and Train the decoder. Thereby, a trained encoder is used to map the structural code of each candidate model to obtain at least two-dimensional frequency domain codes of each candidate model, and based on the at least two-dimensional frequency domain codes of each candidate model, It is possible to predict the model performance parameters of each candidate model and improve the accuracy of prediction.

ステップ208において、各候補モデルのモデル性能パラメータに基づいて、事前訓練済みモデルとして複数の候補モデルからターゲットモデルを決定する。 At step 208, a target model is determined from the plurality of candidate models as pre-trained models based on the model performance parameters of each candidate model.

ステップ204~208の具体的な実現のプロセス及び原理は、上記実施例の説明を参照されたく、ここで詳しい説明を省略する。 For the specific implementation process and principle of steps 204 to 208, please refer to the description of the above embodiment, and detailed description thereof will be omitted here.

本開示の実施例の事前訓練済みモデルの決定方法では、訓練サンプルとして構成されたサンプル構造コードをエンコーダに入力して、エンコーダによって出力された予測周波数領域コードを取得し、予測周波数領域コードをデコーダに入力し、デコーダの出力とサンプル構造コードとの違いに基づいて、エンコーダとデコーダとを訓練し、これにより、エンコーダとデコーダとの訓練が実現される。複数の候補モデルを取得し、複数の候補モデルのモデル構造に基づいて構造コーディングを行って、各候補モデルの構造コードを取得した後、訓練済みエンコーダを用いて各候補モデルの構造コードをマッピングして、各前記候補モデルの周波数領域コードを取得し、さらに各候補モデルの周波数領域コードに基づいて、各候補モデルのモデル性能パラメータを予測し、各候補モデルのモデル性能パラメータに基づいて、事前訓練済みモデルとして複数の候補モデルからターゲットモデルを決定することができる。これにより、複数の候補モデルの周波数領域コードに基づいて、事前訓練済みモデルとして複数の候補モデルからターゲットモデルを決定することにより、事前訓練済みモデルを訓練する後続の訓練コストを削減し、訓練効率を向上させることができる。 In the method for determining a pre-trained model according to an embodiment of the present disclosure, a sample structure code configured as a training sample is input to an encoder, a predicted frequency domain code outputted by the encoder is obtained, and the predicted frequency domain code is transmitted to a decoder. and trains the encoder and decoder based on the difference between the output of the decoder and the sample structure code, thereby realizing the training of the encoder and decoder. Obtain multiple candidate models, perform structural coding based on the model structure of the multiple candidate models, obtain the structural code of each candidate model, and then map the structural code of each candidate model using a trained encoder. obtain the frequency domain code of each candidate model, further predict model performance parameters of each candidate model based on the frequency domain code of each candidate model, and perform pre-training based on the model performance parameters of each candidate model. A target model can be determined from a plurality of candidate models. This reduces the subsequent training cost of training pre-trained models and improves training efficiency by determining the target model from multiple candidate models as pre-trained models based on the frequency domain codes of multiple candidate models. can be improved.

上記の分析から分かるように、本開示の実施例では、各候補モデルの周波数領域コードに基づいて、各候補モデルのモデル性能パラメータを予測し、さらに各候補モデルのモデル性能パラメータに基づいて、事前訓練済みモデルとして複数の候補モデルからターゲットモデルを決定する。以下、図3を参照しながら、本開示に係る事前訓練済みモデルの決定方法における各候補モデルの周波数領域コードに基づいて、各候補モデルのモデル性能パラメータを予測するプロセスをさらに説明する。 As can be seen from the above analysis, embodiments of the present disclosure predict the model performance parameters of each candidate model based on the frequency domain code of each candidate model, and further predict the model performance parameters of each candidate model in advance based on the model performance parameters of each candidate model. A target model is determined from multiple candidate models as trained models. Hereinafter, the process of predicting model performance parameters of each candidate model based on the frequency domain code of each candidate model in the pre-trained model determination method according to the present disclosure will be further described with reference to FIG. 3.

図3は、本開示の第3の実施例に係る事前訓練済みモデルの決定方法の概略フローチャートである。図3に示すように、事前訓練済みモデルの決定方法は、以下ステップの301~306を含むことができる。 FIG. 3 is a schematic flowchart of a method for determining a pre-trained model according to a third embodiment of the present disclosure. As shown in FIG. 3, the method for determining a pre-trained model may include the following steps 301-306.

ステップ301において、モデルセット内の特徴抽出モデルを組み合わせて、複数の候補モデルを取得する。 In step 301, feature extraction models in the model set are combined to obtain a plurality of candidate models.

特徴抽出モデルは、コンピュータビジョン及び画像処理分野における、画像特徴を抽出する機能を備える任意のモデルであってもよい。 The feature extraction model may be any model in the computer vision and image processing field that is capable of extracting image features.

例示的な実施例では、モデルセットには、訓練済みの複数の特徴抽出モデル(即ち上記実施例におけるサブモデル)が含まれ、複数の特徴抽出モデルはニューラルネットワークのモデルであってもよいし、他のタイプのモデルであってもよいし、本開示では限定されない。例示的な実施例では、ランダム選択の方式により、モデルセットから複数の特徴抽出モデルを選択して組み合わせることで複数の候補モデルを取得してもよい。或いは、モデルセット内の複数の特徴抽出モデルのそれぞれの性能を先に決定してから、性能の優れるいくつかの特徴抽出モデルをモデルセットから選択してランダムに組み合わせて、複数の候補モデルを取得してもよい。或いは、他の方式で複数の候補モデルを取得してもよい。本開示の実施例では、複数の候補モデルを取得する方式が限定されない。 In an exemplary embodiment, the model set includes a plurality of trained feature extraction models (i.e., sub-models in the above embodiments), and the plurality of feature extraction models may be neural network models; Other types of models may be used and are not limited by this disclosure. In an exemplary embodiment, multiple candidate models may be obtained by selecting and combining multiple feature extraction models from the model set in a random selection manner. Alternatively, first determine the performance of each of the multiple feature extraction models in the model set, and then select several feature extraction models with superior performance from the model set and randomly combine them to obtain multiple candidate models. You may. Alternatively, a plurality of candidate models may be obtained using other methods. In the embodiment of the present disclosure, the method of acquiring multiple candidate models is not limited.

モデルセット内の特徴抽出モデルを組み合わせることで、複数の高精度の候補モデルを取得することができる。 By combining the feature extraction models in the model set, multiple highly accurate candidate models can be obtained.

ステップ302において、複数の候補モデルのモデル構造に基づいて構造コーディングを行って、各候補モデルの構造コードを取得する。 In step 302, structural coding is performed based on the model structures of a plurality of candidate models to obtain a structural code for each candidate model.

ステップ303において、訓練済みエンコーダを用いて各候補モデルの構造コードをマッピングして、各前記候補モデルの周波数領域コードを取得する。 In step 303, a trained encoder is used to map the structural code of each candidate model to obtain a frequency domain code of each said candidate model.

ステップ302~303の具体的な実現のプロセス及び原理は、上記実施例の説明を参照されたく、ここで詳しい説明を省略する。 For the specific implementation process and principle of steps 302 to 303, please refer to the description of the above embodiment, and detailed description thereof will be omitted here.

ステップ304において、実行するタスクに基づいて、ターゲット相関関数を決定する。 At step 304, a target correlation function is determined based on the task to be performed.

ここで、実行するタスクは、事前訓練済みモデルが訓練された後に実行する必要のあるタスクであり、例えば、顔認識タスク又は商品分類タスクなどであってもよい。 Here, the task to be executed is a task that needs to be executed after the pre-trained model is trained, and may be, for example, a face recognition task or a product classification task.

例示的な実施例では、各タスクのそれぞれに対応する相関関数を事前決定することができ、各タスクに対応する相関関数は、周波数領域コードと、対応する候補モデルが当該タスクを実行する時のモデル性能パラメータとの相関性を記述する。相関関数のパラメータは周波数領域での最尤推定によって取得することができる。実行するタスク及び事前決定された各タスクのそれぞれに対応する相関関数に基づいて、実行するタスクに対応するターゲット相関関数を決定することができる。 In an exemplary embodiment, a correlation function corresponding to each of the tasks may be predetermined, and the correlation function corresponding to each task may be a function of the frequency domain code and the time when the corresponding candidate model performs the task. Describe the correlation with model performance parameters. The parameters of the correlation function can be obtained by maximum likelihood estimation in the frequency domain. A target correlation function corresponding to the task to be executed can be determined based on the correlation function corresponding to the task to be executed and each predetermined task.

ステップ305において、各候補モデルの周波数領域コードをターゲット相関関数にそれぞれ代入して、各候補モデルのモデル性能パラメータを取得する。 In step 305, the frequency domain code of each candidate model is substituted into the target correlation function to obtain model performance parameters of each candidate model.

例示的な実施例では、ターゲット相関関数は、周波数領域コードと、対応する候補モデルが実行するタスクを実行する時のモデル性能パラメータとの相関性を記述することにより、各候補モデルの周波数領域コードをターゲット相関関数にそれぞれ代入して、各候補モデルのモデル性能パラメータを取得することができる。 In an exemplary embodiment, the target correlation function determines the frequency-domain code of each candidate model by describing the correlation between the frequency-domain code and the model performance parameters when performing the tasks that the corresponding candidate model performs. can be substituted into the target correlation function to obtain the model performance parameters of each candidate model.

実行するタスクに基づいて、ターゲット相関関数を決定し、各候補モデルの周波数領域コードをターゲット相関関数それぞれに代入して、各候補モデルのモデル性能パラメータを取得する。ことにより、実行するタスクに対応するターゲット相関関数に基づいて、各候補モデルが実行するタスクを実行する時のモデル性能パラメータを決定することが実現される。 Based on the task to be performed, a target correlation function is determined, and the frequency domain code of each candidate model is substituted into each of the target correlation functions to obtain model performance parameters of each candidate model. This makes it possible to determine model performance parameters when each candidate model executes a task based on the target correlation function corresponding to the task to be executed.

ステップ306において、各候補モデルのモデル性能パラメータに基づいて、事前訓練済みモデルとして複数の候補モデルからターゲットモデルを決定する。 In step 306, a target model is determined from the plurality of candidate models as a pre-trained model based on the model performance parameters of each candidate model.

ステップ306の具体的な実現プロセスと原理は上記実施例の説明を参照されたく、詳しい説明を省略する。 For the specific implementation process and principle of step 306, please refer to the description of the above embodiment, and detailed description will be omitted.

本開示の実施例の事前訓練済みモデルの決定方法では、まず、モデルセット内の特徴抽出モデルを組み合わせて、複数の候補モデルを取得し、次に、複数の候補モデルのモデル構造に基づいて構造コーディングを行って、各候補モデルの構造コードを取得し、さらに、訓練済みエンコーダを用いて各候補モデルの構造コードをマッピングして、各前記候補モデルの周波数領域コードを取得し、次に、実行するタスクに基づいて、ターゲット相関関数を決定し、各候補モデルの周波数領域コードをターゲット相関関数にそれぞれ代入して、各候補モデルのモデル性能パラメータを取得し、各候補モデルのモデル性能パラメータに基づいて、事前訓練済みモデルとして複数の候補モデルからターゲットモデルを決定する。これにより、複数の候補モデルの周波数領域コードに基づいて、事前訓練済みモデルとして複数の候補モデルからターゲットモデルを決定することにより、事前訓練済みモデルを訓練する後続の訓練コストを削減し、訓練効率を向上させることができる。 In the method for determining a pre-trained model according to an embodiment of the present disclosure, first, feature extraction models in a model set are combined to obtain a plurality of candidate models, and then a structure is constructed based on the model structure of the plurality of candidate models. coding to obtain the structural code of each candidate model, further mapping the structural code of each candidate model using a trained encoder to obtain the frequency domain code of each said candidate model, and then executing Based on the task to determine the target correlation function, substitute the frequency domain code of each candidate model into the target correlation function respectively to obtain the model performance parameters of each candidate model, and Then, a target model is determined from multiple candidate models as pre-trained models. This reduces the subsequent training cost of training pre-trained models and improves training efficiency by determining the target model from multiple candidate models as pre-trained models based on the frequency domain codes of multiple candidate models. can be improved.

以下、図4を参照しながら、本開示に係る事前訓練済みモデルの決定装置を説明する。 Hereinafter, a pre-trained model determining device according to the present disclosure will be described with reference to FIG. 4.

図4は本開示の第4の実施例に係る事前訓練済みモデルの決定装置の構造概略図である。 FIG. 4 is a structural schematic diagram of a pre-trained model determining device according to a fourth embodiment of the present disclosure.

図4に示すように、本開示に係る事前訓練済みモデルの決定装置400は、取得モジュール401、コーディングモジュール402、マッピングモジュール403、予測モジュール404及び決定モジュール405を備える。 As shown in FIG. 4, a pre-trained model determination apparatus 400 according to the present disclosure includes an acquisition module 401, a coding module 402, a mapping module 403, a prediction module 404, and a determination module 405.

取得モジュール401は、複数の候補モデルを取得するように構成される。
コーディングモジュール402は、複数の候補モデルのモデル構造に基づいて構造コーディングを行って、各候補モデルの構造コードを取得するように構成される。
マッピングモジュール403は、訓練済みエンコーダを用いて各候補モデルの構造コードをマッピングして、各前記候補モデルの周波数領域コードを取得するように構成される。
予測モジュール404は、各候補モデルの周波数領域コードに基づいて、各候補モデルのモデル性能パラメータを予測するように構成される。
決定モジュール405は、各候補モデルのモデル性能パラメータに基づいて、事前訓練済みモデルとして複数の候補モデルからターゲットモデルを決定するように構成される。
Acquisition module 401 is configured to acquire multiple candidate models.
Coding module 402 is configured to perform structural coding based on the model structures of the plurality of candidate models to obtain a structural code for each candidate model.
The mapping module 403 is configured to map the structural code of each candidate model using a trained encoder to obtain a frequency domain code of each said candidate model.
Prediction module 404 is configured to predict model performance parameters for each candidate model based on the frequency domain code of each candidate model.
The determination module 405 is configured to determine a target model from the plurality of candidate models as pre-trained models based on model performance parameters of each candidate model.

なお、本実施例に係る事前訓練済みモデルの決定装置は、上記実施例の事前訓練済みモデルの決定方法を実行することができる。当該決定装置は電子機器であってもよいし、電子機器内に配置されてもよい。これにより、複数の候補モデルの周波数領域コードに基づいて、事前訓練済みモデルとして複数の候補モデルからターゲットモデルを決定することが実現され、事前訓練済みモデルを訓練する後続の訓練コストを削減し、訓練効率を向上させることができる。 Note that the pre-trained model determining device according to this embodiment can execute the pre-trained model determining method of the above embodiment. The determining device may be an electronic device or may be located within the electronic device. This realizes determining a target model from multiple candidate models as a pre-trained model based on the frequency domain codes of multiple candidate models, reducing the subsequent training cost of training the pre-trained model, Training efficiency can be improved.

電子機器は、データ処理を行うことができる固定又はモバイルコンピューティングデバイスであり、例えばノートブックコンピューター、スマートフォン、ウェアラブルデバイスなどのモバイルコンピューティングデバイス、或いはデスクトップコンピュータなどの固定のコンピューティングデバイス、或いはサーバ、或いは他のタイプのコンピューティングデバイスなどであってもよく、本開示では限定されない。 An electronic device is a fixed or mobile computing device capable of performing data processing, such as a notebook computer, a smartphone, a mobile computing device such as a wearable device, or a fixed computing device such as a desktop computer, or a server, Alternatively, it may be other types of computing devices, etc., and is not limited by this disclosure.

なお、事前訓練済みモデルの決定方法の実施例に対する上記説明は、本開示に係る事前訓練済みモデルの決定装置にも適用され、ここで詳しい説明を省略する。 Note that the above description of the embodiment of the pre-trained model determining method also applies to the pre-trained model determining apparatus according to the present disclosure, and detailed description thereof will be omitted here.

本開示の実施例に係る事前訓練済みモデルの決定装置は、複数の候補モデルを取得した後、複数の候補モデルのモデル構造に基づいて構造コーディングを行って、各候補モデルの構造コードを取得し、さらに訓練済みエンコーダを用いて各候補モデルの構造コードをマッピングして、各前記候補モデルの周波数領域コードを取得し、各候補モデルの周波数領域コードに基づいて、各候補モデルのモデル性能パラメータを予測し、各候補モデルのモデル性能パラメータに基づいて、事前訓練済みモデルとして複数の候補モデルからターゲットモデルを決定する。これにより、複数の候補モデルの周波数領域コードに基づいて、事前訓練済みモデルとして複数の候補モデルからターゲットモデルを決定することにより、事前訓練済みモデルを訓練する後続の訓練コストを削減し、訓練効率を向上させることができる。 A pre-trained model determining device according to an embodiment of the present disclosure obtains a plurality of candidate models, and then performs structure coding based on the model structures of the plurality of candidate models to obtain a structure code of each candidate model. , further map the structure code of each candidate model using a trained encoder to obtain the frequency domain code of each said candidate model, and calculate the model performance parameters of each candidate model based on the frequency domain code of each candidate model. predict and determine a target model from the plurality of candidate models as pre-trained models based on model performance parameters of each candidate model. This reduces the subsequent training cost of training pre-trained models and improves training efficiency by determining the target model from multiple candidate models as pre-trained models based on the frequency domain codes of multiple candidate models. can be improved.

以下、図5を参照しながら、本開示に係る事前訓練済みモデルの決定装置を説明する。 Hereinafter, a pre-trained model determining device according to the present disclosure will be described with reference to FIG. 5.

図5は、本開示の第5の実施例に係る事前訓練済みモデルの決定装置の概略構成図である。 FIG. 5 is a schematic configuration diagram of a pre-trained model determining device according to a fifth example of the present disclosure.

図5に示すように、事前訓練済みモデルの決定装置500は、具体的には、取得モジュール501、コーディングモジュール502、マッピングモジュール503、予測モジュール504及び決定モジュール505を備えることができる。図5では、取得モジュール501、コーディングモジュール502、マッピングモジュール503、予測モジュール504及び決定モジュール505は図4における取得モジュール401、コーディングモジュール402、マッピングモジュール403、予測モジュール404及び決定モジュール405と同じ機能と構成を有する。 As shown in FIG. 5, the pre-trained model determination apparatus 500 may specifically include an acquisition module 501, a coding module 502, a mapping module 503, a prediction module 504, and a determination module 505. In FIG. 5, acquisition module 501, coding module 502, mapping module 503, prediction module 504, and decision module 505 have the same functions as acquisition module 401, coding module 402, mapping module 403, prediction module 404, and decision module 405 in FIG. It has a configuration.

例示的な実施例では、事前訓練済みモデルの決定装置500は、訓練サンプルとして構成されたサンプル構造コードをエンコーダに入力して、エンコーダによって出力された予測周波数領域コードを取得するように構成される第1の処理モジュール506と、予測周波数領域コードをデコーダに入力するように構成される第2の処理モジュール507と、デコーダの出力とサンプル構造コードとの違いに基づいて、エンコーダとデコーダとを訓練するように構成される訓練モジュール508と、をさらに備えることができる。 In an exemplary embodiment, the pre-trained model determination apparatus 500 is configured to input sample structure codes configured as training samples to an encoder to obtain predicted frequency domain codes output by the encoder. A first processing module 506 and a second processing module 507 configured to input a predicted frequency domain code to the decoder train the encoder and the decoder based on the difference between the output of the decoder and the sample structure code. A training module 508 configured to.

例示的な実施例では、第1の処理モジュール506は、訓練サンプルとして構成されたサンプル構造コードをエンコーダに入力して少なくとも2次元のコーディングを行って、エンコーダによって出力された少なくとも2次元の予測周波数領域コードを取得するように構成される処理ユニットを備える。 In an exemplary embodiment, the first processing module 506 inputs a sample structure code configured as a training sample into an encoder to perform at least two-dimensional coding and at least two-dimensional predicted frequencies output by the encoder. A processing unit configured to obtain a region code.

例示的な実施例では、取得モジュール501は、モデルセット内の特徴抽出モデルを組み合わせて、複数の候補モデルを取得するように構成される組み合せユニットを備える。 In an exemplary embodiment, the acquisition module 501 comprises a combination unit configured to combine the feature extraction models in the model set to obtain a plurality of candidate models.

例示的な実施例では、予測モジュール504は、実行するタスクに基づいて、ターゲット相関関数を決定するように構成される決定ユニットと、各候補モデルの周波数領域コードをターゲット相関関数にそれぞれ代入して、各候補モデルのモデル性能パラメータを取得するように構成される取得ユニットと、を備える。 In an exemplary embodiment, the prediction module 504 includes a determination unit configured to determine a target correlation function based on the task to be performed, and a determination unit configured to respectively substitute the frequency domain code of each candidate model into the target correlation function. , an acquisition unit configured to acquire model performance parameters of each candidate model.

なお、事前訓練済みモデルの決定方法の実施例に対する上記説明は、本開示に係る事前訓練済みモデルの決定装置にも適用され、ここで詳しい説明を省略する。 Note that the above description of the embodiment of the pre-trained model determining method also applies to the pre-trained model determining apparatus according to the present disclosure, and detailed description thereof will be omitted here.

本開示の実施例に係る事前訓練済みモデルの決定装置は、複数の候補モデルを取得した後、複数の候補モデルのモデル構造に基づいて構造コーディングを行って、各候補モデルの構造コードを取得し、さらに訓練済みエンコーダを用いて各候補モデルの構造コードをマッピングして、各前記候補モデルの周波数領域コードを取得し、各候補モデルの周波数領域コードに基づいて、各候補モデルのモデル性能パラメータを予測し、各候補モデルのモデル性能パラメータに基づいて、事前訓練済みモデルとして複数の候補モデルからターゲットモデルを決定する。これにより、複数の候補モデルの周波数領域コードに基づいて、事前訓練済みモデルとして複数の候補モデルからターゲットモデルを決定することにより、事前訓練済みモデルを訓練する後続の訓練コストを削減し、訓練効率を向上させることができる。 A pre-trained model determining device according to an embodiment of the present disclosure obtains a plurality of candidate models, and then performs structure coding based on the model structure of the plurality of candidate models to obtain a structure code of each candidate model. , further map the structure code of each candidate model using a trained encoder to obtain the frequency domain code of each said candidate model, and calculate the model performance parameters of each candidate model based on the frequency domain code of each candidate model. predict and determine a target model from a plurality of candidate models as a pre-trained model based on model performance parameters of each candidate model. This reduces the subsequent training cost of training pre-trained models and improves training efficiency by determining the target model from multiple candidate models as pre-trained models based on the frequency domain codes of multiple candidate models. can be improved.

本開示の実施例によれば、本開示は電子機器、読み取り可能な記憶媒体及びコンピュータプログラム製品を提供する。 According to embodiments of the present disclosure, the present disclosure provides electronic devices, readable storage media, and computer program products.

図6は、本開示の実施例を実施できる例示的な電子機器600の概略的なブロック図を示す。電子機器はラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及び他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタルプロセッサ、携帯電話、スマートフォン、ウェアラブルデバイス、他の類似するコンピューティングデバイスなどの様々な形態のモバイル装置を表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本出願の実現を限定することを意図したものではない。 FIG. 6 depicts a schematic block diagram of an example electronic device 600 in which embodiments of the present disclosure may be implemented. Electronic equipment is intended to refer to various forms of digital computers, such as laptop computers, desktop computers, workstations, personal digital assistants, servers, blade servers, mainframe computers, and other suitable computers. Electronic equipment may also represent various forms of mobile devices such as personal digital processors, mobile phones, smart phones, wearable devices, and other similar computing devices. The components depicted herein, their connections and relationships, and their functionality are merely examples and are not intended to limit the description herein and/or the required implementation of the present application.

図6に示すように、電子機器600は、リードオンリーメモリ(ROM)602に記憶されるコンピュータプログラム又は記憶ユニット608からランダムアクセスメモリ(RAM)603内にロードされるコンピュータプログラムに基づいて様々な適切な動作と処理を実行できる計算ユニット601を備える。RAM603は、機器600の操作に必要な様々なプログラム及びデータを含むことができる。計算ユニット601、ROM602及びRAM603はバス604を介して互いに接続される。入力/出力(I/O)インターフェース605は同様にバス604に接続される。 As shown in FIG. 6, electronic device 600 can perform various suitable operations based on a computer program stored in read-only memory (ROM) 602 or loaded into random access memory (RAM) 603 from storage unit 608. The computer includes a calculation unit 601 that can perform various operations and processes. RAM 603 can include various programs and data necessary for operating device 600. Computing unit 601, ROM 602 and RAM 603 are connected to each other via bus 604. An input/output (I/O) interface 605 is also connected to bus 604.

キーボード、マウスなどの入力ユニット606と、各種類のタイプのモニタ、スピーカーなどの出力ユニット607と、磁気ディスク、光ディスクなどの記憶ユニット608と、ネットワークカード、モデム、無線通信受送信機などの通信ユニット609とを備える電子機器600内の複数の部品はI/Oインターフェース605に接続される。通信ユニット609は、機器600がインターネットなどのコンピュータネットワーク及び/又は様々なテレコムネットワークを介して他の機器と情報/データを交換することを許可する。 An input unit 606 such as a keyboard and a mouse, an output unit 607 such as various types of monitors and speakers, a storage unit 608 such as a magnetic disk or an optical disk, and a communication unit such as a network card, modem, wireless communication receiver/transmitter, etc. 609 are connected to the I/O interface 605. Communication unit 609 allows device 600 to exchange information/data with other devices via computer networks such as the Internet and/or various telecommunications networks.

計算ユニット601は処理と計算能力を有する様々な汎用及び/又は専用処理コンポーネントであってもよい。計算ユニット601のいくつかの例は中央処理装置(CPU)、グラフィックス処理装置(GPU)、様々な専用の人工知能(AI)計算チップ、様々なマシン実行学習モデルアルゴリズムの計算ユニット、デジタル信号プロセッサ(DSP)、及び任意の適切なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限定されない。計算ユニット601は以上で説明された各方法及び処理、例えば、事前訓練済みモデルの決定方法を実行する。例えば、いくつかの実施例では、事前訓練済みモデルの決定方法は、記憶ユニット608などの機械読み取り可能な媒体に有形的に含まれるコンピュータソフトウェアプログラムとして実現することができる。いくつかの実施例では、コンピュータプログラムの一部又はすべてはROM602及び/又は通信ユニット609を介して電子機器600にロード及び/又はインストールされる。コンピュータプログラムがRAM603にロードされ且つ計算ユニット601によって実行される際に、以上で説明された事前訓練済みモデルの決定方法の1つ又は複数のステップを実行することができる。代替的に、他の実施例では、計算ユニット601は他の任意の適切な方法(例えば、ファームウェアを介して)によって、事前訓練済みモデルの決定方法を実行するように構成されてもよい。 Computing unit 601 may be a variety of general purpose and/or special purpose processing components with processing and computing capabilities. Some examples of computational units 601 are central processing units (CPUs), graphics processing units (GPUs), various specialized artificial intelligence (AI) computational chips, various machine execution learning model algorithm computational units, digital signal processors. (DSP), and any suitable processor, controller, microcontroller, etc. The calculation unit 601 performs the methods and processes described above, such as the method for determining a pre-trained model. For example, in some embodiments, the pre-trained model determination method may be implemented as a computer software program tangibly contained in a machine-readable medium, such as storage unit 608. In some embodiments, some or all of the computer program is loaded and/or installed on electronic device 600 via ROM 602 and/or communication unit 609. When the computer program is loaded into the RAM 603 and executed by the calculation unit 601, one or more steps of the pre-trained model determination method described above may be performed. Alternatively, in other embodiments, the computing unit 601 may be configured to perform the pre-trained model determination method by any other suitable method (eg, via firmware).

本明細書の上述したシステム及び技術の様々な実施形態はデジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップ(SOC)、コンプレックス・プログラマブル・ロジック・デバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムで実施されてもよく、当該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを備えるプログラム可能なシステムで実行及び/又は解釈することができ、当該プログラマブルプロセッサは、特定用途向け又は汎用プログラマブルプロセッサであってもよく、ストレージシステム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、データ及び命令を当該ストレージシステム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置に伝送することができる。 Various embodiments of the systems and techniques described above herein include digital electronic circuit systems, integrated circuit systems, field programmable gate arrays (FPGAs), application specific integrated circuits (ASICs), application specific standard products (ASSPs), It can be implemented in a system-on-chip (SOC), complex programmable logic device (CPLD), computer hardware, firmware, software, and/or combinations thereof. These various embodiments may be implemented in one or more computer programs that execute and/or interpret on a programmable system that includes at least one programmable processor. The programmable processor may be an application-specific or general-purpose programmable processor and receives data and instructions from a storage system, at least one input device, and at least one output device, and the programmable processor receives data and instructions from the storage system, at least one input device, and at least one output device. The information may be transmitted to a storage system, the at least one input device, and the at least one output device.

本出願の方法を実行するためのプログラムコードは、1つ又は複数のプログラミング言語の任意の組み合わせで書くことができる。これらのプログラムコードは、プロセッサ又がコントローラによって実行された際に、フローチャート及び/又はブロック図によって規定された機能/動作が実施されるように、汎用コンピュータ、専用コンピュータ、又は他のプログラマブルデータ処理装置のプロセッサ又はコントローラに提供されてもよい。プログラムコードは、完全に機械上で実行され、部分的に機械上で実行され、スタンドアロンソフトウェアパッケージとして、部分的に機械上で実行され、かつ部分的にリモート機械上で実行され、又は完全にリモート機械又はサーバ上で実行されてもよい。 Program code for implementing the methods of the present application can be written in any combination of one or more programming languages. These program codes may be implemented on a general purpose computer, special purpose computer, or other programmable data processing device such that, when executed by a processor or controller, the functions/acts specified by the flowcharts and/or block diagrams are performed. processor or controller. The program code may run entirely on a machine, partially on a machine, as a standalone software package, partially on a machine, and partially on a remote machine, or completely remotely. It may be executed on a machine or a server.

本出願の文脈では、機械読み取り可能な媒体は、命令実行システム、装置、またはデバイスによって使用されたり、又は命令実行システム、装置、またはデバイスと組み合わせて使用されたりするプログラムを含むか、又は記憶できる有形の媒体であってもよい。機械読み取り可能な媒体は、機械読み取り可能な信号媒体または機械読み取り可能な記憶媒体であってもよい。機械読み取り可能な媒体は、電子的、磁気的、光学的、電磁気的、赤外線的、又は半導体システム、装置又はデバイス、または上記内容のいずれかの適切な組み合わせを備えることができるが、これらに限定されない。機械読み取り可能な記憶媒体のより具体的な例は、1つ又は複数のラインに基づく電気接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能プログラマブルリードオンリーメモリ(EPROM又はフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスクリードオンリーメモリ(CD-ROM)、光学記憶装置、磁気記憶装置、または上記内容のいずれかの適切な組み合わせを含む。 In the context of this application, a machine-readable medium is capable of containing or storing a program for use by or in combination with an instruction execution system, apparatus, or device. It may be a tangible medium. A machine-readable medium may be a machine-readable signal medium or a machine-readable storage medium. The machine-readable medium can include, but is not limited to, an electronic, magnetic, optical, electromagnetic, infrared, or semiconductor system, apparatus, or device, or any suitable combination of the above. Not done. More specific examples of machine-readable storage media include electrical connections based on one or more lines, portable computer disks, hard disks, random access memory (RAM), read-only memory (ROM), erasable programmable read-only memory (EPROM or flash memory), fiber optics, portable compact disk read-only memory (CD-ROM), optical storage, magnetic storage, or any suitable combination of the above.

ユーザとのインタラクションを提供するために、ここで説明されたシステム及び技術をコンピュータ上で実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)、並びにキーボードとポインティングデバイス(例えば、マウス又はトラックボール)を有し、ユーザは、当該キーボード及び当該ポインティングデバイスを介して入力をコンピュータに提供することができる。他の種類の装置も、ユーザとのインタラクションを提供することができ、例えば、ユーザに提供されるフィードバックは、任意の形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形式(音響入力と、音声入力または、触覚入力とを含む)でユーザからの入力を受信することができる。 To provide interaction with a user, the systems and techniques described herein can be implemented on a computer that includes a display device (e.g., a CRT (cathode ray tube)) for displaying information to the user. or an LCD (liquid crystal display) monitor), and a keyboard and pointing device (eg, a mouse or trackball) through which a user can provide input to the computer. Other types of devices may also provide interaction with the user, for example, the feedback provided to the user may be any form of sensing feedback (e.g., visual feedback, auditory feedback, or haptic feedback). Input from the user may be received in any format, including acoustic input, voice input, or tactile input.

ここで説明されるシステム及び技術は、バックエンドコンポーネントを備えるコンピューティングシステム(例えば、データサーバとして)、又はミドルウェアコンポーネントを備えるコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンドコンポーネントを備えるコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータ、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施形態とインタラクションを行う)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントの任意の組み合わせを備えるコンピューティングシステムで実施することができる。任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、インターネット、及びブロックチェーンネットワークを含む。 The systems and techniques described herein are applicable to computing systems with back-end components (e.g., as data servers), or with middleware components (e.g., application servers), or with front-end components. (e.g., a user computer having a graphical user interface or web browser, through which the user interacts with embodiments of the systems and techniques described herein), or such back-end components; , middleware components, and front-end components. The components of the system may be interconnected by any form or medium of digital data communication (eg, a communication network). Examples of communication networks include local area networks (LANs), wide area networks (WANs), the Internet, and blockchain networks.

コンピュータシステムは、クライアントとサーバを備えることができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、かつ互いにクライアント-サーバ関係を有するコンピュータプログラムによってクライアントとサーバとの関係が生成される。サーバはクラウドサーバであってもよく、クラウドコンピューティングサーバまたはクラウドホストとも呼ばれ、クラウドコンピューティングサービスシステムにおける1つのホスト製品であり、従来の物理ホストとVPS(「Virtual Private Server」、又は「VPS」と略す)サービスに存在する管理の難しさ、業務拡張性の弱いという欠陥を解決した。サーバは分散システムのサーバであってもよく、またはブロックチェーンと組み合わせたサーバであってもよい。 A computer system can include clients and servers. Clients and servers are generally remote from each other and typically interact via a communications network. A client and server relationship is created by computer programs running on corresponding computers and having a client-server relationship with each other. The server may be a cloud server, also called a cloud computing server or a cloud host, and is one host product in a cloud computing service system, which is different from a traditional physical host and a VPS ("Virtual Private Server" or "VPS"). (abbreviated as ``)'' service, it solved the deficiencies of difficult management and weak business scalability. The server may be a server of a distributed system or a server in combination with a blockchain.

本開示は人工知能技術分野に関し、具体的にコンピュータビジョン及び深層学習技術分野に関し、画像処理、画像認識などのシーンに適用することができる。 The present disclosure relates to the field of artificial intelligence technology, specifically to the field of computer vision and deep learning technology, and can be applied to scenes such as image processing and image recognition.

なお、人工知能は、人間のある思考過程及び知的な行動(例えば学習、推理、思考、計画など)をコンピュータにシミュレーションさせることを研究する学科であり、ハードウェアレベルの技術もソフトウェアレベルの技術もある。人工知能のハードウェア技術は一般に、センサ、専用の人工知能チップ、クラウド計算、分散ストレージ、ビッグデータ処理などの技術を含み、人工知能のソフトウェア技術は主にコンピュータ視覚技術、音声認識技術、自然言語処理技術及び機械学習/深層学習、ビッグデータ処理技術、ナレッジグラフ技術などのいくつかの側面を含む。 Artificial intelligence is a field that studies how computers simulate certain human thought processes and intellectual behaviors (e.g. learning, reasoning, thinking, planning, etc.), and hardware-level technology also includes software-level technology. There is also. The hardware technology of artificial intelligence generally includes sensors, dedicated artificial intelligence chips, cloud computing, distributed storage, big data processing and other technologies, and the software technology of artificial intelligence mainly includes computer vision technology, voice recognition technology, natural language It includes several aspects such as processing technology and machine learning/deep learning, big data processing technology, knowledge graph technology, etc.

本開示の実施例の技術案によれば、複数の候補モデルの周波数領域コードに基づいて、事前訓練済みモデルとして複数の候補モデルからターゲットモデルを決定することで、事前訓練済みモデルを訓練する後続の訓練コストを削減し、訓練効率を向上させることができる。 According to the technical solution of embodiments of the present disclosure, a subsequent training of the pre-trained model by determining a target model from the plurality of candidate models as the pre-trained model based on the frequency domain codes of the plurality of candidate models. can reduce training costs and improve training efficiency.

なお、以上の説明に示される様々な形態のフローを用い、ステップを並べ替え、追加、又は削除することができる。例えば、本開示に記載されている各ステップは、並列に実行されてもよいし、順次実行されてもよいし、異なる順序で実行されてもよいが、本出願で開示されている技術案の所望の結果を実現することができれば、本明細書では限定されない。 Note that steps can be rearranged, added, or deleted using the various types of flows shown in the above description. For example, each step described in this disclosure may be performed in parallel, sequentially, or in a different order, but according to the technical solution disclosed in this application. There is no limitation in this specification as long as the desired result can be achieved.

上記具体的な実施形態は、本開示の保護範囲を制限するものではない。当業者であれば、設計の要件と他の要因に応じて、様々な修正、組み合わせ、一部の組み合わせ及び代替を行うことができることを理解されたい。本開示の精神及び原則内で行われた修正、同等の置き換え及び改善などは、いずれも本開示の保護範囲に含まれるべきである。
The above specific embodiments do not limit the protection scope of the present disclosure. Those skilled in the art will appreciate that various modifications, combinations, subcombinations, and substitutions may be made depending on design requirements and other factors. All modifications, equivalent replacements, improvements, etc. made within the spirit and principles of this disclosure should be included in the protection scope of this disclosure.

Claims (11)

複数の候補モデルを取得するステップと、
前記複数の候補モデルのモデル構造に基づいて構造コーディングを行って、各前記候補モデルの構造コードを取得するステップと、
訓練済みエンコーダを用いて各前記候補モデルの構造コードをマッピングして、各前記候補モデルの周波数領域コードを取得するステップと、
各前記候補モデルの周波数領域コードに基づいて、各前記候補モデルのモデル性能パラメータを予測するステップと、
各前記候補モデルのモデル性能パラメータに基づいて、事前訓練済みモデルとして複数の前記候補モデルからターゲットモデルを決定するステップと、
を含み、
各前記候補モデルの周波数領域コードに基づいて、各前記候補モデルのモデル性能パラメータを予測するステップが、
実行するタスクに基づいて、ターゲット相関関数を決定するステップと、
各前記候補モデルの周波数領域コードを前記ターゲット相関関数にそれぞれ代入して、各前記候補モデルのモデル性能パラメータを取得するステップと、
を含む、事前訓練済みモデルの決定方法。
obtaining a plurality of candidate models;
performing structural coding based on model structures of the plurality of candidate models to obtain a structural code of each of the candidate models;
mapping the structural code of each candidate model using a trained encoder to obtain a frequency domain code of each candidate model;
predicting model performance parameters for each candidate model based on the frequency domain code of each candidate model;
determining a target model from the plurality of candidate models as a pre-trained model based on model performance parameters of each candidate model;
including;
predicting model performance parameters for each candidate model based on the frequency domain code of each candidate model;
determining a target correlation function based on the task to be performed;
substituting the frequency domain code of each of the candidate models into the target correlation function to obtain model performance parameters of each of the candidate models;
How to determine pre-trained models , including :
訓練サンプルとして構成されたサンプル構造コードをエンコーダに入力して、前記エンコーダによって出力された予測周波数領域コードを取得するステップと、
前記予測周波数領域コードをデコーダに入力するステップと、
前記デコーダの出力と前記サンプル構造コードとの違いに基づいて、前記エンコーダと前記デコーダとを訓練するステップと、
を含む請求項1に記載の事前訓練済みモデルの決定方法。
inputting a sample structure code configured as a training sample into an encoder to obtain a predicted frequency domain code output by the encoder;
inputting the predicted frequency domain code into a decoder;
training the encoder and the decoder based on differences between the output of the decoder and the sample structure code;
2. The method of determining a pre-trained model according to claim 1.
訓練サンプルとして構成されたサンプル構造コードを前記エンコーダに入力して、前記エンコーダによって出力された予測周波数領域コードを取得するステップが、
前記訓練サンプルとして構成されたサンプル構造コードを前記エンコーダに入力して少なくとも2次元のコーディングを行って、前記エンコーダによって出力された少なくとも2次元の予測周波数領域コードを取得するステップを含む請求項2に記載の事前訓練済みモデルの決定方法。
inputting a sample structure code configured as a training sample into the encoder to obtain a predicted frequency domain code output by the encoder;
3. The method according to claim 2, further comprising the step of inputting the sample structure code configured as the training sample to the encoder to perform at least two-dimensional coding to obtain at least two-dimensional predicted frequency domain code output by the encoder. How to determine the pre-trained model described.
複数の候補モデルを取得するステップが、
モデルセット内の特徴抽出モデルを組み合わせて、前記複数の候補モデルを取得するステップを含む請求項1に記載の事前訓練済みモデルの決定方法。
The step of obtaining multiple candidate models is
The method of determining a pre-trained model according to claim 1, comprising the step of combining feature extraction models in a model set to obtain the plurality of candidate models.
複数の候補モデルを取得するように構成される取得モジュールと、
前記複数の候補モデルのモデル構造に基づいて構造コーディングを行って、各前記候補モデルの構造コードを取得するように構成されるコーディングモジュールと、
訓練済みエンコーダを用いて各前記候補モデルの構造コードをマッピングして、各前記候補モデルの周波数領域コードを取得するように構成されるマッピングモジュールと、
各前記候補モデルの周波数領域コードに基づいて、各前記候補モデルのモデル性能パラメータを予測するように構成される予測モジュールと、
各前記候補モデルのモデル性能パラメータに基づいて、事前訓練済みモデルとして複数の前記候補モデルからターゲットモデルを決定するように構成される決定モジュールと、
を備え
前記予測モジュールが、
実行するタスクに基づいて、ターゲット相関関数を決定するように構成される決定ユニットと、
各前記候補モデルの周波数領域コードを前記ターゲット相関関数にそれぞれ代入して、各前記候補モデルのモデル性能パラメータを取得するように構成される取得ユニットと、
を備える、事前訓練済みモデルの決定装置。
an acquisition module configured to acquire a plurality of candidate models;
a coding module configured to perform structural coding based on model structures of the plurality of candidate models to obtain a structural code of each of the candidate models;
a mapping module configured to map a structural code of each candidate model using a trained encoder to obtain a frequency domain code of each candidate model;
a prediction module configured to predict model performance parameters for each candidate model based on the frequency domain code of each candidate model;
a determination module configured to determine a target model from a plurality of candidate models as a pre-trained model based on model performance parameters of each candidate model;
Equipped with
The prediction module is
a determining unit configured to determine a target correlation function based on a task to perform;
an acquisition unit configured to respectively substitute frequency domain codes of each candidate model into the target correlation function to obtain model performance parameters of each candidate model;
A pre-trained model decision device comprising :
訓練サンプルとして構成されたサンプル構造コードをエンコーダに入力して、前記エンコーダによって出力された予測周波数領域コードを取得するように構成される第1の処理モジュールと、
前記予測周波数領域コードをデコーダに入力するように構成される第2の処理モジュールと、
前記デコーダの出力と前記サンプル構造コードとの違いに基づいて、前記エンコーダと前記デコーダとを訓練するように構成される訓練モジュールと、
を備える請求項に記載の事前訓練済みモデルの決定装置。
a first processing module configured to input a sample structure code configured as a training sample to an encoder to obtain a predicted frequency domain code output by the encoder;
a second processing module configured to input the predicted frequency domain code to a decoder;
a training module configured to train the encoder and the decoder based on differences between the output of the decoder and the sample structure code;
6. The pre-trained model determining device according to claim 5 .
前記第1の処理モジュールが、
前記訓練サンプルとして構成されたサンプル構造コードを前記エンコーダに入力して少なくとも2次元のコーディングを行って、前記エンコーダによって出力された少なくとも2次元の予測周波数領域コードを取得するように構成される処理ユニットを備える請求項に記載の事前訓練済みモデルの決定装置。
the first processing module,
a processing unit configured to input the sample structure code configured as the training sample into the encoder to perform at least two-dimensional coding to obtain an at least two-dimensional predicted frequency domain code output by the encoder; 7. The pre-trained model determining device according to claim 6 .
前記取得モジュールが、
モデルセット内の特徴抽出モデルを組み合わせて、前記複数の候補モデルを取得するように構成される組み合せユニットを備える請求項からのいずれか一項に記載の事前訓練済みモデルの決定装置。
The acquisition module includes:
The device for determining a pre-trained model according to any one of claims 5 to 7 , comprising a combination unit configured to combine feature extraction models in a model set to obtain the plurality of candidate models.
少なくとも1つのプロセッサと、
該少なくとも1つのプロセッサと通信可能に接続されるメモリと、
を備え、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令が前記少なくとも1つのプロセッサによって実行される場合、前記少なくとも1つのプロセッサが請求項1からのいずれか一項に記載の事前訓練済みモデルの決定方法を実行できる電子機器。
at least one processor;
a memory communicatively connected to the at least one processor;
Equipped with
The memory stores instructions executable by the at least one processor, and when the instructions are executed by the at least one processor, the at least one processor An electronic device capable of performing the pre-trained model determination method described in Section 1.
コンピュータに請求項1からのいずれか一項に記載の事前訓練済みモデルの決定方法を実行させるためのコンピュータ命令を記憶した非一時的コンピュータ読み取り可能な記憶媒体。 A non-transitory computer-readable storage medium having computer instructions stored thereon for causing a computer to carry out a method for determining a pre-trained model according to any one of claims 1 to 4 . プロセッサによって実行される場合、請求項1からのいずれか一項に記載の事前訓練済みモデルの決定方法を実現するコンピュータプログラム。
A computer program, when executed by a processor, implements the method for determining a pre-trained model according to any one of claims 1 to 4 .
JP2022125621A 2021-08-06 2022-08-05 Pre-trained model determination method, determination device, electronic equipment, and storage medium Active JP7414907B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110903956.2A CN113705628B (en) 2021-08-06 2021-08-06 Determination method and device of pre-training model, electronic equipment and storage medium
CN202110903956.2 2021-08-06

Publications (2)

Publication Number Publication Date
JP2022160590A JP2022160590A (en) 2022-10-19
JP7414907B2 true JP7414907B2 (en) 2024-01-16

Family

ID=78651846

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022125621A Active JP7414907B2 (en) 2021-08-06 2022-08-05 Pre-trained model determination method, determination device, electronic equipment, and storage medium

Country Status (4)

Country Link
US (1) US20220374678A1 (en)
JP (1) JP7414907B2 (en)
KR (1) KR20220116395A (en)
CN (1) CN113705628B (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114297946B (en) * 2022-02-08 2023-03-24 无锡雪浪数制科技有限公司 Industrial internet platform for realizing multidisciplinary simulation model order reduction
CN114757630B (en) * 2022-06-16 2022-10-14 阿里健康科技(杭州)有限公司 Storage management model determining method and device and computer equipment
CN116109914B (en) * 2023-04-07 2023-06-27 平安银行股份有限公司 Method and device for identifying authenticity of bank running water image, electronic equipment and medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021064342A (en) 2019-10-15 2021-04-22 北京小米智能科技有限公司Beijing Xiaomi Intelligent Technology Co.,Ltd. Method, device, and recording medium for retrieving neural network structure model
JP2021081793A (en) 2019-11-14 2021-05-27 キヤノン株式会社 Information processing device, control method and program for information processing device

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019108923A1 (en) * 2017-11-30 2019-06-06 Google Llc Neural architecture search using a performance prediction neural network
CN109286825B (en) * 2018-12-14 2021-04-30 北京百度网讯科技有限公司 Method and apparatus for processing video
CN110457545B (en) * 2019-08-16 2022-12-27 第四范式(北京)技术有限公司 Method and device for determining parameters of ranking model in recommendation system
CN111079938B (en) * 2019-11-28 2020-11-03 百度在线网络技术(北京)有限公司 Question-answer reading understanding model obtaining method and device, electronic equipment and storage medium
CN111625635B (en) * 2020-05-27 2023-09-29 北京百度网讯科技有限公司 Question-answering processing method, device, equipment and storage medium
CN111859995B (en) * 2020-06-16 2024-01-23 北京百度网讯科技有限公司 Training method and device of machine translation model, electronic equipment and storage medium
CN112559885B (en) * 2020-12-25 2024-01-12 北京百度网讯科技有限公司 Training model determining method and device for map interest points and electronic equipment
CN112784778B (en) * 2021-01-28 2024-04-09 北京百度网讯科技有限公司 Method, apparatus, device and medium for generating model and identifying age and sex
CN112766288B (en) * 2021-03-03 2024-01-23 重庆赛迪奇智人工智能科技有限公司 Image processing model construction method, device, electronic equipment and readable storage medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021064342A (en) 2019-10-15 2021-04-22 北京小米智能科技有限公司Beijing Xiaomi Intelligent Technology Co.,Ltd. Method, device, and recording medium for retrieving neural network structure model
JP2021081793A (en) 2019-11-14 2021-05-27 キヤノン株式会社 Information processing device, control method and program for information processing device

Also Published As

Publication number Publication date
JP2022160590A (en) 2022-10-19
KR20220116395A (en) 2022-08-23
CN113705628B (en) 2024-02-06
CN113705628A (en) 2021-11-26
US20220374678A1 (en) 2022-11-24

Similar Documents

Publication Publication Date Title
JP7414907B2 (en) Pre-trained model determination method, determination device, electronic equipment, and storage medium
JP7331975B2 (en) Cross-modal search model training methods, apparatus, equipment, and storage media
KR20220113881A (en) Method and apparatus for generating pre-trained model, electronic device and storage medium
CA3004885A1 (en) Asynchronous deep reinforcement learning
JP2023531132A (en) Methods, apparatus, electronics, storage media and computer programs for training video recognition models
CN112466288A (en) Voice recognition method and device, electronic equipment and storage medium
US20200175404A1 (en) Machine learning based user interface controller
JP7297038B2 (en) Neural network model pre-training method, device, electronic device and medium
CN112784778A (en) Method, apparatus, device and medium for generating model and identifying age and gender
CN114424215A (en) Multitasking adapter neural network
CN113963110B (en) Texture map generation method and device, electronic equipment and storage medium
JP2022050622A (en) Field phrase mining method, device, and electronic equipment
CN112966744A (en) Model training method, image processing method, device and electronic equipment
JP2023025126A (en) Training method and apparatus for deep learning model, text data processing method and apparatus, electronic device, storage medium, and computer program
KR20220078538A (en) Liveness detection model training method, apparatus, electronic device, and storage medium
CN112949433B (en) Method, device and equipment for generating video classification model and storage medium
CN114186681A (en) Method, apparatus and computer program product for generating model clusters
JP7446359B2 (en) Traffic data prediction method, traffic data prediction device, electronic equipment, storage medium, computer program product and computer program
JP7314330B2 (en) Training method, apparatus, equipment and storage medium for power grid system dispatching model
CN113361621B (en) Method and device for training model
CN115081630A (en) Training method of multi-task model, information recommendation method, device and equipment
CN113657468A (en) Pre-training model generation method and device, electronic equipment and storage medium
CN114220163A (en) Human body posture estimation method and device, electronic equipment and storage medium
CN113657466A (en) Pre-training model generation method and device, electronic equipment and storage medium
CN113961765A (en) Searching method, device, equipment and medium based on neural network model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231228

R150 Certificate of patent or registration of utility model

Ref document number: 7414907

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150