JP7266674B2 - Image classification model training method, image processing method and apparatus - Google Patents

Image classification model training method, image processing method and apparatus Download PDF

Info

Publication number
JP7266674B2
JP7266674B2 JP2021522979A JP2021522979A JP7266674B2 JP 7266674 B2 JP7266674 B2 JP 7266674B2 JP 2021522979 A JP2021522979 A JP 2021522979A JP 2021522979 A JP2021522979 A JP 2021522979A JP 7266674 B2 JP7266674 B2 JP 7266674B2
Authority
JP
Japan
Prior art keywords
category
labeled sample
image
data
labeled
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021522979A
Other languages
Japanese (ja)
Other versions
JP2022512065A (en
Inventor
ジンルー タン
チャンバオ ワン
チュエンチュエン リー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Sensetime Technology Co Ltd
Original Assignee
Shenzhen Sensetime Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Sensetime Technology Co Ltd filed Critical Shenzhen Sensetime Technology Co Ltd
Publication of JP2022512065A publication Critical patent/JP2022512065A/en
Application granted granted Critical
Publication of JP7266674B2 publication Critical patent/JP7266674B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

(関連出願の相互参照)
本願は、2019年11月11日に中国特許局に提出された、出願番号がCN201911097069.Xであり、発明名称が「画像分類モデルの訓練方法、画像処理方法及び装置」である中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
(Cross reference to related applications)
This application is filed with the Patent Office of China on Nov. 11, 2019, with application number CN201911097069. X and entitled "Method for Training Image Classification Model, Image Processing Method and Apparatus", the entire content of which is incorporated herein by reference.

本願は、データ処理技術分野に関し、具体的には、画像分類モデルの訓練方法、画像処理方法及び装置に関する。 TECHNICAL FIELD The present application relates to the field of data processing technology, and in particular to an image classification model training method, image processing method and apparatus.

ニューラルネットワークモデルに基づいて分類タスクを実行する前に、まず、ニューラルネットワークモデルを訓練する必要がある。ニューラルネットワークモデルを訓練する時、ニューラルネットワークモデルの分類精度を向上させるために、一般的には、大量のラベル付きサンプルに依存する必要がある。 Before performing a classification task based on a neural network model, we first need to train the neural network model. When training neural network models, we generally need to rely on a large number of labeled samples to improve the classification accuracy of the neural network model.

サンプルにラベルを付ける過程において、異なるカテゴリに対応するポジティプサンプルの数が不均一であることがある。 In the process of labeling samples, the number of positive samples corresponding to different categories may be uneven.

本願の実施例は、画像分類モデルの訓練方法、画像処理方法及び装置を少なくとも提供する。 Embodiments of the present application provide at least an image classification model training method, image processing method and apparatus.

第1態様によれば、本願の実施例は、画像分類モデルの訓練方法を提供する。該方法は、ラベル付きサンプル画像集合を取得することであって、前記ラベル付きサンプル画像集合に複数のラベル付きサンプル画像及び各ラベル付きサンプル画像にそれぞれ対応する分類ラベルが含まれる、ことと、前記ラベル付きサンプル画像及び各前記ラベル付きサンプル画像にそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリにそれぞれ対応する頻度情報を決定することと、前記複数のラベル付きサンプル画像にそれぞれ対応する分類ラベル及び各カテゴリにそれぞれ対応する前記頻度情報に基づいて、画像分類モデルの損失情報を決定することと、前記損失情報に基づいて、前記画像分類モデルを訓練することであって、前記画像分類モデルは、認識されるべき画像のカテゴリを決定するためのものである、ことと、を含む。 According to a first aspect, embodiments of the present application provide a method for training an image classification model. The method is obtaining a set of labeled sample images, wherein the set of labeled sample images includes a plurality of labeled sample images and a classification label respectively corresponding to each labeled sample image; determining frequency information respectively corresponding to each of a plurality of predetermined categories based on the labeled sample images and classification labels respectively corresponding to each of the labeled sample images; and the plurality of labeled sample images. determining loss information for an image classification model based on the classification labels respectively corresponding to and the frequency information respectively corresponding to each category; and training the image classification model based on the loss information. , wherein the image classification model is for determining categories of images to be recognized.

ここで、分類モデルを訓練する時、ラベル付きサンプル画像及び各ラベル付きサンプル画像にそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリにそれぞれ対応する頻度情報を決定する。続いて、複数のラベル付きサンプル画像にそれぞれ対応する分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、分類モデルの損失情報を決定し、該損失情報に基づいて分類モデルを訓練する。該過程において、各カテゴリにそれぞれ対応する頻度情報及び各サンプル画像にそれぞれ対応する分類ラベルに基づいて損失情報を決定するため、各カテゴリの頻度情報に基づいて、画像分類モデルの訓練過程において画像分類モデルに及ぼす特定のカテゴリのポジティブサンプル及びネガティブサンプルの影響の程度を調整でき、これにより、各カテゴリに及ぼすポジティブサンプル及びネガティブサンプルの影響のバランスを取り、更に、ポジティブサンプルが少ないカテゴリに対する、分類モデルの認識精度を向上させることができる。 Here, when training the classification model, based on the labeled sample images and the classification labels respectively corresponding to each labeled sample image, frequency information corresponding to each of the plurality of predetermined categories is determined. Then, based on the classification labels respectively corresponding to the plurality of labeled sample images and the frequency information respectively corresponding to each category, loss information of the classification model is determined, and the classification model is trained based on the loss information. In the process, image classification is performed in the training process of an image classification model based on the frequency information of each category to determine the loss information according to the frequency information corresponding to each category and the classification label respectively corresponding to each sample image. You can adjust the degree of influence of positive and negative samples for a particular category on the model, which balances the influence of positive and negative samples on each category, and further refines the classification model for categories with few positive samples. can improve the recognition accuracy of

選択可能な実施形態において、前記ラベル付きサンプル画像及び各前記ラベル付きサンプル画像にそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリに対応する頻度情報を決定することは、各カテゴリに対して、該カテゴリに属するラベル付きサンプル画像及び各ラベル付きサンプル画像に対応する元サンプル画像に基づいて、該カテゴリに対応する元サンプル画像の数を決定することであって、各元サンプル画像は、1つ又は複数のラベル付きサンプル画像に対応する、ことと、前記元サンプル画像の数に基づいて、該カテゴリに対応する頻度情報を決定することと、を含む。ここで、このような方式で頻度情報を決定し、ポジティブサンプルが少ないカテゴリを背景カテゴリと判定することを避ける。 In an optional embodiment, determining frequency information corresponding to each of a predetermined plurality of categories based on the labeled sample images and classification labels respectively corresponding to each of the labeled sample images comprises: for each category, based on the labeled sample images belonging to the category and the original sample images corresponding to each labeled sample image, determining the number of original sample images corresponding to the category; sample images corresponding to one or more labeled sample images; and determining frequency information corresponding to the category based on the number of original sample images. Here, frequency information is determined by such a method to avoid determining a category with few positive samples as a background category.

選択可能な実施形態において、前記ラベル付きサンプル画像及び各前記ラベル付きサンプル画像にそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリに対応する頻度情報を決定することは、各カテゴリに対して、前記ラベル付きサンプル画像集合におけるラベル付きサンプル画像の総数及び該カテゴリに属するラベル付きサンプル画像の数に基づいて、該カテゴリに対応する頻度情報を決定すること、又は、該カテゴリに属するラベル付きサンプル画像の数を該カテゴリに対応する頻度情報とすること、を含む。ここで、ラベル付きサンプル画像の数に基づいて、カテゴリに対応する頻度情報を決定し、プロセスがより簡単で迅速である。 In an optional embodiment, determining frequency information corresponding to each of a predetermined plurality of categories based on the labeled sample images and classification labels respectively corresponding to each of the labeled sample images comprises: Determining, for each category, frequency information corresponding to the category based on the total number of labeled sample images in the labeled sample image set and the number of labeled sample images belonging to the category, or as frequency information corresponding to the category. Here, based on the number of labeled sample images, determine the frequency information corresponding to the category, the process is simpler and faster.

選択可能な実施形態において、前記複数のラベル付きサンプル画像にそれぞれ対応する分類ラベル及び各カテゴリにそれぞれ対応する前記頻度情報に基づいて、分類モデルの損失情報を決定することは、各ラベル付きサンプル画像に対して、該ラベル付きサンプル画像の分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、分類モデルを用いて該ラベル付きサンプル画像に対して分類を行う場合の損失情報を得ることを含む。ここで、各ラベル付きサンプル画像に対して損失情報を決定する。各ラベル付きサンプル画像に基づいて画像分類モデルのパラメータを調整することを実現させ、最終的に画像分類モデルの訓練を実現させる。 In an optional embodiment, determining loss information for a classification model based on the classification labels respectively corresponding to the plurality of labeled sample images and the frequency information respectively corresponding to each category includes: , obtaining loss information when classifying the labeled sample images using a classification model based on the classification labels of the labeled sample images and frequency information corresponding to each category, respectively . Now, the loss information is determined for each labeled sample image. It realizes adjusting the parameters of the image classification model based on each labeled sample image, and finally realizes the training of the image classification model.

選択可能な実施形態において、該ラベル付きサンプル画像の分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、分類モデルを用いて該ラベル付きサンプル画像に対して分類を行う場合の損失情報を得ることは、該ラベル付きサンプル画像の分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することと、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みに基づいて、前記分類モデルを用いて該ラベル付きサンプル画像に対して分類を行う場合の損失情報を得ることと、を含む。ここで、分類ラベル及び頻度情報に基づいて、損失情報を決定し、ポジティブサンプルが少ないカテゴリに対する、画像分類モデルの認識精度を向上させる。 In an optional embodiment, obtaining loss information when classifying the labeled sample images using a classification model based on the classification labels of the labeled sample images and frequency information respectively corresponding to each category. Determining a loss weight corresponding to each of a plurality of predetermined categories for the labeled sample image based on the classification label of the labeled sample image and frequency information corresponding to each category. and obtaining loss information when classifying the labeled sample image using the classification model based on a loss weight corresponding to each category of a plurality of predetermined categories. include. Here, based on the classification label and frequency information, loss information is determined to improve the recognition accuracy of the image classification model for categories with few positive samples.

選択可能な実施形態において、該ラベル付きサンプル画像の分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することは、いずれか1つのカテゴリに対して、該ラベル付きサンプル画像の分類ラベルが、該ラベル付きサンプル画像が非背景のラベル付きサンプル画像であることを示し、且つ該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値未満であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第1所定の損失重み値として決定することを含む。ここで、画像分類モデルの訓練過程において、画像分類モデルに及ぼす特定のカテゴリのポジティブサンプル及びネガティブサンプルの影響の程度を調整でき、これにより、ポジティブサンプルが少ないカテゴリに対する、分類モデルの検出精度を向上させる。 In an optional embodiment, for the labeled sample images, based on the classification labels of the labeled sample images and frequency information respectively corresponding to each category, Determining a loss weight includes, for any one category, the classification label of the labeled sample image indicating that the labeled sample image is a non-background labeled sample image; Determining a loss weight corresponding to the one category as a first predetermined loss weight value if it is determined that the frequency information corresponding to the one category is less than a predetermined frequency threshold. Here, during the training process of the image classification model, the degree of influence of the positive and negative samples of a specific category on the image classification model can be adjusted, thereby improving the detection accuracy of the classification model for categories with few positive samples. Let

選択可能な実施形態において、該ラベル付きサンプル画像の分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することは、いずれか1つのカテゴリに対して、該ラベル付きサンプル画像の分類ラベルが、該ラベル付きサンプル画像が背景のラベル付きサンプル画像であることを示し、及び/又は、該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値以上であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第2所定の損失重み値として決定することを含む。ここで、画像分類モデルの訓練過程において、画像分類モデルに及ぼす特定のカテゴリのポジティブサンプル及びネガティブサンプルの影響の程度を調整でき、これにより、ポジティブサンプルが少ないカテゴリに対する、分類モデルの検出精度を向上させる。 In an optional embodiment, for the labeled sample images, based on the classification labels of the labeled sample images and frequency information respectively corresponding to each category, Determining a loss weight includes, for any one category, the classification label of the labeled sample image indicating that the labeled sample image is a background labeled sample image, and/or Determining a loss weight corresponding to the one category as a second predetermined loss weight value if it is determined that frequency information corresponding to the one category is greater than or equal to a predetermined frequency threshold. Here, during the training process of the image classification model, the degree of influence of the positive and negative samples of a specific category on the image classification model can be adjusted, thereby improving the detection accuracy of the classification model for categories with few positive samples. Let

選択可能な実施形態において、該ラベル付きサンプル画像の分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することは、該ラベル付きサンプル画像の分類ラベル、各カテゴリにそれぞれ対応する頻度情報、該ラベル付きサンプル画像に対応する元サンプル画像のポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することを含む。 In an optional embodiment, for the labeled sample images, based on the classification labels of the labeled sample images and frequency information respectively corresponding to each category, Determining a loss weight is based on classification labels of the labeled sample images, frequency information respectively corresponding to each category, positive sample category sets and negative sample category sets of original sample images corresponding to the labeled sample images. , determining a loss weight corresponding to each category of a predetermined plurality of categories for the labeled sample image.

ここで、前記ポジティブサンプルカテゴリ集合に、該元サンプル画像に含まれる少なくとも1つのターゲット対象のカテゴリが含まれ、前記ネガティブサンプルカテゴリ集合に、該元サンプル画像に含まれない少なくとも1つのターゲット対象のカテゴリが含まれる。ここで、いずれか1つのカテゴリが該ラベル付きサンプル画像に対応するポジティブサンプル集合及びネガティブサンプルカテゴリ集合に属するかどうかを決定する。属すれば、該カテゴリに及ぼすラベル付きサンプル画像の影響を低下させるか又は無視することがなく、更に、画像分類モデルに、該いずれか1つのカテゴリのより多くの特徴及び差動的特徴を学習させることができ、画像分類モデルの精度を向上させる。 wherein the positive sample category set includes at least one target target category included in the original sample image, and the negative sample category set includes at least one target target category not included in the original sample image is included. Now, it is determined whether any one category belongs to the positive sample set and the negative sample category set corresponding to the labeled sample image. Doing so does not reduce or ignore the impact of labeled sample images on that category, and also allows the image classification model to learn more and differential features of any one category. and improve the accuracy of the image classification model.

選択可能な実施形態において、前記ラベル付きサンプル画像集合から、該ラベル付きサンプル画像と同一の元サンプル画像に対応するターゲットラベル付きサンプル画像を決定し、該ラベル付きサンプル画像及び前記ターゲットラベル付きサンプル画像にそれぞれ対応する分類ラベルに基づいて、該ラベル付きサンプル画像に対応する元サンプル画像のポジティブサンプルカテゴリ集合を決定する方式、又は、該ラベル付きサンプル画像に対応する元サンプル画像の第1補助分類ラベルに基づいて、該ラベル付きサンプル画像に対応する元サンプル画像のポジティブサンプルカテゴリ集合を決定する方式であって、前記第1補助分類ラベルは、前記元サンプル画像に含まれるターゲット対象のカテゴリを示すためのものである、方式を用いて、該ラベル付きサンプル画像に対応する元サンプル画像のポジティブサンプルカテゴリ集合を取得する。ここで、各ラベル付きサンプル画像に対応するポジティブサンプルカテゴリ集合を容易かつ迅速に決定する。 In an optional embodiment, determining from the set of labeled sample images a target labeled sample image corresponding to the same original sample image as the labeled sample image, and combining the labeled sample image and the target labeled sample image. a method for determining a positive sample category set of the original sample image corresponding to the labeled sample image based on the classification labels respectively corresponding to for determining a positive sample category set of an original sample image corresponding to the labeled sample image based on: Obtain the positive sample category set of the original sample image corresponding to the labeled sample image by using the method of . We now easily and quickly determine the positive sample category set corresponding to each labeled sample image.

選択可能な実施形態において、該ラベル付きサンプル画像に対応する元サンプル画像の第2補助分類ラベルに基づいて、該ラベル付きサンプル画像に対応する元サンプル画像のネガティブサンプルカテゴリ集合を決定する方式を用いて、該ラベル付きサンプル画像に対応する元サンプル画像のネガティブサンプルカテゴリ集合を取得し、前記第2補助分類ラベルは、前記元サンプル画像に含まれないターゲット対象のカテゴリを示すためのものである。ここで、各ラベル付きサンプル画像に対応するネガティブサンプルカテゴリ集合を容易かつ迅速に決定する。 In an optional embodiment, using a scheme for determining a negative sample category set of an original sample image corresponding to the labeled sample image based on a second auxiliary classification label of the original sample image corresponding to the labeled sample image. to obtain a negative sample category set of the original sample image corresponding to the labeled sample image, wherein the second sub-classification label is for indicating the target object category not included in the original sample image. We now easily and quickly determine the negative sample category set corresponding to each labeled sample image.

選択可能な実施形態において、該ラベル付きサンプル画像の分類ラベル、各カテゴリにそれぞれ対応する頻度情報、該ラベル付きサンプル画像に対応する元サンプル画像のポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することは、いずれか1つのカテゴリに対して、該ラベル付きサンプル画像の分類ラベルが、該ラベル付きサンプル画像が非背景のラベル付きサンプル画像であることを示し、該いずれか1つのカテゴリが前記ポジティブサンプルカテゴリ集合及び前記ネガティブサンプルカテゴリ集合に属せず、該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値未満であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第1所定の損失重み値として決定することを含む。 In an optional embodiment, based on the classification labels of the labeled sample images, frequency information respectively corresponding to each category, positive sample category sets and negative sample category sets of original sample images corresponding to the labeled sample images, Determining, for the labeled sample image, a loss weight corresponding to each category of a plurality of predetermined categories includes, for any one category, the classification label of the labeled sample image being the indicating that the labeled sample image is a non-background labeled sample image, the one category does not belong to the positive sample category set and the negative sample category set, and corresponds to the one category Determining a loss weight corresponding to the one of the categories as a first predetermined loss weight value if the frequency information is determined to be less than a predetermined frequency threshold.

選択可能な実施形態において、該ラベル付きサンプル画像の分類ラベル、各カテゴリにそれぞれ対応する頻度情報、該ラベル付きサンプル画像に対応する元サンプル画像のポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することは、いずれか1つのカテゴリに対して、該ラベル付きサンプル画像の分類ラベルが、該ラベル付きサンプル画像が背景のラベル付きサンプル画像であることを示し、及び/又は、該いずれか1つのカテゴリが前記ポジティブサンプルカテゴリ集合又は前記ネガティブサンプルカテゴリ集合に属し、及び/又は、該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値以上であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第2所定の損失重み値として決定することを含む。ここで、いずれか1つのカテゴリが該ラベル付きサンプル画像に対応するポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に属するかどうかを決定する。属すれば、該カテゴリに及ぼすラベル付きサンプル画像の影響を低下させるか又は無視することがなく、更に、画像分類モデルに、該いずれか1つのカテゴリのより多くの特徴及び差動的特徴を学習させることができ、画像分類モデルの精度を向上させる。 In an optional embodiment, based on the classification labels of the labeled sample images, frequency information respectively corresponding to each category, positive sample category sets and negative sample category sets of original sample images corresponding to the labeled sample images, Determining, for the labeled sample image, a loss weight corresponding to each category of a plurality of predetermined categories includes, for any one category, the classification label of the labeled sample image being the indicating that the labeled sample images are background labeled sample images; and/or the one category belongs to the positive sample category set or the negative sample category set; and/or any one determining a loss weight corresponding to the one category as a second predetermined loss weight value if it is determined that the frequency information corresponding to the one category is greater than or equal to a predetermined frequency threshold. Now, it is determined whether any one category belongs to the positive sample category set and the negative sample category set corresponding to the labeled sample image. Doing so does not reduce or ignore the impact of labeled sample images on that category, and also allows the image classification model to learn more and differential features of any one category. and improve the accuracy of the image classification model.

第2態様によれば、本願の実施例は、画像処理方法を提供する。該方法は、事前訓練された画像分類モデルに基づいて、画像処理タスクを実行することを含み、前記画像分類モデルは、上記第1態様のいずれか一項に記載の画像分類モデルの訓練方法で訓練されたものであり、前記画像処理タスクは、画像分類、対象検出、キーポイント検出、画像セグメンテーション、インスタンスセグメンテーションのうちの1つ又は複数を含む。 According to a second aspect, embodiments of the present application provide an image processing method. The method comprises performing an image processing task based on a pre-trained image classification model, said image classification model being a method of training an image classification model according to any one of the first aspects above. trained, the image processing task includes one or more of image classification, object detection, keypoint detection, image segmentation, instance segmentation.

第3態様によれば、本願の実施例は、データ分類モデルの訓練方法を提供する。該方法は、ラベル付きサンプルデータ集合を取得することであって、前記ラベル付きサンプルデータ集合に複数のラベル付きサンプルデータ及び各ラベル付きサンプル画像にそれぞれ対応する分類ラベルが含まれる、ことと、前記ラベル付きサンプルデータ及び各前記ラベル付きサンプルデータにそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリにそれぞれ対応する頻度情報を決定することと、前記複数のラベル付きサンプルデータにそれぞれ対応する分類ラベル及び各カテゴリにそれぞれ対応する前記頻度情報に基づいて、データ分類モデルの損失情報を決定することと、前記損失情報に基づいて、前記データ分類モデルを訓練することであって、前記データ分類モデルは、認識されるべきデータのカテゴリを決定するためのものである、ことと、を含む。 According to a third aspect, embodiments of the present application provide a method for training a data classification model. The method is obtaining a labeled sample data set, wherein the labeled sample data set includes a plurality of labeled sample data and a classification label respectively corresponding to each labeled sample image; determining frequency information respectively corresponding to each of a plurality of predetermined categories based on labeled sample data and classification labels respectively corresponding to each of the labeled sample data; determining loss information for a data classification model based on the classification labels respectively corresponding to and the frequency information respectively corresponding to each category; and training the data classification model based on the loss information. , wherein the data classification model is for determining categories of data to be recognized.

選択可能な実施形態において、前記ラベル付きサンプルデータ及び各前記ラベル付きサンプルデータにそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリに対応する頻度情報を決定することは、各カテゴリに対して、該カテゴリに属するラベル付きサンプルデータ及び各ラベル付きサンプルデータに対応する元サンプルデータに基づいて、該カテゴリに対応する元サンプルデータの数を決定することであって、各元サンプルデータは、1つ又は複数のラベル付きサンプルデータに対応する、ことと、前記元サンプルデータの数に基づいて、該カテゴリに対応する頻度情報を決定することと、を含む。 In an optional embodiment, determining frequency information corresponding to each of a predetermined plurality of categories based on the labeled sample data and classification labels respectively corresponding to each of the labeled sample data comprises: For each category, based on the labeled sample data belonging to the category and the original sample data corresponding to each labeled sample data, determining the number of original sample data corresponding to the category, sample data corresponding to one or more labeled sample data; and determining frequency information corresponding to the category based on the number of original sample data.

選択可能な実施形態において、前記ラベル付きサンプルデータ及び各前記ラベル付きサンプルデータにそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリに対応する頻度情報を決定することは、各カテゴリに対して、前記ラベル付きサンプルデータ集合におけるラベル付きサンプルデータの総数及び該カテゴリに属するラベル付きサンプルデータの数に基づいて、該カテゴリに対応する頻度情報を決定すること、又は、該カテゴリに属するラベル付きサンプルデータの数を該カテゴリに対応する頻度情報とすること、を含む。 In an optional embodiment, determining frequency information corresponding to each of a predetermined plurality of categories based on the labeled sample data and classification labels respectively corresponding to each of the labeled sample data comprises: Determining, for each category, frequency information corresponding to the category based on the total number of labeled sample data in the labeled sample data set and the number of labeled sample data belonging to the category, or as frequency information corresponding to the category.

選択可能な実施形態において、前記複数のラベル付きサンプルデータにそれぞれ対応する分類ラベル及び各カテゴリにそれぞれ対応する前記頻度情報に基づいて、分類モデルの損失情報を決定することは、各ラベル付きサンプルデータに対して、該ラベル付きサンプルデータの分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、分類モデルを用いて該ラベル付きサンプルデータに対して分類を行う場合の損失情報を得ることを含む。 In an optional embodiment, determining loss information for a classification model based on the classification labels respectively corresponding to the plurality of labeled sample data and the frequency information respectively corresponding to each category comprises: , obtaining loss information when classifying the labeled sample data using a classification model based on the classification label of the labeled sample data and the frequency information corresponding to each category, respectively .

選択可能な実施形態において、該ラベル付きサンプルデータの分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、分類モデルを用いて該ラベル付きサンプルデータに対して分類を行う場合の損失情報を得ることは、該ラベル付きサンプルデータの分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、該ラベル付きサンプルデータに対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することと、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みに基づいて、前記分類モデルを用いて該ラベル付きサンプルデータに対して分類を行う場合の損失情報を得ることと、を含む。 In an optional embodiment, obtaining loss information when classifying the labeled sample data using a classification model based on the classification labels of the labeled sample data and frequency information corresponding to each category, respectively. Determining a loss weight corresponding to each of a plurality of predetermined categories for the labeled sample data based on the classification label of the labeled sample data and frequency information corresponding to each category. and obtaining loss information when classifying the labeled sample data using the classification model based on a loss weight corresponding to each category of a plurality of predetermined categories. include.

選択可能な実施形態において、該ラベル付きサンプルデータの分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、該ラベル付きサンプルデータに対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することは、いずれか1つのカテゴリに対して、該ラベル付きサンプルデータの分類ラベルが、該ラベル付きサンプルデータが非背景のラベル付きサンプルデータであることを示し、且つ該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値未満であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第1所定の損失重み値として決定することを含む。 In an optional embodiment, for the labeled sample data, based on the classification label of the labeled sample data and the frequency information corresponding to each category, Determining a loss weight includes, for any one category, the classification label of the labeled sample data indicating that the labeled sample data is non-background labeled sample data; Determining a loss weight corresponding to the one category as a first predetermined loss weight value if it is determined that the frequency information corresponding to the one category is less than a predetermined frequency threshold.

選択可能な実施形態において、該ラベル付きサンプルデータの分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、該ラベル付きサンプルデータに対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することは、いずれか1つのカテゴリに対して、該ラベル付きサンプルデータの分類ラベルが、該ラベル付きサンプルデータが背景のラベル付きサンプル画像であることを示し、及び/又は、該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値以上であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第2所定の損失重み値として決定することを含む。 In an optional embodiment, for the labeled sample data, based on the classification label of the labeled sample data and the frequency information corresponding to each category, Determining a loss weight includes, for any one category, the classification label of the labeled sample data indicating that the labeled sample data is a background labeled sample image; Determining a loss weight corresponding to the one category as a second predetermined loss weight value if it is determined that frequency information corresponding to the one category is greater than or equal to a predetermined frequency threshold.

選択可能な実施形態において、該ラベル付きサンプルデータの分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、該ラベル付きサンプルデータに対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することは、該ラベル付きサンプルデータの分類ラベル、各カテゴリにそれぞれ対応する頻度情報、該ラベル付きサンプルデータに対応する元サンプルデータのポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に基づいて、該ラベル付きサンプルデータに対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することを含む。 In an optional embodiment, for the labeled sample data, based on the classification label of the labeled sample data and the frequency information corresponding to each category, Determining a loss weight is based on classification labels of the labeled sample data, frequency information respectively corresponding to each category, positive sample category sets and negative sample category sets of original sample data corresponding to the labeled sample data. , determining a loss weight corresponding to each of a predetermined plurality of categories for the labeled sample data.

ここで、前記ポジティブサンプルカテゴリ集合に、該元サンプルデータに含まれる少なくとも1つのターゲット対象のカテゴリが含まれ、前記ネガティブサンプルカテゴリ集合に、該元サンプルデータに含まれない少なくとも1つのターゲット対象のカテゴリが含まれる。 wherein the positive sample category set includes at least one target category included in the original sample data, and the negative sample category set includes at least one target category not included in the original sample data is included.

選択可能な実施形態において、前記ラベル付きサンプルデータ集合から、該ラベル付きサンプルデータと同一の元サンプルデータに対応するターゲットラベル付きサンプルデータを決定し、該ラベル付きサンプルデータ及び前記ターゲットラベル付きサンプルデータにそれぞれ対応する分類ラベルに基づいて、該ラベル付きサンプルデータに対応する元サンプルデータのポジティブサンプルカテゴリ集合を決定する方式、又は、該ラベル付きサンプルデータに対応する元サンプルデータの第1補助分類ラベルに基づいて、該ラベル付きサンプルデータに対応する元サンプルデータのポジティブサンプルカテゴリ集合を決定する方式であって、前記第1補助分類ラベルは、前記元サンプルデータに含まれるターゲット対象のカテゴリを示すためのものである、方式を用いて、該ラベル付きサンプルデータに対応する元サンプルデータのポジティブサンプルカテゴリ集合を取得する。 In an optional embodiment, determining target labeled sample data corresponding to the same original sample data as the labeled sample data from the set of labeled sample data, and determining the labeled sample data and the target labeled sample data. A method for determining a positive sample category set of the original sample data corresponding to the labeled sample data based on the classification labels corresponding to each, or a first auxiliary classification label of the original sample data corresponding to the labeled sample data a positive sample category set of the original sample data corresponding to the labeled sample data based on: is used to obtain the positive sample category set of the original sample data corresponding to the labeled sample data.

選択可能な実施形態において、該ラベル付きサンプルデータに対応する元サンプルデータの第2補助分類ラベルに基づいて、該ラベル付きサンプルデータに対応する元サンプルデータのネガティブサンプルカテゴリ集合を決定する方式を用いて、該ラベル付きサンプルデータに対応する元サンプルデータのネガティブサンプルカテゴリ集合を取得し、前記第2補助分類ラベルは、前記元サンプルデータに含まれないターゲット対象のカテゴリを示すためのものである。 In an optional embodiment, using a method of determining a negative sample category set of original sample data corresponding to the labeled sample data based on a second auxiliary classification label of the original sample data corresponding to the labeled sample data. to obtain a negative sample category set of the original sample data corresponding to the labeled sample data, and the second sub-classification label is for indicating the category of the target object that is not included in the original sample data.

選択可能な実施形態において、該ラベル付きサンプルデータの分類ラベル、各カテゴリにそれぞれ対応する頻度情報、該ラベル付きサンプルデータに対応する元サンプルデータのポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に基づいて、該ラベル付きサンプルデータに対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することは、いずれか1つのカテゴリに対して、該ラベル付きサンプルデータの分類ラベルが、該ラベル付きサンプルデータが非背景のラベル付きサンプルデータであることを示し、該いずれか1つのカテゴリが前記ポジティブサンプルカテゴリ集合及び前記ネガティブサンプルカテゴリ集合に属せず、該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値未満であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第1所定の損失重み値として決定することを含む。 In an optional embodiment, based on the classification label of the labeled sample data, the frequency information corresponding to each category, the positive sample category set and the negative sample category set of the original sample data corresponding to the labeled sample data, Determining a loss weight corresponding to each category of a plurality of predetermined categories for the labeled sample data includes determining, for any one category, the classification label of the labeled sample data as the Indicates that the labeled sample data is non-background labeled sample data, the one category does not belong to the positive sample category set and the negative sample category set, and corresponds to the one category Determining a loss weight corresponding to the one of the categories as a first predetermined loss weight value if the frequency information is determined to be less than a predetermined frequency threshold.

選択可能な実施形態において、該ラベル付きサンプルデータの分類ラベル、各カテゴリにそれぞれ対応する頻度情報、該ラベル付きサンプルデータに対応する元サンプルデータのポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に基づいて、該ラベル付きサンプルデータに対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することは、いずれか1つのカテゴリに対して、該ラベル付きサンプルデータの分類ラベルが、該ラベル付きサンプルデータが背景のラベル付きサンプルデータであることを示し、及び/又は、該いずれか1つのカテゴリが前記ポジティブサンプルカテゴリ集合又は前記ネガティブサンプルカテゴリ集合に属し、及び/又は、該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値以上であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第2所定の損失重み値として決定することを含む。 In an optional embodiment, based on the classification label of the labeled sample data, the frequency information corresponding to each category, the positive sample category set and the negative sample category set of the original sample data corresponding to the labeled sample data, Determining a loss weight corresponding to each category of a plurality of predetermined categories for the labeled sample data includes determining, for any one category, the classification label of the labeled sample data as the indicates that the labeled sample data is background labeled sample data, and/or any one category belongs to the positive sample category set or the negative sample category set, and/or any one determining a loss weight corresponding to the one category as a second predetermined loss weight value if it is determined that the frequency information corresponding to the one category is greater than or equal to a predetermined frequency threshold.

第4態様によれば、本願の実施例は、データ処理方法を提供する。該方法は、事前訓練されたデータ分類モデルに基づいて、データ処理タスクを実行することを含み、前記データ分類モデルは、上記第2態様のいずれか一項に記載のデータ分類モデルの訓練方法で訓練されたものであり、前記データ処理タスクは、データ分類、データセグメンテーション、インスタンスセグメンテーションのうちの1つ又は複数を含み、前記データは、画像データ及びテキストデータのうちのいずれか1つを含む。 According to a fourth aspect, embodiments of the present application provide a data processing method. The method comprises performing a data processing task based on a pre-trained data classification model, said data classification model being a method of training a data classification model according to any one of the second aspects above. trained, the data processing task includes one or more of data classification, data segmentation, instance segmentation, and the data includes any one of image data and text data.

第5態様によれば、本願の実施例は、画像分類モデル訓練装置を提供する。該装置は、ラベル付きサンプル画像集合を取得するように構成される第1取得モジュールであって、前記ラベル付きサンプル画像集合に複数のラベル付きサンプル画像及び各ラベル付きサンプル画像にそれぞれ対応する分類ラベルが含まれる、第1取得モジュールと、前記ラベル付きサンプル画像及び各前記ラベル付きサンプル画像にそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリにそれぞれ対応する頻度情報を決定するように構成される第1頻度情報決定モジュールと、前記複数のラベル付きサンプル画像にそれぞれ対応する分類ラベル及び各カテゴリにそれぞれ対応する前記頻度情報に基づいて、画像分類モデルの損失情報を決定するように構成される第1損失情報決定モジュールと、前記損失情報に基づいて、前記画像分類モデルを訓練するように構成される第1訓練モジュールであって、前記画像分類モデルは、認識されるべき画像のカテゴリを決定するためのものである、第1訓練モジュールと、を備える。 According to a fifth aspect, embodiments of the present application provide an image classification model training apparatus. The apparatus includes a first acquisition module configured to acquire a set of labeled sample images, wherein the set of labeled sample images includes a plurality of labeled sample images and a classification label respectively corresponding to each labeled sample image. and determining frequency information respectively corresponding to each category of a predetermined plurality of categories based on the labeled sample images and classification labels respectively corresponding to each labeled sample image. and determining loss information of an image classification model based on the classification labels respectively corresponding to the plurality of labeled sample images and the frequency information respectively corresponding to each category. and a first training module configured to train the image classification model based on the loss information, wherein the image classification model is to be recognized a first training module for determining categories of images.

選択可能な実施形態において、前記第1頻度情報決定モジュールは、前記ラベル付きサンプル画像及び各前記ラベル付きサンプル画像にそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリに対応する頻度情報を決定する場合、各カテゴリに対して、該カテゴリに属するラベル付きサンプル画像及び各ラベル付きサンプル画像に対応する元サンプル画像に基づいて、該カテゴリに対応する元サンプル画像の数を決定することであって、各元サンプル画像は、1つ又は複数のラベル付きサンプル画像に対応する、ことと、前記元サンプル画像の数に基づいて、該カテゴリに対応する頻度情報を決定することと、を実行するように構成される。 In an optional embodiment, the first frequency information determination module corresponds to each of a predetermined plurality of categories based on the labeled sample images and classification labels respectively corresponding to each of the labeled sample images. When determining the frequency information for each category, determine the number of original sample images corresponding to the category based on the labeled sample images belonging to the category and the original sample images corresponding to each labeled sample image wherein each original sample image corresponds to one or more labeled sample images; and determining frequency information corresponding to the category based on the number of the original sample images. , is configured to run

選択可能な実施形態において、前記第1頻度情報決定モジュールは、前記ラベル付きサンプル画像及び各前記ラベル付きサンプル画像にそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリに対応する頻度情報を決定する場合、各カテゴリに対して、前記ラベル付きサンプル画像集合におけるラベル付きサンプル画像の総数及び該カテゴリに属するラベル付きサンプル画像の数に基づいて、該カテゴリに対応する頻度情報を決定し、又は、該カテゴリに属するラベル付きサンプル画像の数を該カテゴリに対応する頻度情報とするように構成される。 In an optional embodiment, the first frequency information determination module corresponds to each of a predetermined plurality of categories based on the labeled sample images and classification labels respectively corresponding to each of the labeled sample images. frequency information corresponding to each category based on the total number of labeled sample images in the labeled sample image set and the number of labeled sample images belonging to the category; Alternatively, the number of labeled sample images belonging to the category is used as frequency information corresponding to the category.

選択可能な実施形態において、前記第1損失情報決定モジュールは、前記複数のラベル付きサンプル画像にそれぞれ対応する分類ラベル及び各カテゴリにそれぞれ対応する前記頻度情報に基づいて、分類モデルの損失情報を決定する場合、各ラベル付きサンプル画像に対して、該ラベル付きサンプル画像の分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、分類モデルを用いて該ラベル付きサンプル画像に対して分類を行う場合の損失情報を得るように構成される。 In an optional embodiment, the first loss information determination module determines loss information for a classification model based on the classification labels respectively corresponding to the plurality of labeled sample images and the frequency information respectively corresponding to each category. When classifying each labeled sample image using a classification model based on the frequency information corresponding to the classification label of the labeled sample image and each category, respectively is configured to obtain loss information for

選択可能な実施形態において、前記第1損失情報決定モジュールは、該ラベル付きサンプル画像の分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、分類モデルを用いて該ラベル付きサンプル画像に対して分類を行うときの損失情報を得る場合、該ラベル付きサンプル画像の分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定し、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みに基づいて、前記分類モデルを用いて該ラベル付きサンプル画像に対して分類を行う場合の損失情報を得るように構成される。 In an optional embodiment, the first loss information determination module uses a classification model for the labeled sample images based on the classification labels of the labeled sample images and frequency information respectively corresponding to each category. When obtaining loss information when performing classification, based on the classification label of the labeled sample image and the frequency information corresponding to each category, for the labeled sample image, each of a plurality of predetermined categories Loss information when a loss weight corresponding to a category is determined, and the labeled sample image is classified using the classification model based on the loss weight corresponding to each category of a plurality of predetermined categories. is configured to obtain

選択可能な実施形態において、前記第1損失情報決定モジュールは、該ラベル付きサンプル画像の分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定する場合、いずれか1つのカテゴリに対して、該ラベル付きサンプル画像の分類ラベルが、該ラベル付きサンプル画像が非背景のラベル付きサンプル画像であることを示し、且つ該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値未満であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第1所定の損失重み値として決定するように構成される。 In an optional embodiment, the first loss information determination module performs a plurality of predetermined loss information determination on the labeled sample images based on the classification labels of the labeled sample images and frequency information respectively corresponding to each category. When determining the loss weight corresponding to each of the categories, for any one category the classification label of the labeled sample image is the labeled sample image with no background and determining that the frequency information corresponding to the one category is less than the predetermined frequency threshold, then determining the loss weight corresponding to the one category as a first predetermined loss weight value. configured to

選択可能な実施形態において、前記第1損失情報決定モジュールは、該ラベル付きサンプル画像の分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定する場合、該ラベル付きサンプル画像の分類ラベルが、該ラベル付きサンプル画像が背景のラベル付きサンプル画像であることを示し、及び/又は、該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値以上であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第2所定の損失重み値として決定するように構成される。 In an optional embodiment, the first loss information determination module performs a plurality of predetermined loss information determination on the labeled sample images based on the classification labels of the labeled sample images and frequency information respectively corresponding to each category. When determining the loss weight corresponding to each of the categories, the classification label of the labeled sample image indicates that the labeled sample image is a background labeled sample image, and/or any or determining that the frequency information corresponding to one category is equal to or greater than a predetermined frequency threshold, the loss weight corresponding to the one category is determined as a second predetermined loss weight value.

選択可能な実施形態において、前記第1損失情報決定モジュールは、該ラベル付きサンプル画像の分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定する場合、該ラベル付きサンプル画像の分類ラベル、各カテゴリにそれぞれ対応する頻度情報、該ラベル付きサンプル画像に対応する元サンプル画像のポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定するように構成される。 In an optional embodiment, the first loss information determination module performs a plurality of predetermined loss information determination on the labeled sample images based on the classification labels of the labeled sample images and frequency information respectively corresponding to each category. When determining the loss weight corresponding to each category of categories, the classification label of the labeled sample image, the frequency information corresponding to each category, and the positive sample category set of the original sample image corresponding to the labeled sample image. and a loss weight corresponding to each category of a predetermined plurality of categories for the labeled sample image based on the set of negative sample categories.

ここで、前記ポジティブサンプルカテゴリ集合に、該元サンプル画像に含まれる少なくとも1つのターゲット対象のカテゴリが含まれ、前記ネガティブサンプルカテゴリ集合に、該元サンプル画像に含まれない少なくとも1つのターゲット対象のカテゴリが含まれる。 wherein the positive sample category set includes at least one target target category included in the original sample image, and the negative sample category set includes at least one target target category not included in the original sample image is included.

選択可能な実施形態において、前記第1損失情報決定モジュールは、前記ラベル付きサンプル画像集合から、該ラベル付きサンプル画像と同一の元サンプル画像に対応するターゲットラベル付きサンプル画像を決定し、該ラベル付きサンプル画像及び前記ターゲットラベル付きサンプル画像にそれぞれ対応する分類ラベルに基づいて、該ラベル付きサンプル画像に対応する元サンプル画像のポジティブサンプルカテゴリ集合を決定する方式、又は、該ラベル付きサンプル画像に対応する元サンプル画像の第1補助分類ラベルに基づいて、該ラベル付きサンプル画像に対応する元サンプル画像のポジティブサンプルカテゴリ集合を決定する方式であって、前記第1補助分類ラベルは、前記元サンプル画像に含まれるターゲット対象のカテゴリを示すためのものである、方式を用いて、該ラベル付きサンプル画像に対応する元サンプル画像のポジティブサンプルカテゴリ集合を取得するように構成される。 In an optional embodiment, the first loss information determination module determines from the set of labeled sample images a target labeled sample image corresponding to the same original sample image as the labeled sample image; A method for determining a positive sample category set of an original sample image corresponding to the labeled sample image or corresponding to the labeled sample image, based on the classification labels respectively corresponding to the sample image and the target labeled sample image; A method for determining a positive sample category set of an original sample image corresponding to the labeled sample image based on a first auxiliary classification label of the original sample image, wherein the first auxiliary classification label is associated with the original sample image. It is configured to obtain a positive sample category set of original sample images corresponding to the labeled sample images using a scheme that is for indicating the category of the target object included.

選択可能な実施形態において、前記第1損失情報決定モジュールは、該ラベル付きサンプル画像に対応する元サンプル画像の第2補助分類ラベルに基づいて、該ラベル付きサンプル画像に対応する元サンプル画像のネガティブサンプルカテゴリ集合を決定する方式を用いて、該ラベル付きサンプル画像に対応する元サンプル画像のネガティブサンプルカテゴリ集合を取得するように構成され、前記第2補助分類ラベルは、前記元サンプル画像に含まれないターゲット対象のカテゴリを示すためのものである。 In an optional embodiment, the first loss information determination module determines the negative of the original sample image corresponding to the labeled sample image based on a second auxiliary classification label of the original sample image corresponding to the labeled sample image. obtaining a negative sample category set of an original sample image corresponding to the labeled sample image, using a method for determining a sample category set, wherein the second auxiliary classification label is included in the original sample image; It is intended to indicate a category of targets that are not targeted.

選択可能な実施形態において、前記第1損失情報決定モジュールは、該ラベル付きサンプル画像の分類ラベル、各カテゴリにそれぞれ対応する頻度情報、該ラベル付きサンプル画像に対応する元サンプル画像のポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定する場合、
いずれか1つのカテゴリに対して、該ラベル付きサンプル画像の分類ラベルが、該ラベル付きサンプル画像が非背景のラベル付きサンプル画像であることを示し、該いずれか1つのカテゴリが前記ポジティブサンプルカテゴリ集合及び前記ネガティブサンプルカテゴリ集合に属せず、該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値未満であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第1所定の損失重み値として決定するように構成される。
In an optional embodiment, the first loss information determination module includes classification labels of the labeled sample images, frequency information respectively corresponding to each category, and a positive sample category set of original sample images corresponding to the labeled sample images. and determining a loss weight corresponding to each of a predetermined plurality of categories for the labeled sample image based on the set of negative sample categories;
For any one category, the classification label of the labeled sample image indicates that the labeled sample image is a non-background labeled sample image, and the any one category is the positive sample category set and when it is determined that the frequency information corresponding to any one category does not belong to the negative sample category set and is less than a predetermined frequency threshold, a loss weight corresponding to the one category is set to a first predetermined is configured to be determined as the loss weight value of

選択可能な実施形態において、前記第1損失情報決定モジュールは、該ラベル付きサンプル画像の分類ラベル、各カテゴリにそれぞれ対応する頻度情報、該ラベル付きサンプル画像に対応する元サンプル画像のポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定する場合、いずれか1つのカテゴリに対して、該ラベル付きサンプル画像の分類ラベルが、該ラベル付きサンプル画像が背景のラベル付きサンプル画像であることを示し、及び/又は、該いずれか1つのカテゴリが前記ポジティブサンプルカテゴリ集合又は前記ネガティブサンプルカテゴリ集合に属し、及び/又は、該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値以上であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第2所定の損失重み値として決定するように構成される。 In an optional embodiment, the first loss information determination module includes classification labels of the labeled sample images, frequency information respectively corresponding to each category, and a positive sample category set of original sample images corresponding to the labeled sample images. and based on the negative sample category set, for the labeled sample image, when determining the loss weight corresponding to each category of a plurality of predetermined categories, for any one category, the labeled the classification label of the sample image indicates that the labeled sample image is a background labeled sample image, and/or the any one category belongs to the positive sample category set or the negative sample category set; and/or determining the loss weight corresponding to the one category as a second predetermined loss weight value when it is determined that the frequency information corresponding to the one category is greater than or equal to a predetermined frequency threshold. configured as

第6態様によれば、本願は、画像処理装置を提供する。該装置は、事前訓練された画像分類モデルに基づいて、画像処理タスクを実行するように構成される第1処理モジュールを備え、前記画像分類モデルは、上記第1態様のいずれか一項に記載の画像分類モデルの訓練方法で訓練されたものであり、前記画像処理タスクは、画像分類、対象検出、キーポイント検出、画像セグメンテーション、インスタンスセグメンテーションのうちの1つ又は複数を含む。 According to a sixth aspect, the present application provides an image processing apparatus. The apparatus comprises a first processing module configured to perform an image processing task based on a pretrained image classification model, the image classification model according to any one of the first aspects above. wherein the image processing task includes one or more of image classification, object detection, keypoint detection, image segmentation, instance segmentation.

第7態様によれば、本願の実施例は、データ分類モデル訓練装置を提供する。該装置は、ラベル付きサンプルデータ集合を取得するように構成される第2取得モジュールであって、前記ラベル付きサンプルデータ集合に複数のラベル付きサンプルデータ及び各ラベル付きサンプル画像にそれぞれ対応する分類ラベルが含まれる、第2取得モジュールと、前記ラベル付きサンプルデータ及び各前記ラベル付きサンプルデータにそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリにそれぞれ対応する頻度情報を決定するように構成される第2頻度情報決定モジュールと、前記複数のラベル付きサンプルデータにそれぞれ対応する分類ラベル及び各カテゴリにそれぞれ対応する前記頻度情報に基づいて、データ分類モデルの損失情報を決定するように構成される第2損失情報決定モジュールと、前記損失情報に基づいて、前記データ分類モデルを訓練するように構成される第2訓練モジュールであって、前記データ分類モデルは、認識されるべきデータのカテゴリを決定するためのものである、第2訓練モジュールと、を備える。 According to a seventh aspect, embodiments of the present application provide a data classification model training apparatus. The apparatus includes a second acquisition module configured to acquire a labeled sample data set, wherein the labeled sample data set includes a plurality of labeled sample data and a classification label respectively corresponding to each labeled sample image. and determining frequency information respectively corresponding to each category of a predetermined plurality of categories based on the labeled sample data and classification labels respectively corresponding to each of the labeled sample data. and determining loss information of a data classification model based on the classification labels respectively corresponding to the plurality of labeled sample data and the frequency information respectively corresponding to each category. and a second training module configured to train the data classification model based on the loss information, wherein the data classification model is to be recognized a second training module for determining categories of data.

選択可能な実施形態において、前記第2頻度情報決定モジュールは、前記ラベル付きサンプルデータ及び各前記ラベル付きサンプルデータにそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリに対応する頻度情報を決定する場合、各カテゴリに対して、該カテゴリに属するラベル付きサンプルデータ及び各ラベル付きサンプルデータに対応する元サンプルデータに基づいて、該カテゴリに対応する元サンプルデータの数を決定することであって、各元サンプルデータは、1つ又は複数のラベル付きサンプルデータに対応する、ことと、前記元サンプルデータの数に基づいて、該カテゴリに対応する頻度情報を決定することと、を実行するように構成される。 In an optional embodiment, the second frequency information determination module corresponds to each of a predetermined plurality of categories based on the labeled sample data and classification labels respectively corresponding to each of the labeled sample data. When determining frequency information for each category, determine the number of original sample data corresponding to the category based on the labeled sample data belonging to the category and the original sample data corresponding to each labeled sample data wherein each original sample data corresponds to one or more labeled sample data; and based on the number of the original sample data, determining frequency information corresponding to the category. , is configured to run

選択可能な実施形態において、前記第2頻度情報決定モジュールは、前記ラベル付きサンプルデータ及び各前記ラベル付きサンプルデータにそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリに対応する頻度情報を決定する場合、各カテゴリに対して、前記ラベル付きサンプルデータ集合におけるラベル付きサンプルデータの総数及び該カテゴリに属するラベル付きサンプルデータの数に基づいて、該カテゴリに対応する頻度情報を決定し、又は、該カテゴリに属するラベル付きサンプルデータの数を該カテゴリに対応する頻度情報とするように構成される。 In an optional embodiment, the second frequency information determination module corresponds to each of a predetermined plurality of categories based on the labeled sample data and classification labels respectively corresponding to each of the labeled sample data. When determining frequency information for each category, based on the total number of labeled sample data in the labeled sample data set and the number of labeled sample data belonging to the category, frequency information corresponding to the category is determined. Alternatively, the number of labeled sample data belonging to the category is used as frequency information corresponding to the category.

選択可能な実施形態において、前記第2損失情報決定モジュールは、前記複数のラベル付きサンプルデータにそれぞれ対応する分類ラベル及び各カテゴリにそれぞれ対応する前記頻度情報に基づいて、分類モデルの損失情報を決定する場合、各ラベル付きサンプルデータに対して、該ラベル付きサンプルデータの分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、分類モデルを用いて該ラベル付きサンプルデータに対して分類を行う場合の損失情報を得るように構成される。 In an optional embodiment, the second loss information determination module determines loss information for a classification model based on the classification labels respectively corresponding to the plurality of labeled sample data and the frequency information respectively corresponding to each category. In the case where each labeled sample data is classified using a classification model based on the frequency information corresponding to the classification label of the labeled sample data and each category. is configured to obtain loss information for

選択可能な実施形態において、前記第2損失情報決定モジュールは、該ラベル付きサンプルデータの分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、分類モデルを用いて該ラベル付きサンプルデータに対して分類を行うときの損失情報を得る場合、該ラベル付きサンプルデータの分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、該ラベル付きサンプルデータに対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定し、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みに基づいて、前記分類モデルを用いて該ラベル付きサンプルデータに対して分類を行う場合の損失情報を得るように構成される。 In an optional embodiment, the second loss information determination module uses a classification model for the labeled sample data based on the classification labels of the labeled sample data and frequency information respectively corresponding to each category. When obtaining loss information when performing classification, based on the classification label of the labeled sample data and the frequency information corresponding to each category, for the labeled sample data, each of a plurality of predetermined categories Loss information when a loss weight corresponding to a category is determined, and the labeled sample data is classified using the classification model based on the loss weight corresponding to each category of a plurality of predetermined categories. is configured to obtain

選択可能な実施形態において、前記第2損失情報決定モジュールは、該ラベル付きサンプルデータの分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、該ラベル付きサンプルデータに対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定する場合、いずれか1つのカテゴリに対して、該ラベル付きサンプルデータの分類ラベルが、該ラベル付きサンプルデータが非背景のラベル付きサンプルデータであることを示し、且つ該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値未満であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第1所定の損失重み値として決定するように構成される。 In an optional embodiment, the second loss information determination module performs a predetermined plurality of operations on the labeled sample data based on the classification label of the labeled sample data and frequency information respectively corresponding to each category. When determining the loss weight corresponding to each category of categories, for any one category the classification label of the labeled sample data is the non-background labeled sample data and determining that the frequency information corresponding to the one category is less than the predetermined frequency threshold, then determining the loss weight corresponding to the one category as a first predetermined loss weight value. configured to

選択可能な実施形態において、前記第2損失情報決定モジュールは、該ラベル付きサンプルデータの分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、該ラベル付きサンプルデータに対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定する場合、いずれか1つのカテゴリに対して、該ラベル付きサンプルデータの分類ラベルが、該ラベル付きサンプルデータが背景のラベル付きサンプル画像であることを示し、及び/又は、該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値以上であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第2所定の損失重み値として決定するように構成される。 In an optional embodiment, the second loss information determination module performs a predetermined plurality of operations on the labeled sample data based on the classification label of the labeled sample data and frequency information respectively corresponding to each category. When determining the loss weight corresponding to each of the categories, for any one category, the classification label of the labeled sample data is the labeled sample image of the background. and/or if it is determined that the frequency information corresponding to the one category is equal to or greater than a predetermined frequency threshold, the loss weight corresponding to the one category is set to a second predetermined loss weight value is configured to determine as

選択可能な実施形態において、前記第2損失情報決定モジュールは、該ラベル付きサンプルデータの分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、該ラベル付きサンプルデータに対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定する場合、該ラベル付きサンプルデータの分類ラベル、各カテゴリにそれぞれ対応する頻度情報、該ラベル付きサンプルデータに対応する元サンプルデータのポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に基づいて、該ラベル付きサンプルデータに対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定するように構成される。 In an optional embodiment, the second loss information determination module performs a predetermined plurality of operations on the labeled sample data based on the classification label of the labeled sample data and frequency information respectively corresponding to each category. When determining the loss weight corresponding to each category of the categories, the classification label of the labeled sample data, the frequency information corresponding to each category, and the positive sample category set of the original sample data corresponding to the labeled sample data and a loss weight corresponding to each category of a predetermined plurality of categories for the labeled sample data based on the set of negative sample categories.

ここで、前記ポジティブサンプルカテゴリ集合に、該元サンプルデータに含まれる少なくとも1つのターゲット対象のカテゴリが含まれ、前記ネガティブサンプルカテゴリ集合に、該元サンプルデータに含まれない少なくとも1つのターゲット対象のカテゴリが含まれる。 wherein the positive sample category set includes at least one target category included in the original sample data, and the negative sample category set includes at least one target category not included in the original sample data is included.

選択可能な実施形態において、前記第2損失情報決定モジュールは、前記ラベル付きサンプルデータ集合から、該ラベル付きサンプルデータと同一の元サンプルデータに対応するターゲットラベル付きサンプルデータを決定し、該ラベル付きサンプルデータ及び前記ターゲットラベル付きサンプルデータにそれぞれ対応する分類ラベルに基づいて、該ラベル付きサンプルデータに対応する元サンプルデータのポジティブサンプルカテゴリ集合を決定する方式、又は、該ラベル付きサンプルデータに対応する元サンプルデータの第1補助分類ラベルに基づいて、該ラベル付きサンプルデータに対応する元サンプルデータのポジティブサンプルカテゴリ集合を決定する方式であって、前記第1補助分類ラベルは、前記元サンプルデータに含まれるターゲット対象のカテゴリを示すためのものである、方式を用いて、該ラベル付きサンプルデータに対応する元サンプルデータのポジティブサンプルカテゴリ集合を取得するように構成される。 In an optional embodiment, the second loss information determination module determines target labeled sample data corresponding to the same original sample data as the labeled sample data from the labeled sample data set; A method for determining a positive sample category set of original sample data corresponding to the labeled sample data based on the classification labels respectively corresponding to the sample data and the target labeled sample data, or corresponding to the labeled sample data. A method for determining a positive sample category set of original sample data corresponding to the labeled sample data based on a first auxiliary classification label of the original sample data, wherein the first auxiliary classification label is associated with the original sample data It is configured to obtain a positive sample category set of original sample data corresponding to the labeled sample data using a scheme that is for indicating the category of the target subject included.

選択可能な実施形態において、前記第2損失情報決定モジュールは、該ラベル付きサンプルデータに対応する元サンプルデータの第2補助分類ラベルに基づいて、該ラベル付きサンプルデータに対応する元サンプルデータのネガティブサンプルカテゴリ集合を決定する方式を用いて、該ラベル付きサンプルデータに対応する元サンプルデータのネガティブサンプルカテゴリ集合を取得するように構成され、前記第2補助分類ラベルは、前記元サンプルデータに含まれないターゲット対象のカテゴリを示すためのものである。 In an optional embodiment, the second loss information determination module determines the negative of the original sample data corresponding to the labeled sample data based on a second auxiliary classification label of the original sample data corresponding to the labeled sample data. A method for determining a sample category set is configured to obtain a negative sample category set of original sample data corresponding to the labeled sample data, wherein the second auxiliary classification label is included in the original sample data. It is intended to indicate a category of targets that are not targeted.

選択可能な実施形態において、前記第2損失情報決定モジュールは、該ラベル付きサンプルデータの分類ラベル、各カテゴリにそれぞれ対応する頻度情報、該ラベル付きサンプルデータに対応する元サンプルデータのポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に基づいて、該ラベル付きサンプルデータに対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定する場合、いずれか1つのカテゴリに対して、該ラベル付きサンプルデータの分類ラベルが、該ラベル付きサンプルデータが非背景のラベル付きサンプルデータであることを示し、該いずれか1つのカテゴリが前記ポジティブサンプルカテゴリ集合及び前記ネガティブサンプルカテゴリ集合に属せず、該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値未満であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第1所定の損失重み値として決定するように構成される。 In an optional embodiment, the second loss information determination module includes a classification label of the labeled sample data, frequency information corresponding to each category, and a positive sample category set of original sample data corresponding to the labeled sample data. And when determining the loss weight corresponding to each category of a plurality of predetermined categories for the labeled sample data based on the negative sample category set, for any one category, the labeled the classification label of the sample data indicates that the labeled sample data is non-background labeled sample data, the one category does not belong to the positive sample category set and the negative sample category set, and the configured to determine a loss weight corresponding to the one category as a first predetermined loss weight value if it is determined that frequency information corresponding to the one category is less than a predetermined frequency threshold; .

選択可能な実施形態において、前記第2損失情報決定モジュールは、該ラベル付きサンプルデータの分類ラベル、各カテゴリにそれぞれ対応する頻度情報、該ラベル付きサンプルデータに対応する元サンプルデータのポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に基づいて、該ラベル付きサンプルデータに対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定する場合、いずれか1つのカテゴリに対して、該ラベル付きサンプルデータの分類ラベルが、該ラベル付きサンプルデータが背景のラベル付きサンプルデータであることを示し、及び/又は、該いずれか1つのカテゴリが前記ポジティブサンプルカテゴリ集合又は前記ネガティブサンプルカテゴリ集合に属し、及び/又は、該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値以上であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第2所定の損失重み値として決定するように構成される。 In an optional embodiment, the second loss information determination module includes a classification label of the labeled sample data, frequency information corresponding to each category, and a positive sample category set of original sample data corresponding to the labeled sample data. And when determining the loss weight corresponding to each category of a plurality of predetermined categories for the labeled sample data based on the negative sample category set, for any one category, the labeled the classification label of sample data indicates that the labeled sample data is background labeled sample data, and/or any one category belongs to the positive sample category set or the negative sample category set; and/or determining the loss weight corresponding to the one category as a second predetermined loss weight value when it is determined that the frequency information corresponding to the one category is greater than or equal to a predetermined frequency threshold. configured as

第8態様によれば、本願の実施例は、データ処理装置を提供する。該装置は、事前訓練されたデータ分類モデルに基づいて、データ処理タスクを実行するように構成される第2処理モジュールを備え、前記データ分類モデルは、上記第3態様のいずれか一項に記載のデータ分類モデルの訓練方法で訓練されたものであり、前記データ処理タスクは、データ分類、データセグメンテーション、インスタンスセグメンテーションのうちの1つ又は複数を含み、前記データは、画像データ及びテキストデータのうちのいずれか1つを含む。 According to an eighth aspect, embodiments of the present application provide a data processing apparatus. The apparatus comprises a second processing module configured to perform data processing tasks based on a pre-trained data classification model, said data classification model according to any one of the third aspects above. wherein the data processing task includes one or more of data classification, data segmentation, instance segmentation, and the data is image data and text data including any one of

第9態様によれば、本願の実施例は、コンピュータ機器を更に提供する。前記コンピュータ機器は、プロセッサと、メモリと、バスと、を備え、前記メモリに、前記プロセッサによる実行可能な機器可読命令が記憶されており、コンピュータ機器が運転される場合、前記プロセッサと前記メモリとは、バスを介して通信し、前記プロセッサが前記機器可読命令を実行して、上記第1態様又は第1態様におけるいずれか1つの可能な実施形態におけるステップを実行し、又は、上記第2態様又は第2態様におけるいずれか1つの可能な実施形態におけるステップを実行し、又は、上記第3態様又は第3態様におけるいずれか1つの可能な実施形態におけるステップを実行し、又は、上記第4態様又は第4態様におけるいずれか1つの可能な実施形態におけるステップを実行する。 According to a ninth aspect, embodiments of the present application further provide a computer apparatus. The computer device comprises a processor, a memory, and a bus, wherein the memory stores machine-readable instructions executable by the processor, and when the computer device is operated, the processor and the memory communicates over a bus, and the processor executes the machine-readable instructions to perform the steps in any one possible embodiment of the first aspect or the first aspect above, or or performing the steps of any one possible embodiment of the second aspect, or performing the steps of the third or any one possible embodiment of the third aspect above, or the fourth aspect above or performing the steps in any one possible embodiment of the fourth aspect.

第10態様によれば、本願の実施例は、コンピュータ可読記憶媒体を更に提供する。該コンピュータ可読記憶媒体に、コンピュータプログラムが記憶されており、該コンピュータプログラムがプロセッサにより実行される場合、前記プロセッサに、上記第1態様又は第1態様におけるいずれか1つの可能な実施形態におけるステップを実行させ、又は、上記第2態様又は第2態様におけるいずれか1つの可能な実施形態におけるステップを実行させ、又は、上記第3態様又は第3態様におけるいずれか1つの可能な実施形態におけるステップを実行させ、又は、上記第4態様又は第4態様におけるいずれか1つの可能な実施形態におけるステップを実行させる。 According to a tenth aspect, embodiments of the present application further provide a computer-readable storage medium. A computer program is stored on the computer-readable storage medium and, when the computer program is executed by a processor, instructs the processor to perform the steps in the first aspect or any one possible embodiment of the first aspect. or perform the steps of the second aspect or any one possible embodiment of the second aspect above; or perform the steps of the third aspect or any one possible embodiment of the third aspect above or cause the steps in the fourth aspect or any one possible embodiment of the fourth aspect to be performed.

第11態様によれば、本願の実施例は、コンピュータプログラムを更に提供する。該コンピュータプログラムはプロセッサにより実行される場合、前記プロセッサに、上記第1態様又は第1態様におけるいずれか1つの可能な実施形態におけるステップを実行させ、又は、上記第2態様又は第2態様におけるいずれか1つの可能な実施形態におけるステップを実行させ、又は、上記第3態様又は第3態様におけるいずれか1つの可能な実施形態におけるステップを実行させ、又は、上記第4態様又は第4態様におけるいずれか1つの可能な実施形態におけるステップを実行させる。 According to an eleventh aspect, embodiments of the present application further provide a computer program product. The computer program, when executed by a processor, causes the processor to perform the steps of the first aspect or any one possible embodiment of the first aspect above, or the steps of any one of the second aspect or the second aspect above. or any one of the possible embodiments in the third or third aspect above, or any one of the fourth or fourth aspects above. or causes the steps in one possible embodiment to be performed.

本願の上記目的、特徴及び利点を明確かつ分かりやすくするために、以下、好適な実施例を挙げて、添付図面を参照しながら、以下のように、詳しく説明する。 In order to make the above objects, features and advantages of the present application clear and comprehensible, preferred embodiments are described in detail below with reference to the accompanying drawings.

本願の実施例による画像分類モデルの訓練方法を示すフローチャートである。Figure 4 is a flow chart illustrating a method for training an image classification model according to embodiments of the present application; 本願の実施例による損失情報を取得するための具体的な方法を示すフローチャートである。4 is a flow chart illustrating a specific method for obtaining loss information according to an embodiment of the present application; 本願の実施例によるデータ分類モデルの訓練方法を示すフローチャートである。4 is a flowchart illustrating a method for training a data classification model according to embodiments of the present application; 本願の実施例による画像分類モデル訓練装置を示す概略図である。1 is a schematic diagram of an image classification model training device according to an embodiment of the present application; FIG. 本願の実施例によるデータ分類モデル訓練装置を示す概略図である。1 is a schematic diagram of a data classification model training device according to an embodiment of the present application; FIG. 本願の実施例によるコンピュータ機器を示す概略図である。1 is a schematic diagram of a computing device according to an embodiment of the present application; FIG. 本願の実施例によるもう1つのコンピュータ機器を示す概略図である。FIG. 3 is a schematic diagram of another computing device according to embodiments of the present application;

本願の実施例の技術的解決手段をより明確に説明するために、以下、実施例に必要な図面を簡単に説明する。ここで添付した図面は、明細書に引き入れて本明細書の一部を構成し、本願に適合する実施例を示し、かつ、明細書とともに本願の技術的解決手段を解釈することに用いられる。下記図面は、説明のみの目的で本願の幾つかの実施形態を図示しており、本願を制限するものではないことが理解されるべきである。当業者は、創造的労働を行うことなく、これらの図面に基づいてその他の関連する図面を得ることもできる。 In order to describe the technical solutions in the embodiments of the present application more clearly, the drawings required in the embodiments are briefly described below. The drawings attached hereto are taken into the specification and constitute a part of the specification, show the embodiments compatible with the application, and are used to interpret the technical solution of the application together with the specification. It should be understood that the following drawings depict several embodiments of the present application for purposes of illustration only and are not limiting of the present application. Those skilled in the art can also derive other related drawings based on these drawings without creative effort.

本願の実施例の目的、技術的解決手段及び利点をより明確にするために、以下、本願の実施例における図面を参照しながら、本願の実施例における技術的解決手段を明瞭かつ完全に説明する。勿論、記述される実施例は、全ての実施例ではなく、ただ本出願の一部の実施例である。一般的には、図面に説明されて示されている本願の実施例のユニットは、多岐にわたる異なる構成で配置及び設計することができる。従って、図面を参照しながら提供される本願の実施例の下記詳細な説明は、特許請求されている本願の範囲を限定するものではなく、本願の実施例を示すためのものに過ぎない。本願の実施例に基づいて、当業者が創造的な労力なしに得られる他の実施例の全ては、本願の保護の範囲に含まれる。 In order to make the objectives, technical solutions and advantages of the embodiments of the present application clearer, the following clearly and completely describes the technical solutions in the embodiments of the present application with reference to the drawings in the embodiments of the present application. . Of course, the described embodiments are only some embodiments of the present application rather than all embodiments. Generally, the units of the embodiments of the present application illustrated and shown in the drawings can be arranged and designed in a wide variety of different configurations. Accordingly, the following detailed description of embodiments of the present application provided with reference to the drawings is not intended to limit the scope of the claimed application, but is merely illustrative of embodiments of the present application. Based on the embodiments of the present application, all other embodiments obtained by persons skilled in the art without creative efforts fall within the scope of protection of the present application.

検討によれば、マルチカテゴリニューラルネットワークモデルを訓練する過程において、いずれか1つのカテゴリにとって、他のカテゴリのポジティブサンプルは、該いずれか1つのカテゴリのネガティブサンプルを構成し、該いずれか1つのカテゴリのポジティブサンプルの数が少ないと、該いずれか1つのカテゴリにとって、ポジティブサンプルとネガティブサンプルとのバランスが崩れ、ネガティブサンプルは、該いずれか1つのカテゴリに著しい影響を及ぼし、マルチカテゴリニューラルネットワークモデルが該いずれかカテゴリのターゲット対象を認識する時の認識精度が低いことを招くことが判明した。 According to the study, in the process of training a multi-category neural network model, for any one category, the positive samples of the other categories constitute the negative samples of the any one category, and the positive samples of the any one category If the number of positive samples is small, for any one category, the balance between positive and negative samples is lost, negative samples have a significant impact on any one category, and the multi-category neural network model is It has been found that this leads to low recognition accuracy when recognizing target objects in either category.

上記検討によれば、本願は、画像分類モデルの訓練方法を提供する。分類モデルを訓練する時、ラベル付きサンプル画像及び各ラベル付きサンプル画像にそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリにそれぞれ対応する頻度情報を決定する。続いて、複数のラベル付きサンプル画像にそれぞれ対応する分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、分類モデルの損失情報を決定し、該損失情報に基づいて分類モデルを訓練する。該過程において、各カテゴリにそれぞれ対応する頻度情報及び各サンプル画像にそれぞれ対応する分類ラベルに基づいて損失情報を決定するため、各カテゴリの頻度情報に基づいて、画像分類モデルの訓練過程において画像分類モデルに及ぼす特定のカテゴリのポジティブサンプル及びネガティブサンプルの影響の程度を調整でき、これにより、各カテゴリに及ぼすポジティブサンプル及びネガティブサンプルの影響のバランスを取り、更に、ポジティブサンプルが少ないカテゴリに対する、分類モデルの認識精度を向上させることができる。 According to the above discussion, the present application provides a method for training an image classification model. When training the classification model, based on the labeled sample images and the classification labels respectively corresponding to each labeled sample image, frequency information respectively corresponding to each of the predetermined plurality of categories is determined. Then, based on the classification labels respectively corresponding to the plurality of labeled sample images and the frequency information respectively corresponding to each category, loss information of the classification model is determined, and the classification model is trained based on the loss information. In the process, image classification is performed in the training process of an image classification model based on the frequency information of each category to determine the loss information according to the frequency information corresponding to each category and the classification label respectively corresponding to each sample image. You can adjust the degree of influence of positive and negative samples for a particular category on the model, which balances the influence of positive and negative samples on each category, and further refines the classification model for categories with few positive samples. can improve the recognition accuracy of

上記技術的解決手段に存在する欠陥はいずれも、発明者らが実践及び鋭意検討した後に得られた結果である。従って、上記問題点の発見過程及び下記記述における本願が上記問題点に対して提出する解決手段は、いずれも発明者らが開示中に本願に与える寄与であるはずである。 Any deficiencies existing in the above technical solutions are the results obtained by the inventors after practice and diligent study. Therefore, both the discovery process of the above problem and the solution proposed by the present application to the above problem in the following description should be the contribution that the inventors make to the present application in their disclosure.

以下、本願の実施例における図面を参照しながら、本願の実施例における技術的解決手段を明瞭かつ完全に説明する。勿論、記述される実施例は、全ての実施例ではなく、ただ本出願の一部の実施例である。一般的には、図面に説明されて示されている本願の実施例のユニットは、多岐にわたる異なる構成で配置及び設計することができる。従って、図面を参照しながら提供される本願の実施例の下記詳細な説明は、特許請求されている本願の範囲を限定するものではなく、本願の実施例を示すためのものに過ぎない。本願の実施例に基づいて、当業者が創造的な労力なしに得られる他の実施例の全ては、本願の保護の範囲に含まれる。 The following clearly and completely describes the technical solutions in the embodiments of the present application with reference to the drawings in the embodiments of the present application. Of course, the described embodiments are only some embodiments of the present application rather than all embodiments. Generally, the units of the embodiments of the present application illustrated and shown in the drawings can be arranged and designed in a wide variety of different configurations. Accordingly, the following detailed description of embodiments of the present application provided with reference to the drawings is not intended to limit the scope of the claimed application, but is merely illustrative of embodiments of the present application. Based on the embodiments of the present application, all other embodiments obtained by persons skilled in the art without creative efforts fall within the scope of protection of the present application.

下記図面において、類似した符号及び文字は、類似した要素を表すため、1つの要素が1つの図面において定義されていると、後続の図面において、これに対して定義及び説明を行う必要がないことに留意されたい。 In the following drawings, similar symbols and letters represent similar elements, so that once an element is defined in one drawing, it need not be defined and explained in subsequent drawings. Please note.

本実施例を理解しやすくするために、まず、本願の実施例が開示する画像分類モデルの訓練方法を詳しく説明する。本願の実施例で提供される分類モデルの訓練方法の実行主体は、一般的には、一定のコンピューティング能力を持つコンピュータ機器である。該コンピュータ機器は、例えば、端末機器、サーバ又は他の処理機器を含む。端末機器は、ユーザ機器(User Equipment:UE)、携帯機器、ユーザ端末、端末、セルラー電話、コードレス電話機、パーソナルデジタルアシスタント(Personal Digital Assistant:PDA)、ハンドヘルド機器、コンピューティング機器、車載機器、ウェアラブル機器などであってもよい。幾つかの可能な実現形態において、該分類モデル訓練方法は、プロセッサによりメモリに記憶されたコンピュータ可読命令を呼び出すことで実現してもよい。 In order to facilitate understanding of this embodiment, first, the training method of the image classification model disclosed in the embodiment of the present application will be described in detail. The execution body of the classification model training method provided in the embodiments of the present application is generally a computer device with a certain computing power. Such computer equipment includes, for example, terminal equipment, servers or other processing equipment. Terminal Equipment includes User Equipment (UE), Mobile Equipment, User Terminal, Terminal, Cellular Telephone, Cordless Telephone, Personal Digital Assistant (PDA), Handheld Equipment, Computing Equipment, Vehicle Equipment, Wearable Equipment. and so on. In some possible implementations, the classification model training method may be implemented by a processor invoking computer readable instructions stored in memory.

実施例1
本願の実施例による画像分類モデルの訓練を示すフローチャートである図1に示すように、該方法は、ステップS101~S104を含み、ここで、
S101において、ラベル付きサンプル画像集合を取得し、ラベル付きサンプル画像集合に複数のラベル付きサンプル画像及び各ラベル付きサンプル画像にそれぞれ対応する分類ラベルが含まれる。
Example 1
As shown in FIG. 1, which is a flowchart illustrating training an image classification model according to an embodiment of the present application, the method includes steps S101-S104, wherein:
At S101, a labeled sample image set is obtained, and the labeled sample image set includes a plurality of labeled sample images and a classification label corresponding to each labeled sample image respectively.

S102において、ラベル付きサンプル画像及び各ラベル付きサンプル画像にそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリにそれぞれ対応する頻度情報を決定する。 In S102, based on the labeled sample images and the classification labels respectively corresponding to the respective labeled sample images, frequency information corresponding to each of the plurality of predetermined categories is determined.

S103において、複数のラベル付きサンプル画像にそれぞれ対応する分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、画像分類モデルの損失情報を決定する。 In S103, the loss information of the image classification model is determined based on the classification labels respectively corresponding to the plurality of labeled sample images and the frequency information corresponding to each category.

S104において、損失情報に基づいて、画像分類モデルを訓練し、画像分類モデルは、認識されるべき画像のカテゴリを決定するためのものである。 At S104, based on the loss information, an image classification model is trained, the image classification model is for determining categories of images to be recognized.

以下、上記S101~S104に対してそれぞれ詳しく説明する。 Each of S101 to S104 will be described in detail below.

I:上記S101において、ラベル付きサンプル画像集合に複数のラベル付きサンプル画像が含まれる。異なるラベル付きサンプル画像は、異なる元サンプル画像に対してラベルを付けて生成することができ、同一の元サンプル画像に対してラベルを付けて生成することもできる。各ラベル付きサンプル画像に、少なくとも1つのラベル付けされたターゲット対象及び該ターゲット対象に対応するタグが含まれる。ここで、ターゲット対象は、画像分類モデルが認識できる複数の対象のうちのいずれか1つであり、ターゲット対象に対応するタグは、該ターゲット対象が属するカテゴリである。 I: In S101 above, a plurality of labeled sample images are included in the labeled sample image set. Different labeled sample images can be generated by labeling different original sample images, or can be generated by labeling the same original sample image. Each labeled sample image includes at least one labeled target object and tags corresponding to the target object. Here, the target object is any one of multiple objects that can be recognized by the image classification model, and the tag corresponding to the target object is the category to which the target object belongs.

例えば、1枚の元サンプル画像に、ターゲット対象Aが含まれるだけでなく、ターゲット対象Bも含まれる。従って、該元サンプル画像にラベルを付ける場合、該元サンプル画像における、該ターゲット対象Aの位置をラベル付けし、分類ラベル「ターゲット対象A」を追加し、ラベル付きサンプル画像を形成することができ、該該元サンプル画像における、該ターゲット対象Bの位置をラベル付けし、分類ラベル「ターゲット対象B」を追加し、もう1つのラベル付きサンプル画像を形成することもできる。 For example, one original sample image includes not only the target object A but also the target object B. Therefore, when labeling the original sample image, the position of the target object A in the original sample image can be labeled and a classification label "target object A" added to form a labeled sample image. , the position of the target object B in the original sample image can also be labeled and a classification label “target object B” added to form another labeled sample image.

なお、1枚の元サンプル画像に複数の同じターゲット対象が含まれると、各ターゲット対象に対して、いずれも1つのラベル付きサンプル画像を形成することができる。例えば、1枚の元サンプル画像に3つのターゲット対象Aが含まれると、該元サンプル画像にラベルを付ける場合、1番目のターゲット対象Aに対して、該元サンプル画像における、1番目のターゲット対象Aの位置をラベル付けし、分類ラベル「ターゲット対象A」を追加し、2番目のターゲット対象Aに対して、該元サンプル画像における、2番目のターゲット対象Aの位置をラベル付けし、分類ラベル「ターゲット対象A」を追加し、3番目のターゲット対象Aに対して、該元サンプル画像における、3番目のターゲット対象Aの位置をラベル付けし、分類ラベル「ターゲット対象A」を追加する。 Note that if one original sample image contains multiple identical target objects, one labeled sample image can be formed for each target object. For example, if one original sample image contains three target objects A, when labeling the original sample image, for the first target object A, the first target object in the original sample image A, add the classification label "target object A"; for the second target object A, label the position of the second target object A in the original sample image; Add "target object A", for the third target object A, label the position of the third target object A in the original sample image, and add the classification label "target object A".

なお、1枚の元サンプル画像に複数の同じターゲット対象が含まれる時、全ての同じターゲット対象に対して複数のラベル付きサンプル画像を形成することもできる。 It should be noted that when multiple identical target objects are included in one original sample image, multiple labeled sample images can also be formed for all of the same target objects.

例えば、1枚の元サンプル画像に3つのターゲット対象Aが含まれると、該元サンプル画像にラベルを付ける場合、3つのターゲット対象Aに対して、該元サンプル画像における、3つのターゲット対象Aの位置をラベル付けし、タグ「ターゲット対象A」を追加する。 For example, when three target targets A are included in one original sample image, when labeling the original sample image, for three target targets A, three target targets A in the original sample image Label the location and add the tag "Target Subject A".

具体的なラベル付き方式は、分類の目的によって決まってもよい。例えば、分類の目的がインスタンスセグメンテーションであると、異なるターゲット対象に対して、異なるラベル付きサンプル画像を形成する。例えば、分類の目的が、どの画像に特定の対象があるかを認識することであると、全ての同じターゲット対象に対して、1つのラベル付きサンプル画像を形成することができる。 A specific labeling scheme may depend on the purpose of classification. For example, if the purpose of classification is instance segmentation, different labeled sample images are formed for different target objects. For example, if the purpose of classification is to recognize which images have a particular object, one labeled sample image can be formed for all the same target objects.

画像分類モデルを訓練する前に、まず、画像分類モデルが認識できる対象のカテゴリを決定し、続いて、決定された、画像分類モデルが認識できる対象のカテゴリに基づいて、ラベル付きサンプル画像集合を決定する。 Before training an image classification model, first determine the categories of objects that the image classification model can recognize, and then, based on the determined categories of objects that the image classification model can recognize, create a set of labeled sample images. decide.

ラベル付きサンプル画像集合に、各カテゴリにそれぞれ対応するラベル付きサンプル画像が含まれ、つまり、いずれか1つのカテゴリに対して、該カテゴリに該当するポジティブサンプルが含まれる。 The labeled sample image set includes labeled sample images corresponding to each category, that is, for any one category, positive samples corresponding to the category are included.

いずれか1つのカテゴリに対して、他のカテゴリに対応するラベル付きサンプル画像はいずれも該いずれか1つのカテゴリのネガティブサンプルを構成する。 For any one category, any labeled sample image corresponding to another category constitutes a negative sample of that one category.

なお、ラベル付きサンプル画像集合に、全てのカテゴリにとっていずれもネガティブサンプルである複数のラベル付きサンプル画像が更に含まれてもよい。 Note that the labeled sample image set may further include a plurality of labeled sample images that are all negative samples for all categories.

例えば、1枚の元画像にラベルを付ける場合、元サンプル画像における、いずれか1つのカテゴリに属しない対象の位置をラベル付けし、分類ラベル「カテゴリ無し」又は「背景」を追加する。 For example, when labeling one original image, the positions of objects in the original sample image that do not belong to any one category are labeled, and the classification label "no category" or "background" is added.

もう1つの実施例において、分類ラベルは、数字の形態で表されてもよい。例えば、画像分類モデルが認識できる対象のカテゴリが30種であると、1~30で30種のカテゴリをそれぞれ表し、0を、全てのカテゴリにとっていずれもネガティブサンプルであるラベル付きサンプル画像の分類ラベルとして用いる。 In another example, the classification labels may be represented in numerical form. For example, if there are 30 target categories that can be recognized by the image classification model, 1 to 30 represent the 30 categories, and 0 is the classification label for labeled sample images that are negative samples for all categories. used as

II:上記S102において、いずれか1つのカテゴリに対応する頻度情報は、例えば、
該いずれか1つのカテゴリに対応するラベル付きサンプル画像の数、該いずれか1つのカテゴリに対応するラベル付きサンプル画像がラベル付きサンプル画像集合に占める割合、該いずれか1つのカテゴリに対応するラベル付きサンプル画像の元サンプル画像の数、該いずれか1つのカテゴリに対応するラベル付きサンプル画像の元サンプル画像の数が全てのラベル付きサンプル画像の元サンプル画像の数に占める割合のうちのいずれか1つであってもよい。
II: In S102 above, the frequency information corresponding to any one category is, for example,
The number of labeled sample images corresponding to any one category, the ratio of labeled sample images corresponding to any one category to a set of labeled sample images, and the labeled sample images corresponding to any one category any one of the number of original sample images of sample images, and the ratio of the number of original sample images of labeled sample images corresponding to any one category to the number of original sample images of all labeled sample images can be one.

更に、下記方式(1)、(2)、(3)のうちのいずれか1つを用いて複数のカテゴリのうちの各カテゴリに対応する頻度情報を決定することができるが、これらに限定されない。 Furthermore, any one of the following methods (1), (2), and (3) can be used to determine frequency information corresponding to each category of a plurality of categories, but is not limited to these. .

(1)各カテゴリに対して、該カテゴリに属するラベル付きサンプル画像及び各ラベル付きサンプル画像に対応する元サンプル画像に基づいて、該カテゴリに対応する元サンプル画像の数を決定し、各元サンプル画像は、1つ又は複数のラベル付きサンプル画像に対応する。 (1) for each category, based on the labeled sample images belonging to the category and the original sample images corresponding to each labeled sample image, determine the number of original sample images corresponding to the category; The images correspond to one or more labeled sample images.

元サンプル画像の数に基づいて、該カテゴリに対応する頻度情報を決定する。 Frequency information corresponding to the category is determined based on the number of original sample images.

ここで、元サンプル画像の数を該カテゴリに対応する頻度情報と直接的に決定することができ、元サンプル画像の数が全ての元サンプル画像の数に占める割合を該カテゴリに対応する頻度情報と決定することもできる。 Here, the number of original sample images can be directly determined from the frequency information corresponding to the category, and the ratio of the number of original sample images to the total number of original sample images is the frequency information corresponding to the category. can also be determined.

具体的には、異なるラベル付きサンプル画像は、同一の元サンプル画像からのものである可能性があるため、同一のラベル付きサンプル画像からの異なるラベル付きサンプル画像を画像分類モデルに入力した後、画像分類モデルのパラメータが一定のままで、異なるラベル付きサンプル画像のために抽出された特徴データは類似したものであり、ひいては同じである。これらのラベル付きサンプル画像を用いて画像分類モデルを訓練する場合、画像分類モデルが学習できる特徴は、異なる元サンプル画像からの異なるラベル付きサンプル画像を用いて画像分類モデルを訓練する場合、画像分類モデルが学習できる特徴よりも少ない。 Specifically, different labeled sample images may come from the same original sample image, so after inputting different labeled sample images from the same labeled sample image into an image classification model, With the image classification model parameters remaining constant, the feature data extracted for different labeled sample images are similar and thus identical. When training an image classification model using these labeled sample images, the features that an image classification model can learn are: Fewer features than the model can learn.

例えば、ラベル付きサンプル画像a1、ラベル付きサンプル画像a2は、同一の元サンプル画像Aからのものであり、ラベル付きサンプル画像b1は、元サンプル画像Bからのものである。画像分類モデルがa1及びa2に対して特徴学習を行う場合に学習できる特徴は、a1及びb1に対して特徴学習を行う場合に学習できる特徴よりも少ない。 For example, the labeled sample image a1 and the labeled sample image a2 are from the same original sample image A, and the labeled sample image b1 is from the original sample image B. The image classification model can learn fewer features when performing feature learning on a1 and a2 than it can learn when performing feature learning on a1 and b1.

更に、直接的にラベル付きサンプル画像の数に基づいて各カテゴリに対応する頻度情報を決定する場合、1つのカテゴリに対応するポジティブサンプルのうちの複数が同一の元サンプル画像からのものであると、ポジティブサンプルの数が多くても、画像分類モデルが学習できる該カテゴリに該当する特徴が少ないことを招き、該カテゴリに対する認識精度が低いことを招き、つまり、ポジティブサンプルが少ないカテゴリをポジティブサンプルが多いカテゴリと判定することを招く。このような誤判を避けるために、該実施例において、各ラベル付きサンプル画像に対応する元サンプル画像の数に基づいて、頻度情報を決定する。 Furthermore, when determining the frequency information corresponding to each category based on the number of labeled sample images directly, it is assumed that more than one of the positive samples corresponding to one category are from the same original sample image. , even if the number of positive samples is large, the number of features corresponding to the category that the image classification model can learn is small, and the recognition accuracy for the category is low. It invites judgment with many categories. To avoid such misjudgment, in this embodiment, the frequency information is determined based on the number of original sample images corresponding to each labeled sample image.

(2)各カテゴリに対して、ラベル付きサンプル画像集合におけるラベル付きサンプル画像の総数及び及び該カテゴリに属するラベル付きサンプル画像の数に基づいて、該カテゴリに対応する頻度情報を決定する。該カテゴリに属するラベル付きサンプル画像の数がラベル付きサンプル画像の総数に占める割合を該カテゴリに対応する頻度情報とすることができる。 (2) For each category, determine frequency information corresponding to the category based on the total number of labeled sample images in the labeled sample image set and the number of labeled sample images belonging to the category. The ratio of the number of labeled sample images belonging to the category to the total number of labeled sample images can be used as frequency information corresponding to the category.

(3)該カテゴリに属するラベル付きサンプル画像の数を該カテゴリに対応する頻度情報とする。 (3) The number of labeled sample images belonging to the category is used as frequency information corresponding to the category.

ここで、1つのカテゴリにとって、該カテゴリの頻度情報が高いほど、該カテゴリに対応するポジティブサンプルの数が多くなり、該カテゴリのポジティブサンプルとネガティブサンプルとのバランスが高くなると認められる。頻度情報が低いほど、該カテゴリに対応するポジティブサンプルの数が少なくなり、該カテゴリのポジティブサンプルとネガティブサンプルとのバランスが低くなると認められる。 Here, for one category, it is recognized that the higher the frequency information of the category, the greater the number of positive samples corresponding to the category, and the higher the balance between the positive samples and the negative samples of the category. It is recognized that the lower the frequency information, the lower the number of positive samples corresponding to that category, and the lower the balance between positive and negative samples in that category.

III:上記S103及びS104において、複数のラベル付きサンプル画像にそれぞれ対応する分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、画像分類モデルの損失情報を決定する場合、例えば、
各ラベル付きサンプル画像に対して、該ラベル付きサンプル画像の分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、画像分類モデルを用いて該ラベル付きサンプル画像に対して分類を行う場合の損失情報を得るという方式を用いることができる。
III: In the above S103 and S104, if the loss information of the image classification model is determined based on the classification labels respectively corresponding to the plurality of labeled sample images and the frequency information corresponding to each category, for example,
For each labeled sample image, the loss when classifying the labeled sample image using the image classification model based on the classification label of the labeled sample image and the frequency information corresponding to each category respectively A method of obtaining information can be used.

具体的な実現過程において、ラベル付きサンプル画像に基づいて画像分類モデルを訓練する過程において、1つのラベル付きサンプル画像を画像分類モデルに入力するたびに、1つの分類結果を決定することができる。該分類結果は、例えば、1つのベクトルである。ベクトルにおける要素の数は、画像分類モデルが認識できる対象のカテゴリの数と一致し、且つ一対一に対応する。該ベクトルにおけるいずれか1つの要素の値は、該ラベル付きサンプル画像が該要素に対応するカテゴリに属する確率又は信頼度を表す。 In the specific implementation process, in the process of training an image classification model based on labeled sample images, a classification result can be determined each time a labeled sample image is input to the image classification model. The classification result is, for example, one vector. The number of elements in the vector matches and corresponds one-to-one with the number of categories of interest that the image classification model can recognize. The value of any one element in the vector represents the probability or confidence that the labeled sample image belongs to the category corresponding to that element.

例えば、画像分類モデルが認識できる対象のカテゴリの数が30であると、いずれか1つのラベル付きサンプル画像を画像分類モデルに入力した後、得られた分類結果は、1つの30次元ベクトルであり、(p1,p2,……,p30)で表される。ここで、ベクトルにおけるi番目の要素piの値は、該ラベル付きサンプル画像がpiに対応するカテゴリに属する信頼度を表し、また、piの値が高いほど、該ラベル付きサンプル画像がpiに対応するカテゴリに属する可能性は高くなる。 For example, if the number of target categories that the image classification model can recognize is 30, after inputting any one labeled sample image into the image classification model, the resulting classification result is a 30-dimensional vector. , (p1, p2, ..., p30). Here, the value of the i-th element pi in the vector represents the degree of confidence that the labeled sample image belongs to the category corresponding to pi. more likely to belong to the category of

続いて、該ベクトル、ラベル付きサンプル画像に対応する分類ラベル、及び各カテゴリにそれぞれ対応する頻度情報に基づいて、該ラベル付きサンプル画像に対応する損失情報を得ることができる。 Loss information corresponding to the labeled sample images can then be obtained based on the vectors, classification labels corresponding to the labeled sample images, and frequency information respectively corresponding to each category.

該損失情報に基づいて、画像分類モデルのパラメータを、該損失情報を低下させる傾向へ調整し、該画像分類モデルに対する一回のパラメータ調整プロセスを完了する。 Based on the loss information, the parameters of the image classification model are adjusted to tend to reduce the loss information, completing a one-time parameter adjustment process for the image classification model.

続いて、次のラベル付きサンプル画像を画像分類モデルに入力し、上記損失情報の決定及びパラメータ調整プロセスを再実行する。 The next labeled sample image is then input to the image classification model and the loss information determination and parameter adjustment process described above is rerun.

全てのラベル付きサンプル画像を用いて画像分類モデルに対して一回のパラメータ調整プロセスを実行した後、該画像分類モデルに対する一回の訓練が完了したと認められる。 After performing a single parameter tuning process for an image classification model using all labeled sample images, a single training for the image classification model is considered complete.

画像分類モデルに対する複数回の訓練を行った後、又は、画像分類モデルの損失情報が収束した場合、最終的に訓練された画像分類モデルを得ることができる。 After training the image classification model multiple times, or when the loss information of the image classification model converges, a final trained image classification model can be obtained.

例示的に、図2に示すように、本願の実施例は、該ラベル付きサンプル画像の分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、分類モデルを用いて該ラベル付きサンプル画像に対して分類を行う場合の損失情報を得るための具体的な方法を更に提供する。該方法は、以下を含む。 By way of example, as shown in FIG. 2, an embodiment of the present application uses a classification model to classify the labeled sample images based on the classification labels of the labeled sample images and the frequency information respectively corresponding to each category. We also provide a specific method for obtaining loss information when performing classification with The method includes:

S201において、該ラベル付きサンプル画像の分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定する。 In S201, based on the classification label of the labeled sample image and the frequency information corresponding to each category, a loss weight corresponding to each of a plurality of predetermined categories is determined for the labeled sample image. do.

S202において、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みに基づいて、分類モデルを用いて該ラベル付きサンプル画像に対して分類を行う場合の損失情報を得る。 In S202, based on the loss weight corresponding to each category of a plurality of predetermined categories, loss information is obtained when the labeled sample image is classified using the classification model.

ここで、各ラベル付きサンプル画像に対して、その損失情報は、例えば、下記式(1)を満たす。

Figure 0007266674000001
(1) Here, for each labeled sample image, its loss information satisfies, for example, the following formula (1).
Figure 0007266674000001
(1)

ここで、

Figure 0007266674000002
は、下記式(2)を満たす。
Figure 0007266674000003
(2) here,
Figure 0007266674000002
satisfies the following formula (2).
Figure 0007266674000003
(2)

ここで、Cは、分類モデルが認識できる対象のカテゴリの数を表し、

Figure 0007266674000004
は、該ラベル付きサンプル画像がカテゴリjに属する信頼度を表し、cは、該ラベル付きサンプル画像に対応する注釈ラベルを表し、
Figure 0007266674000005
は、該ラベル付きサンプル画像に対して、カテゴリjに対応する損失重みを表す。 where C represents the number of categories of interest that the classification model can recognize,
Figure 0007266674000004
represents the confidence that the labeled sample image belongs to category j, c represents the annotation label corresponding to the labeled sample image,
Figure 0007266674000005
represents the loss weight corresponding to category j for the labeled sample image.

一実施例において、損失重みを決定する場合、例えば、いずれか1つのカテゴリに対して、該ラベル付きサンプル画像の分類ラベルに基づいて、該ラベル付きサンプル画像の分類ラベルが、該ラベル付きサンプル画像が背景のラベル付きサンプル画像であるかどうかを示すことを決定し、該いずれか1つカテゴリに対応する頻度情報が所定の頻度閾値未満であるかどうかを決定する。 In one embodiment, when determining loss weights, for example, for any one category, based on the classification label of the labeled sample image, the classification label of the labeled sample image is the is a background labeled sample image, and determining whether the frequency information corresponding to any one category is less than a predetermined frequency threshold.

該ラベル付きサンプル画像の分類ラベルが、該ラベル付きサンプル画像が非背景のラベル付きサンプル画像であることを示し、且つ該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値未満であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第1所定の損失重み値として決定する。 the classified label of the labeled sample image indicates that the labeled sample image is a non-background labeled sample image, and the frequency information corresponding to any one category is less than a predetermined frequency threshold. If so, a loss weight corresponding to the one category is determined as the first predetermined loss weight value.

該ラベル付きサンプル画像の分類ラベルが、該ラベル付きサンプル画像が背景のラベル付きサンプル画像であることを示し、及び/又は、該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値以上であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第2所定の損失重み値として決定する。 the classified label of the labeled sample image indicates that the labeled sample image is a background labeled sample image; and/or the frequency information corresponding to any one category is greater than or equal to a predetermined frequency threshold. If so, the loss weight corresponding to the one category is determined as the second predetermined loss weight value.

ここで、該所定の頻度閾値の具体的な数値は、頻度情報の形態(例えば、数又は割合)及び分類精度の要件によって具体的に設定されてもよい。 Here, the specific numerical value of the predetermined frequency threshold may be specifically set according to the form of frequency information (for example, number or ratio) and the requirements for classification accuracy.

ここで、第1所定の損失重み値及び第2所定の損失重み値の具体的な数値は、実際の需要に応じて具体的に設定されてもよい。 Here, specific numerical values of the first predetermined loss weight value and the second predetermined loss weight value may be specifically set according to actual demand.

上記実施例において、画像分類モデルの訓練過程において、画像分類モデルに及ぼす特定のカテゴリのポジティブサンプル及びネガティブサンプルの影響の程度を調整でき、これにより、ポジティブサンプルが少ないカテゴリに対する、分類モデルの検出精度を向上させる。従って、第1所定の損失重み値は、一般的には、第2所定の損失重み値より小さい。 In the above embodiment, during the training process of the image classification model, the degree of influence of the positive and negative samples of a particular category on the image classification model can be adjusted, so that the detection accuracy of the classification model for categories with few positive samples improve. Accordingly, the first predetermined loss weight value is generally less than the second predetermined loss weight value.

ラベル付きサンプル画像aを用いて画像分類モデルを訓練する過程において、カテゴリmに対して、該カテゴリmのポジティブサンプルとネガティブサンプルがアンバランス状態であれば、該カテゴリmに対応する頻度情報は、所定の頻度閾値未満であると同時に、該ラベル付きサンプル画像aの注釈ラベルは、該ラベル付きサンプル画像aが1つのカテゴリに属することを示すが、該カテゴリは、カテゴリmではなく、背景カテゴリでもない。この場合、カテゴリmが、頻度情報が頻度閾値未満であるカテゴリであれば、該カテゴリmに及ぼす該ラベル付きサンプル画像aの影響を低下させ、ひいては無視し、つまり、該カテゴリmの損失に及ぼすラベル付きサンプル画像aの影響を低下させる。 In the process of training an image classification model using a labeled sample image a, if positive samples and negative samples of category m are unbalanced for category m, the frequency information corresponding to category m is While below a predetermined frequency threshold, the annotation label of the labeled sample image a indicates that the labeled sample image a belongs to one category, but the category is not category m, but also the background category. do not have. In this case, if category m is a category whose frequency information is less than the frequency threshold, reduce and even ignore the influence of the labeled sample image a on the category m, i.e. Reduce the influence of the labeled sample image a.

該ラベル付きサンプル画像aを用いて画像分類モデルを訓練する過程において、カテゴリmに対して、該カテゴリmのポジティブサンプルとネガティブサンプルがアンバランス状態でなければ、該カテゴリmに及ぼす該ラベル付きサンプル画像aの影響を低下させることができず、ひいては無視することもない。 In the process of training an image classification model using the labeled sample image a, for category m, if the positive and negative samples of category m are not unbalanced, the labeled sample on category m The influence of image a cannot be reduced, nor can it be ignored.

該ラベル付きサンプル画像aを用いて画像分類モデルを訓練する過程において、カテゴリmに対して、該カテゴリmのポジティブサンプルとネガティブサンプルがアンバランス状態ではないが、該ラベル付きサンプル画像aは全てのカテゴリにとっていずれも背景カテゴリのラベル付きサンプル画像である場合、該カテゴリmに及ぼす該ラベル付きサンプル画像aの影響を低下させることができず、ひいては無視することもない。 In the process of training an image classification model using the labeled sample images a, for category m, the positive and negative samples of category m are not unbalanced, but the labeled sample images a are all If for a category all are labeled sample images of the background category, the influence of the labeled sample image a on the category m cannot be reduced or even ignored.

例えば、カテゴリに及ぼすラベル付きサンプル画像の影響を無視する場合、第1所定の損失重み値は、0であり、第2所定の損失重み値は、1である。分類モデルが認識できる対象カテゴリの分類ラベルを1~Cとし、背景カテゴリの分類ラベルを0とすることができる。従って、1つのラベル付きサンプル画像に対して、カテゴリjに対応する損失重み

Figure 0007266674000006
は、下記式(3)を満たす。
Figure 0007266674000007
(3) For example, the first predetermined loss weight value is 0 and the second predetermined loss weight value is 1 if the influence of the labeled sample images on the category is ignored. The classification labels of the target category that can be recognized by the classification model can be set to 1 to C, and the classification label of the background category can be set to 0. Therefore, for one labeled sample image, the loss weight corresponding to category j
Figure 0007266674000006
satisfies the following formula (3).
Figure 0007266674000007
(3)

ここで、

Figure 0007266674000008
は、所定の頻度閾値を表し、cは、ラベル付きサンプル画像が属するカテゴリを表し、
Figure 0007266674000009
は、ラベル付きサンプル画像が非背景のラベル付きサンプル画像であることを表す。
Figure 0007266674000010
は、カテゴリjに対応する頻度情報を表す。 here,
Figure 0007266674000008
represents a predetermined frequency threshold, c represents the category to which the labeled sample image belongs,
Figure 0007266674000009
indicates that the labeled sample image is a non-background labeled sample image.
Figure 0007266674000010
represents the frequency information corresponding to category j.

また例えば、カテゴリに及ぼすラベル付きサンプル画像の影響を低下させる場合、第1所定の損失重み値は、0.3であり、第2所定の損失重み値は、1である。1つのラベル付きサンプル画像に対して、カテゴリjに対応する損失重み

Figure 0007266674000011
は、下記式(4)を満たす。
Figure 0007266674000012
(4) Also for example, the first predetermined loss weight value is 0.3 and the second predetermined loss weight value is 1 to reduce the influence of the labeled sample images on the category. Loss weight corresponding to category j for one labeled sample image
Figure 0007266674000011
satisfies the following formula (4).
Figure 0007266674000012
(4)

ここで、カテゴリに及ぼすラベル付きサンプル画像の影響を低下させる場合、第1所定の損失重み値及び第2所定の損失重み値の具体的な数値は、実際の需要に応じて設定されてもよく、例えば、0.1、0.2、0.4、0.5等としてもよいことに留意されたい。第2所定の損失重み値は、また例えば、0.9、1.1、1.2等である。ここで限定しない。 Here, when reducing the influence of labeled sample images on categories, the specific numerical values of the first predetermined loss weight value and the second predetermined loss weight value may be set according to actual needs. , for example, 0.1, 0.2, 0.4, 0.5, and so on. The second predetermined loss weight value may also be, for example, 0.9, 1.1, 1.2, and so on. not limited here.

なお、本願の実施例は、損失重みを決定するためのもう1つの具体的な方式を更に提供する。該実施例において、例えば、該ラベル付きサンプル画像の分類ラベル、各カテゴリにそれぞれ対応する頻度情報、該ラベル付きサンプル画像に対応する元サンプル画像のポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することができる。 It should be noted that the embodiments of the present application further provide another specific scheme for determining loss weights. In the embodiment, for example, based on the classification labels of the labeled sample images, frequency information corresponding to each category, and a positive sample category set and a negative sample category set of the original sample images corresponding to the labeled sample images, Loss weights corresponding to each category of a predetermined plurality of categories can be determined for the labeled sample images.

ここで、ポジティブサンプルカテゴリ集合に、該元サンプル画像に含まれる少なくとも1つのターゲット対象のカテゴリが含まれる。 Here, the positive sample category set includes at least one target subject category included in the original sample image.

具体的には、下記方式1又は2のうちのいずれか1つを用いて、該ラベル付きサンプル画像に対応する元サンプル画像のポジティブサンプルカテゴリ集合を決定することができる。 Specifically, either one of schemes 1 or 2 below can be used to determine the positive sample category set of the original sample images corresponding to the labeled sample images.

方式1:ラベル付きサンプル画像集合から、該ラベル付きサンプル画像と同一の元サンプル画像に対応するターゲットラベル付きサンプル画像を決定し、
該ラベル付きサンプル画像及びターゲットラベル付きサンプル画像にそれぞれ対応する分類ラベルに基づいて、該ラベル付きサンプル画像に対応する元サンプル画像のポジティブサンプルカテゴリ集合を決定する。
Method 1: from a set of labeled sample images, determine a target labeled sample image corresponding to the same original sample image as the labeled sample image;
Based on the classification labels respectively corresponding to the labeled sample images and the target labeled sample images, a positive sample category set of the original sample images corresponding to the labeled sample images is determined.

ここで、ラベル付きサンプル画像を形成する場合、複数の異なるラベル付きサンプル画像が同一の元サンプル画像に基づいてラベル付けされたものであることがある。 Here, when forming labeled sample images, a plurality of different labeled sample images may be labeled based on the same original sample image.

例えば、いずれか1つのラベル付きサンプル画像aに対して、それに対応する同一の元サンプル画像のターゲットラベル付きサンプル画像はそれぞれ、ラベル付きサンプル画像b、ラベル付きサンプル画像c及びラベル付きサンプル画像dである。ここで、ラベル付きサンプル画像aの分類ラベルは、m2であり、ラベル付きサンプル画像bの分類ラベルは、m5であり、ラベル付きサンプル画像cの分類ラベルは、m9であり、ラベル付きサンプル画像dの分類ラベルは、m5である。従って、該ラベル付きサンプル画像aのポジティブサンプルカテゴリ集合は、{m2,m5,m9}である。 For example, for any one labeled sample image a, the corresponding target labeled sample images of the same original sample image are labeled sample image b, labeled sample image c, and labeled sample image d. be. Here, the classification label of the labeled sample image a is m2, the classification label of the labeled sample image b is m5, the classification label of the labeled sample image c is m9, and the labeled sample image d is m5. Therefore, the positive sample category set of the labeled sample image a is {m2, m5, m9}.

方式2:該ラベル付きサンプル画像に対応する元サンプル画像の第1補助分類ラベルに基づいて、該ラベル付きサンプル画像に対応する元サンプル画像のポジティブサンプルカテゴリ集合を決定する。 Method 2: Determine the positive sample category set of the original sample image corresponding to the labeled sample image according to the first auxiliary classification label of the original sample image corresponding to the labeled sample image.

ここで、元サンプル画像に対してラベルを付け、ラベル付きサンプル画像を生成する過程において、生成されるべきラベル付きサンプル画像の数が膨大過ぎるため、元サンプル画像に存在する異なる対象を逐一ラベル付けして異なるラベル付きサンプル画像を生成することができないことが多い。この場合、元サンプル画像に第1補助分類ラベルを追加することができる。該第1補助分類ラベルは、元サンプル画像に含まれるターゲット対象のカテゴリを示すためのものである。 Here, in the process of labeling the original sample images and generating labeled sample images, the number of labeled sample images to be generated is too large. are often unable to generate different labeled sample images. In this case, a first auxiliary classification label can be added to the original sample image. The first sub-classification label is for indicating the category of the target object contained in the original sample image.

ここで、該第1補助分類ラベルは、ラベル付き時、元サンプル画像に含まれるターゲット対象の全てのカテゴリを示すことができ、元サンプル画像に含まれるターゲット対象の一部のカテゴリのみを示すこともできることに留意されたい。 Here, the first sub-classification label, when labeled, can indicate all categories of the target object included in the original sample image, and can indicate only some categories of the target object included in the original sample image. Note that you can also

例えば、元サンプル画像に含まれるターゲット対象の全てのカテゴリは、m1、m3、m7、m8、m11を含み、元サンプル画像に対して第1補助分類ラベルをラベル付けする場合、第1補助分類ラベルは例えば、m1、m3、m7である。この場合、形成された該元サンプル画像のポジティブサンプルカテゴリ集合は、{m1,m3,m7}である。 For example, all categories of target objects contained in the original sample image include m1, m3, m7, m8, and m11, and if the original sample image is labeled with the first sub-classification label, the first sub-classification label are, for example, m1, m3, m7. In this case, the positive sample category set of the formed original sample image is {m1, m3, m7}.

第1補助分類ラベルは、例えば、m7、m8、m11である。この場合、形成された該元サンプル画像のポジティブサンプルカテゴリ集合は、{m7,m8,m11}である。 The first sub-classification labels are, for example, m7, m8, and m11. In this case, the positive sample category set of the formed original sample image is {m7, m8, m11}.

第1補助分類ラベルは、例えば、m1、m3、m7、m8、m11である。この場合、形成された該元サンプル画像のポジティブサンプルカテゴリ集合は、{m1,m3,m7,m8,m11}である。 The first auxiliary classification labels are, for example, m1, m3, m7, m8, and m11. In this case, the positive sample category set of the formed original sample image is {m1, m3, m7, m8, m11}.

ネガティブサンプルカテゴリ集合に、該元サンプル画像に含まれない少なくとも1つのターゲット対象のカテゴリが含まれる。 A negative sample category set includes at least one target object category that is not included in the original sample image.

ここで、下記方式3を用いて該ラベル付きサンプル画像に対応する元サンプル画像のネガティブサンプルカテゴリ集合を決定することができる。 Now, Method 3 below can be used to determine the negative sample category set of the original sample image corresponding to the labeled sample image.

方式3:該ラベル付きサンプル画像に対応する元サンプル画像の第2補助分類ラベルに基づいて、該ラベル付きサンプル画像に対応する元サンプル画像のネガティブサンプルカテゴリ集合を決定する。 Method 3: Determine the negative sample category set of the original sample image corresponding to the labeled sample image according to the second auxiliary classification label of the original sample image corresponding to the labeled sample image.

ここで、上記方式2と同様に、元サンプル画像にラベルを付ける場合、元サンプル画像に第2補助分類ラベルを追加することもできる。該第2補助分類ラベルは、元サンプル画像に含まれないターゲット対象のカテゴリを示すためのものである。 Here, as in method 2 above, when labeling the original sample images, it is also possible to add a second auxiliary classification label to the original sample images. The second sub-classification label is for indicating a target object category that is not included in the original sample image.

例えば、元サンプル画像にラベルを付ける場合、該元サンプル画像に含まれないターゲット対象のカテゴリがm3、m9、m15を含むと決定した時、元サンプル画像に対して第2補助分類ラベルをラベル付けする場合、第2補助分類ラベルは例えば、m3、m9、m15である。この場合、形成された該元サンプル画像のネガティブサンプルカテゴリ集合は、{m3,m9,m15}である。 For example, when labeling the original sample image, when it is determined that the target object category not included in the original sample image includes m3, m9, and m15, label the original sample image with a second auxiliary classification label. , the second sub-classification labels are, for example, m3, m9, and m15. In this case, the negative sample category set of the formed original sample image is {m3, m9, m15}.

ここで、第1補助分類ラベル又は第2補助分類ラベルにより指示されるコンテンツはヌルであってもよいことに留意されたい。この場合、ポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合もヌルである。 Note that the content indicated by the first sub-classification label or the second sub-classification label may be null. In this case, the positive sample category set and the negative sample category set are also null.

該実施例において、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定する場合、例えば、いずれか1つのカテゴリに対して、該ラベル付きサンプル画像の分類ラベルに基づいて、該ラベル付きサンプル画像の分類ラベルが、該ラベル付きサンプル画像が背景のラベル付きサンプル画像であるかどうかを示すことを決定し、該いずれか1つカテゴリに対応する頻度情報が所定の頻度閾値未満であるかどうかを決定し、該いずれか1つのカテゴリが該ラベル付きサンプル画像に対応するポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に属するかどうかを決定する。 In the embodiment, when determining a loss weight corresponding to each category of a plurality of predetermined categories for the labeled sample image, for example, for any one category, the labeled sample image that the classification label of the labeled sample image indicates whether the labeled sample image is a background labeled sample image, and the frequency corresponding to any one category Determining whether the information is below a predetermined frequency threshold and determining whether the any one category belongs to a positive sample category set and a negative sample category set corresponding to the labeled sample image.

該ラベル付きサンプル画像の分類ラベルが、該ラベル付きサンプル画像が非背景のラベル付きサンプル画像であることを示し、該いずれか1つのカテゴリがポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に属せず、且つ該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値未満であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第1所定の損失重み値として決定する。 the classification label of the labeled sample image indicates that the labeled sample image is a non-background labeled sample image, and the one category does not belong to a positive sample category set and a negative sample category set; and if it is determined that the frequency information corresponding to the one category is less than a predetermined frequency threshold, then determining the loss weight corresponding to the one category as a first predetermined loss weight value.

該ラベル付きサンプル画像の分類ラベルが、該ラベル付きサンプル画像が背景のラベル付きサンプル画像であることを示し、及び/又は、該いずれか1つのカテゴリがポジティブサンプルカテゴリ集合又はネガティブサンプルカテゴリ集合に属し、及び/又は、該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値以上であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第2所定の損失重み値として決定する。 the classification label of the labeled sample image indicates that the labeled sample image is a background labeled sample image, and/or the any one category belongs to a positive sample category set or a negative sample category set. and/or determining the loss weight corresponding to the one category as a second predetermined loss weight value when it is determined that the frequency information corresponding to the one category is greater than or equal to a predetermined frequency threshold. do.

該実施例において、画像分類モデルに及ぼすいずれかのカテゴリのポジティブサンプル及びネガティブサンプルの影響の程度を調整する場合、カテゴリmに及ぼすラベル付きサンプル画像aの影響を低下させるか又は無視する過程において、該ラベル付きサンプル画像aに対応する元サンプル画像に必ず該カテゴリmのターゲット対象が存在すれば、該カテゴリmに及ぼす該ラベル付きサンプル画像の影響を無視しない。従って、画像分類モデルに、該カテゴリに該当するより多くの特徴を学習させることができ、画像分類モデルの精度を更に向上させることができる。 In the embodiment, when adjusting the degree of influence of positive and negative samples of any category on the image classification model, in the process of reducing or ignoring the influence of labeled sample image a on category m, If the target object of the category m always exists in the original sample image corresponding to the labeled sample image a, the influence of the labeled sample image on the category m is not ignored. Therefore, the image classification model can learn more features that fall under the category, and the accuracy of the image classification model can be further improved.

なお、元サンプル画像に特定のカテゴリのターゲット対象が必ず存在しなければ、該元サンプル画像は、実際に、該カテゴリmの背景画像と認められ、該カテゴリmに及ぼす該元サンプル画像に基づいて得られたラベル付きサンプル画像の影響を無視しない。従って、画像分類モデルに、カテゴリmのターゲット対象の差動的特徴を学習させることができ、画像分類モデルの精度を更に向上させることもできる。 Note that if the original sample image does not necessarily have a target object of a particular category, then the original sample image is in fact recognized as the background image of the category m, and based on the original sample image on the category m Do not ignore the influence of the resulting labeled sample images. Therefore, the image classification model can be trained on the differential features of the target object of category m, and the accuracy of the image classification model can be further improved.

更に、本願の実施例において、該いずれか1つのカテゴリが該ラベル付きサンプル画像に対応するポジティブサンプルカテゴリ集合又はネガティブサンプルカテゴリ集合に属するかどうかを更に決定する。属すれば、該カテゴリmに及ぼす該ラベル付きサンプル画像aの影響を低下させることができず、ひいては無視することもない。 Further, in an embodiment of the present application, it is further determined whether the any one category belongs to a positive sample category set or a negative sample category set corresponding to the labeled sample images. If so, the influence of the labeled sample image a on the category m cannot be reduced or even ignored.

例えば、カテゴリに及ぼすラベル付きサンプル画像の影響を無視する場合、第1所定の損失重み値は、0であり、第2所定の損失重み値は、1である。従って、1つのラベル付きサンプル画像に対して、カテゴリjに対応する損失重み

Figure 0007266674000013
は、下記式(5)を満たす。
Figure 0007266674000014
(5) For example, the first predetermined loss weight value is 0 and the second predetermined loss weight value is 1 if the influence of the labeled sample images on the category is ignored. Therefore, for one labeled sample image, the loss weight corresponding to category j
Figure 0007266674000013
satisfies the following formula (5).
Figure 0007266674000014
(5)

ここで、

Figure 0007266674000015
は、所定の頻度閾値を表し、
Figure 0007266674000016
は、ラベル付きサンプル画像が非背景のラベル付きサンプル画像であることを表す。
Figure 0007266674000017
は、カテゴリjに対応する頻度情報を表す。
Figure 0007266674000018
は、ポジティブサンプルカテゴリ集合を表し、
Figure 0007266674000019
は、ネガティブサンプルカテゴリ集合を表す。 here,
Figure 0007266674000015
represents a predetermined frequency threshold,
Figure 0007266674000016
indicates that the labeled sample image is a non-background labeled sample image.
Figure 0007266674000017
represents the frequency information corresponding to category j.
Figure 0007266674000018
represents the positive sample category set, and
Figure 0007266674000019
represents the negative sample category set.

また例えば、カテゴリに及ぼすラベル付きサンプル画像の影響を低下させる場合、第1所定の損失重み値は、0.15であり、第2所定の損失重み値は、1.1である。1つのラベル付きサンプル画像に対して、カテゴリjに対応する損失重み

Figure 0007266674000020
は、下記式(6)を満たす。
Figure 0007266674000021
(6) Also for example, to reduce the influence of the labeled sample images on the category, the first predetermined loss weight value is 0.15 and the second predetermined loss weight value is 1.1. Loss weight corresponding to category j for one labeled sample image
Figure 0007266674000020
satisfies the following formula (6).
Figure 0007266674000021
(6)

カテゴリに及ぼすラベル付きサンプル画像の影響を低下させる場合、第1所定の損失重み値及び第2所定の損失重み値の具体的な数値は、実際の需要に応じて設定されてもよい。 When reducing the influence of the labeled sample images on the category, the specific numerical values of the first predetermined loss weight value and the second predetermined loss weight value may be set according to actual needs.

本願の実施例は、分類モデルを訓練する時、ラベル付きサンプル画像及び各ラベル付きサンプル画像にそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリにそれぞれ対応する頻度情報を決定する。続いて、複数のラベル付きサンプル画像にそれぞれ対応する分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、分類モデルの損失情報を決定し、該損失情報に基づいて分類モデルを訓練する。該過程において、各カテゴリにそれぞれ対応する頻度情報及び各サンプル画像にそれぞれ対応する分類ラベルに基づいて損失情報を決定するため、各カテゴリの頻度情報に基づいて、画像分類モデルの訓練過程において画像分類モデルに及ぼす特定のカテゴリのポジティブサンプル及びネガティブサンプルの影響の程度を調整でき、これにより、各カテゴリに及ぼすポジティブサンプル及びネガティブサンプルの影響のバランスを取り、更に、ポジティブサンプルが少ないカテゴリに対する、分類モデルの認識精度を向上させることができる。 Embodiments of the present application, when training a classification model, based on the labeled sample images and the classification labels corresponding to each labeled sample image, respectively, generate frequency information respectively corresponding to each of a plurality of predetermined categories. decide. Then, based on the classification labels respectively corresponding to the plurality of labeled sample images and the frequency information respectively corresponding to each category, loss information of the classification model is determined, and the classification model is trained based on the loss information. In the process, image classification is performed in the training process of an image classification model based on the frequency information of each category to determine the loss information according to the frequency information corresponding to each category and the classification label respectively corresponding to each sample image. You can adjust the degree of influence of positive and negative samples for a particular category on the model, which balances the influence of positive and negative samples on each category, and further refines the classification model for categories with few positive samples. can improve the recognition accuracy of

本願の実施例は、もう1つの画像処理方法を更に提供する。該方法は、事前訓練された画像分類モデルに基づいて、画像処理タスクを実行することを含み、
画像分類モデルは、上記実施例の画像分類モデルの訓練方法で訓練されたものであり、
画像処理タスクは、画像分類、対象検出、キーポイント検出、画像セグメンテーション、インスタンスセグメンテーションのうちの1つ又は複数を含む。
Embodiments of the present application further provide another image processing method. The method includes performing an image processing task based on a pre-trained image classification model;
The image classification model is trained by the image classification model training method of the above embodiment,
Image processing tasks include one or more of image classification, object detection, keypoint detection, image segmentation, instance segmentation.

本願の実施例において、画像分類モデルを具体的には、実際の画像処理タスクに基づいて選択することができる。例えば、画像処理タスクが対象検出である場合、該画像分類モデルとして一層高速化した領域畳み込みニューラルネットワーク(Faster Region-Convolutional Neural Networks:Faster R-CNN)を用いることができる。また例えば、画像処理タスクがインスタンスセグメンテーションである場合、該画像分類モデルとしてインスタンスセグメンテーションモデルMask R-CNNを用いることができる。 In the embodiments of the present application, the image classification model can be specifically selected based on the actual image processing task. For example, if the image processing task is object detection, a faster Region-Convolutional Neural Network (Faster R-CNN) can be used as the image classification model. Also, for example, when the image processing task is instance segmentation, the instance segmentation model Mask R-CNN can be used as the image classification model.

本実施例において、画像分類モデルを訓練するためのラベル付きサンプル集合は、マイクロソフトコンテキスト共通オブジェクトデータ集合(Microsoft Common Objects in Context:MS COCO)、大語彙インスタンスセグメンテーションデータ集合(A Dataset for Large Vocabulary Instance Segmentation:LVIS)、パターン分析、統計的モデリング及び計算論的学習ビジュアルオブジェクトカテゴリデータ集合(pattern analysis,statistical modelling and computational learning visual object classes:Pascal VOC)、及びOpen Imageデータ集合のうちの少なくとも1つであってもよく、上記サンプル集合のうちの少なくとも1つに対して処理(例えば、再ラベル付き)を行った後に得られたサンプル集合であってもよい。 In this example, the labeled sample sets for training the image classification model are Microsoft Common Objects in Context (MS COCO), A Dataset for Large Vocabulary Instance Segmentation pattern analysis, statistical modeling and computational learning visual object classes (Pascal VOC), and Open Image datasets. or a sample set obtained after processing (eg, relabeling) at least one of the sample sets.

本願の実施例は、画像処理タスクを実行する場合、上記実施例で開示される画像分類モデルの訓練方法で訓練された画像分類モデルにより実現し、より高い精度で画像処理結果を得ることができる。 Embodiments of the present application, when performing image processing tasks, can be implemented by the image classification model trained by the image classification model training method disclosed in the above embodiments, and can obtain image processing results with higher accuracy. .

図3に示すように、本願の実施例は、データ分類モデルの訓練方法を更に提供する。該方法は以下を含む。 As shown in FIG. 3, embodiments of the present application further provide a method for training a data classification model. The method includes:

S301において、ラベル付きサンプルデータ集合を取得し、ラベル付きサンプルデータ集合に複数のラベル付きサンプルデータ及び各ラベル付きサンプル画像にそれぞれ対応する分類ラベルが含まれる。 At S301, a labeled sample data set is obtained, and the labeled sample data set includes a plurality of labeled sample data and a classification label respectively corresponding to each labeled sample image.

S302において、ラベル付きサンプルデータ及び各ラベル付きサンプルデータにそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリにそれぞれ対応する頻度情報を決定する。 In S302, based on the labeled sample data and the classification labels respectively corresponding to each labeled sample data, frequency information corresponding to each of the plurality of predetermined categories is determined.

S303において、複数のラベル付きサンプルデータにそれぞれ対応する分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、データ分類モデルの損失情報を決定する。 In S303, the loss information of the data classification model is determined based on the classification labels respectively corresponding to the plurality of labeled sample data and the frequency information respectively corresponding to each category.

S304において、損失情報に基づいて、データ分類モデルを訓練し、データ分類モデルは、認識されるべきデータのカテゴリを決定するためのものである。 At S304, based on the loss information, a data classification model is trained, the data classification model is for determining categories of data to be recognized.

該実施例において、サンプルデータ集合は、サンプル画像集合、サンプルテキスト集合のうちのいずれか1つであってもよい。なお、処理されるべきデータによって、ラベル付きサンプルデータは異なる。具体的には、実際の適用シーンによって決まる。ここで、詳細な説明を省略する。 In such embodiments, the sample data set may be any one of a sample image set and a sample text set. Note that the labeled sample data differs depending on the data to be processed. Specifically, it depends on the actual application scene. Here, detailed description is omitted.

上記S301~S304の具体的な実現形態は、上記実施例のS101~S104を参照することができ、ここで、詳細な説明を省略する。 S101 to S104 in the above embodiment can be referred to for the specific implementation of S301 to S304, and the detailed description is omitted here.

本願の実施例は、データ処理の方法を更に提供する。該方法は、
事前訓練されたデータ分類モデルに基づいて、データ処理タスクを実行することを含み、
データ分類モデルは、上記実施例におけるデータ分類モデルの訓練方法で訓練されたものであり、
データ処理タスクは、データ分類、データセグメンテーション、インスタンスセグメンテーションのうちの1つ又は複数を含み、
データは、画像データ及びテキストデータのうちのいずれか1つを含む。
Embodiments of the present application further provide methods of data processing. The method comprises
performing a data processing task based on a pre-trained data classification model;
The data classification model is trained by the data classification model training method in the above example,
the data processing task includes one or more of data classification, data segmentation, instance segmentation;
The data includes any one of image data and text data.

具体的な実施形態の上記方法において、各ステップの記述順番は、厳しい実行順番を意味して実施プロセスを何ら限定するものではなく、各ステップの具体的な実行順番はその機能及び可能な内在的論理により決まることは、当業者であれば理解すべきである。 In the above method of specific embodiments, the description order of each step means a strict execution order and does not limit the implementation process in any way. Those skilled in the art should understand that logic dictates.

同一の技術的思想によれば、本願の実施例は、画像分類モデルの訓練方法に対応する画像分類モデル訓練装置を更に提供する。本願の実施例における装置による課題を解決するための原理は、本願の実施例における上記画像分類モデルの訓練方法と類似するため、装置の実施は、方法の実施を参照することができ、重複した説明を省略する。 According to the same technical idea, the embodiments of the present application further provide an image classification model training device corresponding to the image classification model training method. Since the principle for solving the problem by the apparatus in the embodiments of the present application is similar to the training method of the above image classification model in the embodiments of the present application, the implementation of the apparatus can refer to the implementation of the method, and the duplicated Description is omitted.

本願の実施例による画像分類モデル訓練装置を示す概略図である図4に示すように、前記装置は、第1取得モジュール41と、第1頻度情報決定モジュール42と、第1損失情報決定モジュール43と、第1訓練モジュール44と、を備え、
第1取得モジュール41は、ラベル付きサンプル画像集合を取得するように構成され、前記ラベル付きサンプル画像集合に複数のラベル付きサンプル画像及び各ラベル付きサンプル画像にそれぞれ対応する分類ラベルが含まれ、
第1頻度情報決定モジュール42は、前記ラベル付きサンプル画像及び各前記ラベル付きサンプル画像にそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリにそれぞれ対応する頻度情報を決定するように構成され、
第1損失情報決定モジュール43は、前記複数のラベル付きサンプル画像にそれぞれ対応する分類ラベル及び各カテゴリにそれぞれ対応する前記頻度情報に基づいて、画像分類モデルの損失情報を決定するように構成され、
第1訓練モジュール44は、前記損失情報に基づいて、前記画像分類モデルを訓練するように構成され、前記画像分類モデルは、認識されるべき画像のカテゴリを決定するためのものである。
As shown in FIG. 4, which is a schematic diagram of an image classification model training device according to an embodiment of the present application, said device comprises a first acquisition module 41, a first frequency information determination module 42 and a first loss information determination module 43. and a first training module 44;
the first obtaining module 41 is configured to obtain a set of labeled sample images, wherein the set of labeled sample images includes a plurality of labeled sample images and a classification label respectively corresponding to each labeled sample image;
A first frequency information determination module 42 determines frequency information respectively corresponding to each of a plurality of predetermined categories based on the labeled sample images and classification labels respectively corresponding to each of the labeled sample images. configured as
the first loss information determination module 43 is configured to determine loss information of an image classification model based on the classification labels respectively corresponding to the plurality of labeled sample images and the frequency information respectively corresponding to each category;
A first training module 44 is configured to train the image classification model based on the loss information, the image classification model for determining categories of images to be recognized.

装置における各モジュールの処理フロー及び各モジュール間のインタラクションフローに関する説明は、上記方法の実施例における関連説明を参照することができ、ここで、詳細な説明を省略する。 The description of the processing flow of each module and the interaction flow between each module in the apparatus can refer to the related descriptions in the above method embodiments, and detailed descriptions are omitted herein.

本願のもう1つの実施例は、画像処理装置を更に提供する。該装置は、
事前訓練された画像分類モデルに基づいて、画像処理タスクを実行するように構成される第1処理モジュールを備え、
前記画像分類モデルは、上記実施例に記載の画像分類モデルの訓練方法で訓練されたものであり、
前記画像処理タスクは、画像分類、対象検出、キーポイント検出、画像セグメンテーション、インスタンスセグメンテーションのうちの1つ又は複数を含む。
Another embodiment of the present application further provides an image processing device. The device is
a first processing module configured to perform an image processing task based on a pre-trained image classification model;
The image classification model is trained by the image classification model training method described in the above example,
The image processing tasks include one or more of image classification, object detection, keypoint detection, image segmentation, instance segmentation.

本願の実施例によるデータ分類モデル訓練装置を示す概略図である図5に示すように、前記装置は、第2取得モジュール51と、第2頻度情報決定モジュール52と、第2損失情報決定モジュール53と、第2訓練モジュール54と、を備え、
第2取得モジュール51は、ラベル付きサンプルデータ集合を取得するように構成され、前記ラベル付きサンプルデータ集合に複数のラベル付きサンプルデータ及び各ラベル付きサンプル画像にそれぞれ対応する分類ラベルが含まれ、
第2頻度情報決定モジュール52は、前記ラベル付きサンプルデータ及び各前記ラベル付きサンプルデータにそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリにそれぞれ対応する頻度情報を決定するように構成され、
第2損失情報決定モジュール53は、前記複数のラベル付きサンプルデータにそれぞれ対応する分類ラベル及び各カテゴリにそれぞれ対応する前記頻度情報に基づいて、データ分類モデルの損失情報を決定するように構成され、
第2訓練モジュール54は、前記損失情報に基づいて、前記データ分類モデルを訓練するように構成され、前記データ分類モデルは、認識されるべきデータのカテゴリを決定するためのものである。
As shown in FIG. 5, which is a schematic diagram of a data classification model training device according to an embodiment of the present application, said device comprises a second acquisition module 51, a second frequency information determination module 52, and a second loss information determination module 53. and a second training module 54;
the second obtaining module 51 is configured to obtain a labeled sample data set, wherein the labeled sample data set includes a plurality of labeled sample data and a classification label respectively corresponding to each labeled sample image;
A second frequency information determination module 52 determines frequency information respectively corresponding to each of a plurality of predetermined categories based on the labeled sample data and classification labels respectively corresponding to each of the labeled sample data. configured as
a second loss information determination module 53 is configured to determine loss information of a data classification model based on the classification labels respectively corresponding to the plurality of labeled sample data and the frequency information respectively corresponding to each category;
A second training module 54 is configured to train the data classification model based on the loss information, the data classification model for determining categories of data to be recognized.

装置における各モジュールの処理フロー及び各モジュール間のインタラクションフローに関する説明は、上記方法の実施例における関連説明を参照することができ、ここで、詳細な説明を省略する。 The description of the processing flow of each module and the interaction flow between each module in the apparatus can refer to the related descriptions in the above method embodiments, and detailed descriptions are omitted herein.

本願の実施例は、データ処理装置を更に提供する。該装置は、
事前訓練されたデータ分類モデルに基づいて、データ処理タスクを実行するように構成される第2処理モジュールを備え、
前記データ分類モデルは、上記実施例に記載のデータ分類モデルの訓練方法で訓練されたものであり、
前記データ処理タスクは、データ分類、データセグメンテーション、インスタンスセグメンテーションのうちの1つ又は複数を含み、前記データは、画像データ及びテキストデータのうちのいずれか1つを含む。
Embodiments of the present application further provide a data processing apparatus. The device is
a second processing module configured to perform a data processing task based on the pre-trained data classification model;
The data classification model is trained by the data classification model training method described in the above example,
The data processing task includes one or more of data classification, data segmentation, instance segmentation, and the data includes any one of image data and text data.

本願の実施例は、コンピュータ機器60を更に提供する。本願の実施例によるコンピュータ機器60の構造を示す概略図である図6に示すように、該コンピュータ機器60は、プロセッサ61と、メモリ62と、バス63と、を備える。前記メモリ62に前記プロセッサ61による実行可能な機器可読命令(例えば、図4に示した装置における第1取得モジュール41、第1頻度情報決定モジュール42、第1損失情報決定モジュール43及び第1訓練モジュール44に対応する実行命令など)が記憶されており、コンピュータ機器60が運転される時、前記プロセッサ61と前記メモリ62は、バス63を介して通信し、前記機器可読命令が前記プロセッサ61により実行される時、
ラベル付きサンプル画像集合を取得することであって、前記ラベル付きサンプル画像集合に複数のラベル付きサンプル画像及び各ラベル付きサンプル画像にそれぞれ対応する分類ラベルが含まれる、ことと、
前記ラベル付きサンプル画像及び各前記ラベル付きサンプル画像にそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリにそれぞれ対応する頻度情報を決定することと、
前記複数のラベル付きサンプル画像にそれぞれ対応する分類ラベル及び各カテゴリにそれぞれ対応する前記頻度情報に基づいて、画像分類モデルの損失情報を決定することと、
前記損失情報に基づいて、前記画像分類モデルを訓練することであって、前記画像分類モデルは、認識されるべき画像のカテゴリを決定するためのものである、ことと、を実行する。
Embodiments of the present application further provide computing equipment 60 . As shown in FIG. 6, which is a schematic diagram showing the structure of computer equipment 60 according to an embodiment of the present application, computer equipment 60 comprises processor 61 , memory 62 and bus 63 . Machine readable instructions executable by the processor 61 in the memory 62 (for example, the first acquisition module 41, the first frequency information determination module 42, the first loss information determination module 43 and the first training module in the apparatus shown in FIG. 4). 44) are stored, and when computer equipment 60 is operated, said processor 61 and said memory 62 communicate via bus 63 and said machine readable instructions are executed by said processor 61. when
obtaining a labeled sample image set, wherein the labeled sample image set includes a plurality of labeled sample images and a classification label respectively corresponding to each labeled sample image;
Determining frequency information corresponding to each of a plurality of predetermined categories based on the labeled sample images and classification labels respectively corresponding to each of the labeled sample images;
Determining loss information for an image classification model based on the classification labels respectively corresponding to the plurality of labeled sample images and the frequency information respectively corresponding to each category;
Based on the loss information, training the image classification model, the image classification model for determining categories of images to be recognized.

プロセッサ61が各プロセスを実行する場合の詳細な過程は、具体的には上記実施例を参照する。ここで、詳細な説明を省略する。 For details of how the processor 61 executes each process, refer to the above embodiments. Here, detailed description is omitted.

本願の実施例は、コンピュータ機器70を更に提供する。本願の実施例によるコンピュータ機器70の構造を示す概略図である図7に示すように、該コンピュータ機器70は、プロセッサ71と、メモリ72と、バス73と、を備える。前記メモリ72に前記プロセッサ71による実行可能な機器可読命令(例えば、図5に示した装置における第2取得モジュール51、第2頻度情報決定モジュール52、第2損失情報決定モジュール53及び第2訓練モジュール54に対応する実行命令など)が記憶されており、コンピュータ機器70が運転される時、前記プロセッサ11と前記メモリ72は、バス73を介して通信し、前記機器可読命令が前記プロセッサ71により実行される時、
ラベル付きサンプル画像集合を取得することであって、前記ラベル付きサンプル画像集合に複数のラベル付きサンプル画像及び各ラベル付きサンプル画像にそれぞれ対応する分類ラベルが含まれる、ことと、
ラベル付きサンプルデータ集合を取得することであって、前記ラベル付きサンプルデータ集合に複数のラベル付きサンプルデータ及び各ラベル付きサンプル画像にそれぞれ対応する分類ラベルが含まれる、ことと、
前記ラベル付きサンプルデータ及び各前記ラベル付きサンプルデータにそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリにそれぞれ対応する頻度情報を決定することと、
前記複数のラベル付きサンプルデータにそれぞれ対応する分類ラベル及び各カテゴリにそれぞれ対応する前記頻度情報に基づいて、データ分類モデルの損失情報を決定することと、
前記損失情報に基づいて、前記データ分類モデルを訓練することであって、前記データ分類モデルは、認識されるべきデータのカテゴリを決定するためのものである、ことと、を実行する。
Embodiments of the present application further provide computing equipment 70 . As shown in FIG. 7, which is a schematic diagram illustrating the structure of a computing device 70 according to an embodiment of the present application, the computing device 70 comprises a processor 71 , a memory 72 and a bus 73 . Machine readable instructions executable by the processor 71 in the memory 72 (for example, the second acquisition module 51, the second frequency information determination module 52, the second loss information determination module 53 and the second training module in the apparatus shown in FIG. 5). 54), and when computer equipment 70 is operated, said processor 11 and said memory 72 communicate via bus 73 and said machine readable instructions are executed by said processor 71. when
obtaining a labeled sample image set, wherein the labeled sample image set includes a plurality of labeled sample images and a classification label respectively corresponding to each labeled sample image;
obtaining a labeled sample data set, wherein the labeled sample data set includes a plurality of labeled sample data and a classification label respectively corresponding to each labeled sample image;
Determining frequency information respectively corresponding to each of a plurality of predetermined categories based on the labeled sample data and classification labels respectively corresponding to each of the labeled sample data;
Determining loss information for a data classification model based on the classification labels respectively corresponding to the plurality of labeled sample data and the frequency information respectively corresponding to each category;
Based on the loss information, training the data classification model, the data classification model for determining categories of data to be recognized.

プロセッサ71が各プロセスを実行する場合の詳細な過程は、具体的には上記実施例を参照する。ここで、詳細な説明を省略する。 For details of how the processor 71 executes each process, refer to the above embodiments. Here, detailed description is omitted.

本願の実施例は、コンピュータ可読記憶媒体を更に提供する。該コンピュータ可読記憶媒体にコンピュータプログラムが記憶されており、該コンピュータプログラムがプロセッサにより実行される場合、上記方法の実施例に記載の画像分類モデルの訓練方法、画像処理方法、データ分類モデルの訓練方法、又はデータ処理方法のステップを実行する。ここで、該記憶媒体は、揮発性又は不揮発性コンピュータ可読記憶媒体であってもよい。 Embodiments of the present application further provide a computer-readable storage medium. A computer program is stored on the computer readable storage medium, and when the computer program is executed by a processor, the method of training an image classification model, the method of image processing, the method of training a data classification model according to the above method embodiments. , or perform the steps of the data processing method. Here, the storage medium may be a volatile or non-volatile computer-readable storage medium.

本願の実施例が提供する画像分類モデルの訓練方法、画像処理方法、データ分類モデルの訓練方法又はデータ処理方法のコンピュータプログラム製品は、プログラムコードを記憶したコンピュータ可読記憶媒体を含む。前記プログラムコードに含まれる命令は、上記方法の実施例に記載の画像分類モデルの訓練方法、画像処理方法、データ分類モデルの訓練方法、又はデータ処理方法のステップを実行するために用いられる。具体的には、上記方法の実施例を参照することができ、ここで詳細な説明を省略する。 A computer program product of an image classification model training method, an image processing method, a data classification model training method, or a data processing method provided by the embodiments of the present application includes a computer-readable storage medium storing program code. The instructions contained in the program code are used to perform the steps of the image classification model training method, the image processing method, the data classification model training method, or the data processing method described in the above method embodiments. Specifically, reference can be made to the embodiments of the above method, and the detailed description is omitted here.

本願の実施例は、コンピュータプログラムを更に提供する。該コンピュータプログラムは、プロセッサにより実行される時、上記実施例のいずれか1つの方法を実現させる。該コンピュータプログラム製品は、具体的には、ハードウェア、ソフトウェア又はその組み合わせにより実現してもよい。1つの選択可能な実施例において、前記コンピュータプログラム製品は、具体的には、コンピュータ記憶媒体として具現化され、もう1つの選択可能な実施例において、コンピュータプログラム製品は、具体的には、例えば、ソフトウェア開発キット(Software Development Kit:SDK)等のようなソフトウェア製品として具現化される。 Embodiments of the present application further provide computer programs. The computer program implements the method of any one of the above embodiments when executed by a processor. The computer program product may be specifically implemented in hardware, software or a combination thereof. In one alternative embodiment, said computer program product is specifically embodied as a computer storage medium, and in another alternative embodiment, said computer program product is specifically embodied as, for example, It is embodied as a software product such as a software development kit (SDK).

説明上の便宜及び簡素化を図るために、上記説明されたシステム及び装置の具体的な作動過程は、前記方法の実施例における対応した過程を参照することができるから、ここで詳しく説明しないようにすることは、当業者にはっきり理解されるべきである。本発明で提供する幾つかの実施例で開示したシステム、装置及び方法は、他の方式によって実現できることを理解すべきである。例えば、以上に記載した装置の実施例はただ例示的なもので、例えば、前記ユニットの分割はただロジック機能の分割で、実際に実現する時は他の分割方式によってもよい。例えば、複数のユニット又はアセンブリを組み合わせてもよく、別のシステムに組み込んでもよい。又は若干の特徴を無視してもよく、実行しなくてもよい。また、示したか或いは検討した相互間の結合又は直接的な結合又は通信接続は、幾つかの通信インタフェース、装置又はユニットによる間接的な結合又は通信接続であってもよく、電気的、機械的または他の形態であってもよい。 For the convenience and simplification of explanation, the specific working steps of the above-described systems and devices can refer to the corresponding steps in the method embodiments, so they will not be described in detail here. should be clearly understood by those skilled in the art. It should be understood that the systems, devices and methods disclosed in some of the embodiments provided by the present invention can be implemented in other manners. For example, the embodiments of the apparatus described above are merely exemplary, for example, the division of the units is merely the division of logic functions, and other division schemes may be used when actually implemented. For example, multiple units or assemblies may be combined or incorporated into another system. Or some features may be ignored or not implemented. Also, the mutual couplings or direct couplings or communication connections shown or discussed may be indirect couplings or communication connections through some communication interface, device or unit, electrical, mechanical or Other forms are also possible.

分離部材として説明した前記ユニットは、物理的に別個のものであってもよく、そうでなくてもよい。ユニットとして示された部材は、物理的ユニットであってもよく、そうでなくてもよい。即ち、同一の位置に位置してもよく、複数のネットワークに分布してもよい。実際の需要に応じてそのうちの一部又は全てのユニットにより本実施例の方策の目的を実現することができる。 The units described as separate members may or may not be physically separate. Members shown as units may or may not be physical units. That is, they may be co-located or distributed over multiple networks. Some or all of these units can achieve the purpose of the measures of the present embodiment according to actual needs.

また、本願の各実施例における各機能ユニットは1つの処理ユニットに集積されてもよく、各ユニットが物理的に別個のものとして存在してもよく、2つ以上のユニットが一つのユニットに集積されてもよい。 Also, each functional unit in each embodiment of the present application may be integrated into one processing unit, each unit may exist as a physically separate entity, and two or more units may be integrated into one unit. may be

前記機能はソフトウェア機能ユニットの形で実現され、かつ独立した製品として販売または使用されるとき、プロセッサによる実行可能な揮発性又は不揮発性コンピュータ可読記憶媒体に記憶されてもよい。このような理解のもと、本願の技術的解決手段は、本質的に、又は、従来技術に対して貢献をもたらした部分又は該技術的解決手段の一部は、ソフトウェア製品の形式で具現化することができ、このようなコンピュータソフトウェア製品は、記憶媒体に記憶しても良く、また、1台のコンピュータ機器(パソコン、サーバ、又はネットワーク機器など)に、本願の各実施例に記載の方法の全部又は一部のステップを実行させるための若干の命令を含む。上述した記憶媒体は、USBメモリ、リムーバブルハードディスク、読み出し専用メモリ(Read-only Memory:ROM)、ランダムアクセスメモリ(Random Access Memory:RAM)、磁気ディスク、又は光ディスクなど、プログラムコードを記憶可能な各種の媒体を含む。 The functions may be implemented in the form of software functional units and stored in a processor-executable volatile or non-volatile computer readable storage medium when sold or used as a stand-alone product. Based on this understanding, the technical solution of the present application is essentially or the part that contributed to the prior art or part of the technical solution is embodied in the form of a software product. Such computer software products may be stored on a storage medium, and may be stored on a single computer device (such as a personal computer, server, or network device) to perform the methods described in each embodiment of the present application. contains some instructions for executing all or part of the steps of The above-mentioned storage media include USB memory, removable hard disk, read-only memory (ROM), random access memory (RAM), magnetic disk, optical disk, etc. Various types of memory that can store program code. Including media.

最後に説明しておきたいこととして、上記実施例は本願の具体的な実施形態に過ぎず、本願の技術的解決手段を説明するためのものであり、これを限定するものではなく、本願の保護範囲はこれに制限されるものではない。前記実施例を参照しながら、本願を詳細に説明したが、本技術分野を周知するいかなる当業者であれば、本願で開示された技術的範囲内で、前記実施例に記載の技術的解決手段に対して修正を行うことができるか又は変更を容易に思いつくことができ、又は一部の技術的特徴に対して均等物による置換を行うこともでき、これらの修正、変更又は置換は、対応する技術的解決手段の本質を本願の実施例の技術的解決手段の精神及び範囲から離脱させるものではなく、本願の保護範囲内に含まれるものとすることは、理解すべきである。従って、本願の保護範囲は特許請求の範囲の保護範囲を基準とするべきである。 Finally, I would like to mention that the above examples are only specific embodiments of the present application, and are for the purpose of describing the technical solutions of the present application, not limiting them, and The scope of protection is not limited to this. Although the present application has been described in detail with reference to the above embodiments, any person skilled in the art who is familiar with the technical field can understand the technical solutions described in the above embodiments within the technical scope disclosed in the present application. Modifications can be made to or changes can be easily conceived, or some technical features can be replaced by equivalents, and these modifications, changes or replacements are It should be understood that the essence of the technical solution to be used is not departed from the spirit and scope of the technical solution in the embodiments of the present application, but shall fall within the protection scope of the present application. Therefore, the protection scope of the present application should be based on the protection scope of the claims.

Claims (15)

コンピュータ機器により実行される画像分類モデルの訓練方法であって、
ラベル付きサンプル画像集合を取得することであって、前記ラベル付きサンプル画像集合に複数のラベル付きサンプル画像及び各ラベル付きサンプル画像にそれぞれ対応する分類ラベルが含まれる、ことと、
前記ラベル付きサンプル画像及び各前記ラベル付きサンプル画像にそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリにそれぞれ対応する頻度情報を決定することと、
各前記ラベル付きサンプル画像に対して、該ラベル付きサンプル画像の分類ラベル及び各カテゴリにそれぞれ対応する前記頻度情報に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することと、 所定の複数のカテゴリのうちの各カテゴリに対応する損失重みに基づいて、分類モデルを用いて該ラベル付きサンプル画像に対して分類を行う場合の損失情報を得ることと、
前記損失情報に基づいて、前記画像分類モデルを訓練することであって、前記画像分類モデルは、認識されるべき画像のカテゴリを決定するためのものである、ことと、を含み、
前記該ラベル付きサンプル画像の分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することは、
該ラベル付きサンプル画像の分類ラベル、各カテゴリにそれぞれ対応する頻度情報、該ラベル付きサンプル画像に対応する元サンプル画像のポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することを含み、
ここで、前記ポジティブサンプルカテゴリ集合に、該元サンプル画像に含まれる少なくとも1つのターゲット対象のカテゴリが含まれ、前記ネガティブサンプルカテゴリ集合に、該元サンプル画像に含まれない少なくとも1つのターゲット対象のカテゴリが含まれ、
前記該ラベル付きサンプル画像の分類ラベル、各カテゴリにそれぞれ対応する頻度情報、該ラベル付きサンプル画像に対応する元サンプル画像のポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することは、
いずれか1つのカテゴリに対して、
該ラベル付きサンプル画像の分類ラベルが、該ラベル付きサンプル画像が非背景のラベル付きサンプル画像であることを示し、該いずれか1つのカテゴリが前記ポジティブサンプルカテゴリ集合及び前記ネガティブサンプルカテゴリ集合に属せず、該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値未満であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第1所定の損失重み値として決定することを含む
画像分類モデルの訓練方法。
A method for training an image classification model performed by a computer device, comprising:
obtaining a labeled sample image set, wherein the labeled sample image set includes a plurality of labeled sample images and a classification label respectively corresponding to each labeled sample image;
Determining frequency information corresponding to each of a plurality of predetermined categories based on the labeled sample images and classification labels respectively corresponding to each of the labeled sample images;
for each of the labeled sample images, based on the classification label of the labeled sample image and the frequency information corresponding to each category, each of a plurality of predetermined categories for the labeled sample image; determining loss weights corresponding to categories; and loss in classifying the labeled sample images using a classification model based on the loss weights corresponding to each category of a plurality of predetermined categories. getting information and
training the image classification model based on the loss information, the image classification model for determining categories of images to be recognized;
Determining a loss weight corresponding to each of a plurality of predetermined categories for the labeled sample image based on the classification label of the labeled sample image and frequency information corresponding to each category. teeth,
Based on the classification label of the labeled sample image, the frequency information corresponding to each category, and the positive sample category set and negative sample category set of the original sample image corresponding to the labeled sample image, for the labeled sample image determining a loss weight corresponding to each category of a predetermined plurality of categories,
wherein the positive sample category set includes at least one target target category included in the original sample image, and the negative sample category set includes at least one target target category not included in the original sample image includes
Based on the classification label of the labeled sample image, the frequency information corresponding to each category, and the positive sample category set and negative sample category set of the original sample image corresponding to the labeled sample image, to the labeled sample image In contrast, determining a loss weight corresponding to each category of a given plurality of categories is
for any one category
The classification label of the labeled sample image indicates that the labeled sample image is a non-background labeled sample image, and any one category belongs to the positive sample category set and the negative sample category set. first, if it is determined that the frequency information corresponding to the one category is less than a predetermined frequency threshold, determining the loss weight corresponding to the one category as a first predetermined loss weight value; including
How to train an image classification model.
前記ラベル付きサンプル画像及び各前記ラベル付きサンプル画像にそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリに対応する頻度情報を決定することは、
各カテゴリに対して、該カテゴリに属するラベル付きサンプル画像及び各ラベル付きサンプル画像に対応する元サンプル画像に基づいて、該カテゴリに対応する元サンプル画像の数を決定することであって、各元サンプル画像は、1つ又は複数のラベル付きサンプル画像に対応する、ことと、
前記元サンプル画像の数に基づいて、該カテゴリに対応する頻度情報を決定することと、を含み、
又は
各カテゴリに対して、前記ラベル付きサンプル画像集合におけるラベル付きサンプル画像の総数及び該カテゴリに属するラベル付きサンプル画像の数に基づいて、該カテゴリに対応する頻度情報を決定すること、又は、該カテゴリに属するラベル付きサンプル画像の数を該カテゴリに対応する頻度情報とすること、を含むことを特徴とする
請求項1に記載の画像分類モデルの訓練方法。
Determining frequency information corresponding to each of a plurality of predetermined categories based on the labeled sample images and classification labels respectively corresponding to each of the labeled sample images,
for each category, based on the labeled sample images belonging to the category and the original sample images corresponding to each labeled sample image, determining the number of original sample images corresponding to the category; the sample images correspond to one or more labeled sample images;
determining frequency information corresponding to the category based on the number of original sample images;
or for each category, determining frequency information corresponding to the category based on the total number of labeled sample images in the set of labeled sample images and the number of labeled sample images belonging to the category; 2. The method of training an image classification model according to claim 1, wherein the number of labeled sample images belonging to a category is used as frequency information corresponding to the category.
前記該ラベル付きサンプル画像の分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することは、
いずれか1つのカテゴリに対して、該ラベル付きサンプル画像の分類ラベルが、該ラベル付きサンプル画像が非背景のラベル付きサンプル画像であることを示し、且つ該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値未満であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第1所定の損失重み値として決定すること、及び/又は
いずれか1つのカテゴリに対して、該ラベル付きサンプル画像の分類ラベルが、該ラベル付きサンプル画像が背景のラベル付きサンプル画像であることを示し、及び/又は、該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値以上であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第2所定の損失重み値として決定することをさらに含むことを特徴とする
請求項1又は2に記載の画像分類モデルの訓練方法。
Determining a loss weight corresponding to each of a plurality of predetermined categories for the labeled sample image based on the classification label of the labeled sample image and frequency information corresponding to each category. teeth,
For any one category, the classification label of the labeled sample image indicates that the labeled sample image is a non-background labeled sample image, and frequency information corresponding to the any one category. is less than a predetermined frequency threshold, determining a loss weight corresponding to the one category as a first predetermined loss weight value; and/or for the one category, The classified label of the labeled sample image indicates that the labeled sample image is a background labeled sample image, and/or the frequency information corresponding to any one category is greater than or equal to a predetermined frequency threshold. 3. The method of claim 1 or 2, further comprising: determining a loss weight corresponding to the one category as a second predetermined loss weight value when determining .
前記画像分類モデルの訓練方法は、
前記ラベル付きサンプル画像集合から、該ラベル付きサンプル画像と同一の元サンプル画像に対応するターゲットラベル付きサンプル画像を決定し、該ラベル付きサンプル画像及び前記ターゲットラベル付きサンプル画像にそれぞれ対応する分類ラベルに基づいて、該ラベル付きサンプル画像に対応する元サンプル画像のポジティブサンプルカテゴリ集合を決定する方式、又は、
該ラベル付きサンプル画像に対応する元サンプル画像の第1補助分類ラベルに基づいて、該ラベル付きサンプル画像に対応する元サンプル画像のポジティブサンプルカテゴリ集合を決定する方式であって、前記第1補助分類ラベルは、前記元サンプル画像に含まれるターゲット対象のカテゴリを示すためのものである、方式を用いて、
該ラベル付きサンプル画像に対応する元サンプル画像のポジティブサンプルカテゴリ集合を取得することを更に含み、
及び/又は
前記画像分類モデルの訓練方法は、
該ラベル付きサンプル画像に対応する元サンプル画像の第2補助分類ラベルに基づいて、該ラベル付きサンプル画像に対応する元サンプル画像のネガティブサンプルカテゴリ集合を決定する方式を用いて、該ラベル付きサンプル画像に対応する元サンプル画像のネガティブサンプルカテゴリ集合を取得することを更に含み、前記第2補助分類ラベルは、前記元サンプル画像に含まれないターゲット対象のカテゴリを示すためのものであることを特徴とする
請求項1~3のうちいずれか一項に記載の画像分類モデルの訓練方法。
A training method for the image classification model includes:
determining a target-labeled sample image corresponding to the same original sample image as the labeled sample image from the set of labeled sample images, and assigning classification labels corresponding to the labeled sample image and the target-labeled sample image, respectively; determining a positive sample category set of the original sample image corresponding to the labeled sample image, or
A method for determining a positive sample category set of an original sample image corresponding to the labeled sample image based on a first auxiliary classification label of the original sample image corresponding to the labeled sample image, wherein the first auxiliary classification Labels are for indicating categories of target objects contained in the original sample image, using a scheme:
obtaining a positive sample category set of original sample images corresponding to the labeled sample images;
and/or the method of training the image classification model comprising:
Using a method of determining a negative sample category set of an original sample image corresponding to the labeled sample image based on a second auxiliary classification label of the original sample image corresponding to the labeled sample image, the labeled sample image obtaining a negative sample category set of the original sample image corresponding to the second sub-classification label for indicating categories of target objects not included in the original sample image. The method for training an image classification model according to any one of claims 1-3.
前記該ラベル付きサンプル画像の分類ラベル、各カテゴリにそれぞれ対応する頻度情報、該ラベル付きサンプル画像に対応する元サンプル画像のポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することは、
いずれか1つのカテゴリに対して、該ラベル付きサンプル画像の分類ラベルが、該ラベル付きサンプル画像が背景のラベル付きサンプル画像であることを示し、及び/又は、
該いずれか1つのカテゴリが前記ポジティブサンプルカテゴリ集合又は前記ネガティブサンプルカテゴリ集合に属し、及び/又は、
該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値以上であると決定した場合、
該いずれか1つのカテゴリに対応する損失重みを第2所定の損失重み値として決定することをさらに含むことを特徴とする
請求項に記載の画像分類モデルの訓練方法。
Based on the classification label of the labeled sample image, the frequency information corresponding to each category, and the positive sample category set and negative sample category set of the original sample image corresponding to the labeled sample image, to the labeled sample image In contrast, determining a loss weight corresponding to each category of a given plurality of categories is
for any one category, the classification label of the labeled sample image indicates that the labeled sample image is a background labeled sample image; and/or
any one category belongs to the positive sample category set or the negative sample category set, and/or
If it is determined that the frequency information corresponding to any one category is equal to or greater than a predetermined frequency threshold,
The method of claim 1 , further comprising determining a loss weight corresponding to the one category as a second predetermined loss weight value.
コンピュータ機器により実行される画像処理方法であって、
事前訓練された画像分類モデルに基づいて、画像処理タスクを実行することを含み、
前記画像分類モデルは、請求項1~のうちいずれか一項に記載の画像分類モデルの訓練方法で訓練されたものであり、
前記画像処理タスクは、画像分類、対象検出、キーポイント検出、画像セグメンテーション、インスタンスセグメンテーションのうちの1つ又は複数を含む、画像処理方法。
An image processing method performed by a computer device, comprising:
performing an image processing task based on the pre-trained image classification model;
The image classification model is trained by the image classification model training method according to any one of claims 1 to 5 ,
The image processing method, wherein the image processing task includes one or more of image classification, object detection, keypoint detection, image segmentation, instance segmentation.
コンピュータ機器により実行されるデータ分類モデルの訓練方法であって、
ラベル付きサンプルデータ集合を取得することであって、前記ラベル付きサンプルデータ集合に複数のラベル付きサンプルデータ及び各ラベル付きサンプル画像にそれぞれ対応する分類ラベルが含まれる、ことと、
前記ラベル付きサンプルデータ及び各前記ラベル付きサンプルデータにそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリにそれぞれ対応する頻度情報を決定することと、
各ラベル付きサンプルデータに対して、該ラベル付きサンプルデータの分類ラベル及び各カテゴリにそれぞれ対応する前記頻度情報に基づいて、該ラベル付きサンプルデータに対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することと、
所定の複数のカテゴリのうちの各カテゴリに対応する損失重みに基づいて、前記データ分類モデルを用いて該ラベル付きサンプルデータに対して分類を行う場合の損失情報を得ることと、
前記損失情報に基づいて、前記データ分類モデルを訓練することであって、前記データ分類モデルは、認識されるべきデータのカテゴリを決定するためのものである、ことと、
を含み、
前記該ラベル付きサンプルデータの分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、該ラベル付きサンプルデータに対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することは、
該ラベル付きサンプルデータの分類ラベル、各カテゴリにそれぞれ対応する頻度情報、該ラベル付きサンプルデータに対応する元サンプルデータのポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に基づいて、該ラベル付きサンプルデータに対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することを含み、
ここで、前記ポジティブサンプルカテゴリ集合に、該元サンプルデータに含まれる少なくとも1つのターゲット対象のカテゴリが含まれ、前記ネガティブサンプルカテゴリ集合に、該元サンプルデータに含まれない少なくとも1つのターゲット対象のカテゴリが含まれ
前記該ラベル付きサンプルデータの分類ラベル、各カテゴリにそれぞれ対応する頻度情報、該ラベル付きサンプルデータに対応する元サンプルデータのポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に基づいて、該ラベル付きサンプルデータに対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定することは、
いずれか1つのカテゴリに対して、
該ラベル付きサンプルデータの分類ラベルが、該ラベル付きサンプルデータが非背景のラベル付きサンプルデータであることを示し、該いずれか1つのカテゴリが前記ポジティブサンプルカテゴリ集合及び前記ネガティブサンプルカテゴリ集合に属せず、該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値未満であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第1所定の損失重み値として決定することを含む、データ分類モデルの訓練方法。
A method for training a data classification model executed by a computer device, comprising:
obtaining a labeled sample data set, wherein the labeled sample data set includes a plurality of labeled sample data and a classification label respectively corresponding to each labeled sample image;
Determining frequency information respectively corresponding to each of a plurality of predetermined categories based on the labeled sample data and classification labels respectively corresponding to each of the labeled sample data;
For each labeled sample data, based on the classification label of the labeled sample data and the frequency information respectively corresponding to each category, each category of a plurality of predetermined categories for the labeled sample data determining loss weights corresponding to
Obtaining loss information when classifying the labeled sample data using the data classification model based on a loss weight corresponding to each category of a plurality of predetermined categories;
training the data classification model based on the loss information, the data classification model for determining categories of data to be recognized;
including
Determining a loss weight corresponding to each of a plurality of predetermined categories for the labeled sample data based on the classification label of the labeled sample data and frequency information corresponding to each category. teeth,
Based on the classification label of the labeled sample data, the frequency information corresponding to each category, and the positive sample category set and negative sample category set of the original sample data corresponding to the labeled sample data, for the labeled sample data determining a loss weight corresponding to each category of a predetermined plurality of categories,
wherein the positive sample category set includes at least one target category included in the original sample data, and the negative sample category set includes at least one target category not included in the original sample data includes
Based on the classification label of the labeled sample data, the frequency information corresponding to each category, and the positive sample category set and negative sample category set of the original sample data corresponding to the labeled sample data, to the labeled sample data In contrast, determining a loss weight corresponding to each category of a given plurality of categories is
for any one category
The classification label of the labeled sample data indicates that the labeled sample data is non-background labeled sample data, and any one category belongs to the positive sample category set and the negative sample category set. first, if it is determined that the frequency information corresponding to the one category is less than a predetermined frequency threshold, determining the loss weight corresponding to the one category as a first predetermined loss weight value; How to train a data classification model, including
コンピュータ機器により実行されるデータ処理方法であって、
事前訓練されたデータ分類モデルに基づいて、データ処理タスクを実行することを含み、
前記データ分類モデルは、請求項に記載のデータ分類モデルの訓練方法で訓練されたものであり、
前記データ処理タスクは、データ分類、データセグメンテーション、インスタンスセグメンテーションのうちの1つ又は複数を含み、
前記データは、画像データ及びテキストデータのうちのいずれか1つを含む、データ処理方法。
A data processing method performed by a computer device, comprising:
performing a data processing task based on a pre-trained data classification model;
The data classification model is trained by the data classification model training method according to claim 7 ,
the data processing task includes one or more of data classification, data segmentation, instance segmentation;
A data processing method, wherein the data includes any one of image data and text data.
画像分類モデル訓練装置であって、
ラベル付きサンプル画像集合を取得するように構成される第1取得モジュールであって、前記ラベル付きサンプル画像集合に複数のラベル付きサンプル画像及び各ラベル付きサンプル画像にそれぞれ対応する分類ラベルが含まれる、第1取得モジュールと、
前記ラベル付きサンプル画像及び各前記ラベル付きサンプル画像にそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリにそれぞれ対応する頻度情報を決定するように構成される第1頻度情報決定モジュールと、
各ラベル付きサンプル画像に対して、該ラベル付きサンプル画像の分類ラベル及び各カテゴリにそれぞれ対応する前記頻度情報に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定し、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みに基づいて、画像分類モデルを用いて該ラベル付きサンプル画像に対して分類を行う場合の損失情報を得るように構成される第1損失情報決定モジュールと、
前記損失情報に基づいて、前記画像分類モデルを訓練するように構成される第1訓練モジュールであって、前記画像分類モデルは、認識されるべき画像のカテゴリを決定するためのものである、第1訓練モジュールと、を備え、
前記第1損失情報決定モジュールは、該ラベル付きサンプル画像の分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定する場合、
該ラベル付きサンプル画像の分類ラベル、各カテゴリにそれぞれ対応する頻度情報、該ラベル付きサンプル画像に対応する元サンプル画像のポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定するように構成され、 ここで、前記ポジティブサンプルカテゴリ集合に、該元サンプル画像に含まれる少なくとも1つのターゲット対象のカテゴリが含まれ、前記ネガティブサンプルカテゴリ集合に、該元サンプル画像に含まれない少なくとも1つのターゲット対象のカテゴリが含まれ
前記第1損失情報決定モジュールは、該ラベル付きサンプル画像の分類ラベル、各カテゴリにそれぞれ対応する頻度情報、該ラベル付きサンプル画像に対応する元サンプル画像のポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に基づいて、該ラベル付きサンプル画像に対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定する場合、
いずれか1つのカテゴリに対して、
該ラベル付きサンプル画像の分類ラベルが、該ラベル付きサンプル画像が非背景のラベル付きサンプル画像であることを示し、該いずれか1つのカテゴリが前記ポジティブサンプルカテゴリ集合及び前記ネガティブサンプルカテゴリ集合に属せず、該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値未満であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第1所定の損失重み値として決定するように構成される、画像分類モデル訓練装置。
An image classification model training device comprising:
a first acquisition module configured to acquire a set of labeled sample images, wherein the set of labeled sample images includes a plurality of labeled sample images and a classification label respectively corresponding to each labeled sample image; a first acquisition module;
First frequency information configured to determine frequency information respectively corresponding to each category of a predetermined plurality of categories based on the labeled sample images and classification labels respectively corresponding to each labeled sample image. a decision module;
For each labeled sample image, based on the classification label of the labeled sample image and the frequency information respectively corresponding to each category, each category of a plurality of predetermined categories for the labeled sample image and loss information when classifying the labeled sample image using an image classification model based on the loss weight corresponding to each category of a plurality of predetermined categories. a first loss information determination module configured to obtain;
a first training module configured to train the image classification model based on the loss information, the image classification model for determining categories of images to be recognized; 1 training module;
The first loss information determination module assigns the labeled sample image to each of a plurality of predetermined categories based on the classification label of the labeled sample image and frequency information corresponding to each category. When determining the corresponding loss weights,
Based on the classification label of the labeled sample image, the frequency information corresponding to each category, and the positive sample category set and negative sample category set of the original sample image corresponding to the labeled sample image, for the labeled sample image determining a loss weight corresponding to each category of a predetermined plurality of categories, wherein said positive sample category set includes at least one target subject category included in said original sample image; wherein the negative sample category set includes at least one target subject category not included in the original sample image ;
The first loss information determination module is based on the classification labels of the labeled sample images, frequency information respectively corresponding to each category, a positive sample category set and a negative sample category set of the original sample images corresponding to the labeled sample images. to determine a loss weight corresponding to each of a plurality of predetermined categories for the labeled sample image,
for any one category
The classification label of the labeled sample image indicates that the labeled sample image is a non-background labeled sample image, and any one category belongs to the positive sample category set and the negative sample category set. first, if it is determined that the frequency information corresponding to the one category is less than a predetermined frequency threshold, then determining the loss weight corresponding to the one category as a first predetermined loss weight value; An image classification model training device, comprising :
画像処理装置であって、
事前訓練された画像分類モデルに基づいて、画像処理タスクを実行するように構成される第1処理モジュールを備え、
前記画像分類モデルは、請求項1~のうちいずれか一項に記載の画像分類モデルの訓練方法で訓練されたものであり、
前記画像処理タスクは、画像分類、対象検出、キーポイント検出、画像セグメンテーション、インスタンスセグメンテーションのうちの1つ又は複数を含む、画像処理装置。
An image processing device,
a first processing module configured to perform an image processing task based on a pre-trained image classification model;
The image classification model is trained by the image classification model training method according to any one of claims 1 to 5 ,
The image processing apparatus, wherein the image processing tasks include one or more of image classification, object detection, keypoint detection, image segmentation, instance segmentation.
データ分類モデル訓練装置であって、
ラベル付きサンプルデータ集合を取得するように構成される第2取得モジュールであって、前記ラベル付きサンプルデータ集合に複数のラベル付きサンプルデータ及び各ラベル付きサンプル画像にそれぞれ対応する分類ラベルが含まれる、第2取得モジュールと、
前記ラベル付きサンプルデータ及び各前記ラベル付きサンプルデータにそれぞれ対応する分類ラベルに基づいて、所定の複数のカテゴリのうちの各カテゴリにそれぞれ対応する頻度情報を決定するように構成される第2頻度情報決定モジュールと、
各ラベル付きサンプルデータに対して、該ラベル付きサンプルデータの分類ラベル及び各カテゴリにそれぞれ対応する前記頻度情報に基づいて、該ラベル付きサンプルデータに対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定し、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みに基づいて、データ分類モデルを用いて該ラベル付きサンプルデータに対して分類を行う場合の損失情報を得るように構成される第2損失情報決定モジュールと、
前記損失情報に基づいて、前記データ分類モデルを訓練するように構成される第2訓練モジュールであって、前記データ分類モデルは、認識されるべきデータのカテゴリを決定するためのものである、第2訓練モジュールと、を備え、
前記第2損失情報決定モジュールは、該ラベル付きサンプルデータの分類ラベル及び各カテゴリにそれぞれ対応する頻度情報に基づいて、該ラベル付きサンプルデータに対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定する場合、
該ラベル付きサンプルデータの分類ラベル、各カテゴリにそれぞれ対応する頻度情報、該ラベル付きサンプルデータに対応する元サンプルデータのポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に基づいて、該ラベル付きサンプルデータに対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定するように構成され、
ここで、前記ポジティブサンプルカテゴリ集合に、該元サンプルデータに含まれる少なくとも1つのターゲット対象のカテゴリが含まれ、前記ネガティブサンプルカテゴリ集合に、該元サンプルデータに含まれない少なくとも1つのターゲット対象のカテゴリが含まれ
前記第2損失情報決定モジュールは、該ラベル付きサンプルデータの分類ラベル、各カテゴリにそれぞれ対応する頻度情報、該ラベル付きサンプルデータに対応する元サンプルデータのポジティブサンプルカテゴリ集合及びネガティブサンプルカテゴリ集合に基づいて、該ラベル付きサンプルデータに対して、所定の複数のカテゴリのうちの各カテゴリに対応する損失重みを決定する場合、
いずれか1つのカテゴリに対して、
該ラベル付きサンプルデータの分類ラベルが、該ラベル付きサンプルデータが非背景のラベル付きサンプルデータであることを示し、該いずれか1つのカテゴリが前記ポジティブサンプルカテゴリ集合及び前記ネガティブサンプルカテゴリ集合に属せず、該いずれか1つのカテゴリに対応する頻度情報が所定の頻度閾値未満であると決定した場合、該いずれか1つのカテゴリに対応する損失重みを第1所定の損失重み値として決定するように構成される、データ分類モデル訓練装置。
A data classification model training device comprising:
a second acquisition module configured to acquire a labeled sample data set, wherein the labeled sample data set includes a plurality of labeled sample data and a classification label respectively corresponding to each labeled sample image; a second acquisition module;
Second frequency information configured to determine frequency information respectively corresponding to each of a plurality of predetermined categories based on the labeled sample data and classification labels respectively corresponding to each of the labeled sample data. a decision module;
For each labeled sample data, based on the classification label of the labeled sample data and the frequency information respectively corresponding to each category, each category of a plurality of predetermined categories for the labeled sample data and determining loss information when classifying the labeled sample data using a data classification model based on the loss weight corresponding to each category of a plurality of predetermined categories. a second loss information determination module configured to obtain
a second training module configured to train the data classification model based on the loss information, the data classification model for determining categories of data to be recognized; 2 training modules;
The second loss information determination module, based on the classification label of the labeled sample data and frequency information respectively corresponding to each category, assigns the labeled sample data to each of a plurality of predetermined categories. When determining the corresponding loss weights,
Based on the classification label of the labeled sample data, the frequency information corresponding to each category, and the positive sample category set and negative sample category set of the original sample data corresponding to the labeled sample data, for the labeled sample data is configured to determine a loss weight corresponding to each category of a predetermined plurality of categories,
wherein the positive sample category set includes at least one target category included in the original sample data, and the negative sample category set includes at least one target category not included in the original sample data includes
The second loss information determination module is based on a classification label of the labeled sample data, frequency information corresponding to each category, and a positive sample category set and a negative sample category set of original sample data corresponding to the labeled sample data. to determine a loss weight corresponding to each of a plurality of predetermined categories for the labeled sample data,
for any one category
The classification label of the labeled sample data indicates that the labeled sample data is non-background labeled sample data, and any one category belongs to the positive sample category set and the negative sample category set. first, if it is determined that the frequency information corresponding to the one category is less than a predetermined frequency threshold, then determining the loss weight corresponding to the one category as a first predetermined loss weight value; A data classification model trainer, comprising :
データ処理装置であって、
事前訓練されたデータ分類モデルに基づいて、データ処理タスクを実行するように構成される第2処理モジュールを備え、
前記データ分類モデルは、請求項に記載のデータ分類モデルの訓練方法で訓練されたものであり、
前記データ処理タスクは、データ分類、データセグメンテーション、インスタンスセグメンテーションのうちの1つ又は複数を含み、
前記データは、画像データ及びテキストデータのうちのいずれか1つを含む、データ処理装置。
A data processing device,
a second processing module configured to perform a data processing task based on the pre-trained data classification model;
The data classification model is trained by the data classification model training method according to claim 7 ,
the data processing task includes one or more of data classification, data segmentation, instance segmentation;
The data processing device, wherein the data includes any one of image data and text data.
コンピュータ機器であって、前記コンピュータ機器は、プロセッサと、メモリと、バスと、を備え、前記メモリに、前記プロセッサによる実行可能な機器可読命令が記憶されており、コンピュータ機器が運転される場合、前記プロセッサと前記メモリとは、バスを介して通信し、前記プロセッサが前記機器可読命令を実行して、請求項1~のうちいずれか一項に記載の画像分類モデルの訓練方法のステップを実行し、又は、請求項に記載の画像処理方法のステップを実行し、又は、請求項に記載のデータ分類モデルの訓練方法のステップを実行し、又は、請求項に記載のデータ処理方法のステップを実行する、コンピュータ機器。 A computer device, said computer device comprising a processor, a memory, and a bus, wherein said memory stores machine-readable instructions executable by said processor, and when the computer device operates: The processor and the memory communicate via a bus, and the processor executes the machine-readable instructions to perform the steps of the method for training an image classification model according to any one of claims 1-5 . or perform the steps of the image processing method of claim 6 , or perform the steps of the data classification model training method of claim 7 , or perform the data processing of claim 8 A computer device that performs the steps of a method. コンピュータ可読記憶媒体であって、該コンピュータ可読記憶媒体に、コンピュータプログラムが記憶されており、該コンピュータプログラムがプロセッサにより実行される場合、前記プロセッサに、請求項1~のうちいずれか一項に記載の画像分類モデルの訓練方法のステップを実行させ、又は、請求項に記載の画像処理方法のステップを実行させ、又は、請求項に記載のデータ分類モデルの訓練方法のステップを実行させ、又は、請求項に記載のデータ処理方法のステップを実行させる、コンピュータ可読記憶媒体。 A computer-readable storage medium, in which a computer program is stored, and when the computer program is executed by a processor, the processor executes the program according to any one of claims 1 to 5 Execute the steps of the image classification model training method according to claim 6, or execute the steps of the image processing method according to claim 6 , or execute the steps of the data classification model training method according to claim 7 . , or a computer readable storage medium for performing the steps of the data processing method according to claim 8 . コンピュータプログラムであって、該コンピュータプログラムがプロセッサにより実行される場合、前記プロセッサに、請求項1~のうちいずれか一項に記載の画像分類モデルの訓練方法のステップを実行させ、又は、請求項に記載の画像処理方法のステップを実行させ、又は、請求項に記載のデータ分類モデルの訓練方法のステップを実行させ、又は、請求項に記載のデータ処理方法のステップを実行させる、コンピュータプログラム。 A computer program which, when executed by a processor, causes said processor to perform the steps of the method for training an image classification model according to any one of claims 1 to 5 , or Execution of the steps of the image processing method according to claim 6 , or execution of the steps of the data classification model training method of claim 7 , or execution of the steps of the data processing method according to claim 8 . , a computer program.
JP2021522979A 2019-11-11 2019-12-23 Image classification model training method, image processing method and apparatus Active JP7266674B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201911097069.X 2019-11-11
CN201911097069.XA CN110837869A (en) 2019-11-11 2019-11-11 Image classification model training method, image processing method and device
PCT/CN2019/127394 WO2021093096A1 (en) 2019-11-11 2019-12-23 Image classification model training method, image processing method and device

Publications (2)

Publication Number Publication Date
JP2022512065A JP2022512065A (en) 2022-02-02
JP7266674B2 true JP7266674B2 (en) 2023-04-28

Family

ID=69574764

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021522979A Active JP7266674B2 (en) 2019-11-11 2019-12-23 Image classification model training method, image processing method and apparatus

Country Status (5)

Country Link
JP (1) JP7266674B2 (en)
KR (1) KR20210062687A (en)
CN (1) CN110837869A (en)
TW (1) TWI752455B (en)
WO (1) WO2021093096A1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111429448B (en) * 2020-04-09 2023-07-18 常州奥创医疗科技有限公司 Biological fluorescent target counting method based on weak segmentation information
CN111783635A (en) * 2020-06-30 2020-10-16 北京百度网讯科技有限公司 Image annotation method, device, equipment and storage medium
TWI812888B (en) * 2020-10-14 2023-08-21 財團法人工業技術研究院 Image recognition method and image recognition system
CN112418327A (en) * 2020-11-25 2021-02-26 Oppo广东移动通信有限公司 Training method and device of image classification model, electronic equipment and storage medium
CN112651938B (en) * 2020-12-24 2023-12-19 平安科技(深圳)有限公司 Training method, device, equipment and storage medium for video disc image classification model
TWI771010B (en) * 2021-05-20 2022-07-11 鴻海精密工業股份有限公司 Defect detection method, computer device, and storage medium
CN113222043B (en) * 2021-05-25 2024-02-02 北京有竹居网络技术有限公司 Image classification method, device, equipment and storage medium
CN114331379B (en) * 2021-12-31 2023-08-15 北京百度网讯科技有限公司 Method for outputting task to be handled, model training method and device
TWI806500B (en) * 2022-03-18 2023-06-21 廣達電腦股份有限公司 Image classifying device and method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017162456A (en) 2016-03-11 2017-09-14 株式会社東芝 Training of restricted deconvolution network for semantic segmentation of road scene
CN109829399A (en) 2019-01-18 2019-05-31 武汉大学 A kind of vehicle mounted road scene point cloud automatic classification method based on deep learning
WO2019150813A1 (en) 2018-01-30 2019-08-08 富士フイルム株式会社 Data processing device and method, recognition device, learning data storage device, machine learning device, and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8655805B2 (en) * 2010-08-30 2014-02-18 International Business Machines Corporation Method for classification of objects in a graph data stream
CN103366013B (en) * 2013-07-29 2016-03-02 腾讯科技(深圳)有限公司 A kind of method of data processing and server
CN106021364B (en) * 2016-05-10 2017-12-12 百度在线网络技术(北京)有限公司 Foundation, image searching method and the device of picture searching dependency prediction model
CN106096538B (en) * 2016-06-08 2019-08-23 中国科学院自动化研究所 Face identification method and device based on sequencing neural network model
CN107609461A (en) * 2017-07-19 2018-01-19 阿里巴巴集团控股有限公司 The training method of model, the determination method, apparatus of data similarity and equipment
CN108229541B (en) * 2017-12-11 2021-09-28 上海海事大学 Shore bridge middle pull rod stress data classification method based on K nearest neighbor algorithm
CN108229555B (en) * 2017-12-29 2019-10-25 深圳云天励飞技术有限公司 Sample weights distribution method, model training method, electronic equipment and storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017162456A (en) 2016-03-11 2017-09-14 株式会社東芝 Training of restricted deconvolution network for semantic segmentation of road scene
WO2019150813A1 (en) 2018-01-30 2019-08-08 富士フイルム株式会社 Data processing device and method, recognition device, learning data storage device, machine learning device, and program
CN109829399A (en) 2019-01-18 2019-05-31 武汉大学 A kind of vehicle mounted road scene point cloud automatic classification method based on deep learning

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Linhui Li, et al.,Traffic Scene Segmentation Based on RGB-D Image and Deep Learning,IEEE Transactions on Intelligent Transportation Systems,2017年08月10日,Volume: 19, Issue: 5,https://ieeexplore.ieee.org/document/8007227
平松 侑樹,外1名,Attention moduleを用いた細胞画像のセグメンテーション,電子情報通信学会技術研究報告 Vol.118 No.412 [online],日本,一般社団法人電子情報通信学会,2019年01月15日,第118巻

Also Published As

Publication number Publication date
TWI752455B (en) 2022-01-11
TW202119288A (en) 2021-05-16
CN110837869A (en) 2020-02-25
KR20210062687A (en) 2021-05-31
JP2022512065A (en) 2022-02-02
WO2021093096A1 (en) 2021-05-20

Similar Documents

Publication Publication Date Title
JP7266674B2 (en) Image classification model training method, image processing method and apparatus
US10262272B2 (en) Active machine learning
CN109446430B (en) Product recommendation method and device, computer equipment and readable storage medium
CN109145766B (en) Model training method and device, recognition method, electronic device and storage medium
WO2021031825A1 (en) Network fraud identification method and device, computer device, and storage medium
CN103559504A (en) Image target category identification method and device
CN109214407B (en) Event detection model, method and device, computing equipment and storage medium
CN111831826B (en) Training method, classification method and device of cross-domain text classification model
CN111209398A (en) Text classification method and system based on graph convolution neural network
CN108052505A (en) Text emotion analysis method and device, storage medium, terminal
JP6751816B2 (en) New training data set generation method and new training data set generation device
CN111382248A (en) Question reply method and device, storage medium and terminal equipment
CN109960791A (en) Judge the method and storage medium, terminal of text emotion
CN113657483A (en) Model training method, target detection method, device, equipment and storage medium
JPWO2014073206A1 (en) Information processing apparatus and information processing method
JP6962123B2 (en) Label estimation device and label estimation program
CN113094478A (en) Expression reply method, device, equipment and storage medium
CN112529114A (en) Target information identification method based on GAN, electronic device and medium
Yousefnezhad et al. A new selection strategy for selective cluster ensemble based on diversity and independency
CN110111365B (en) Training method and device based on deep learning and target tracking method and device
CN111694954A (en) Image classification method and device and electronic equipment
CN112489689B (en) Cross-database voice emotion recognition method and device based on multi-scale difference countermeasure
WO2020088338A1 (en) Method and apparatus for building recognition model
CN113312445A (en) Data processing method, model construction method, classification method and computing equipment
CN112463964B (en) Text classification and model training method, device, equipment and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210426

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A603 Late request for extension of time limit during examination

Free format text: JAPANESE INTERMEDIATE CODE: A603

Effective date: 20221117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221118

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230307

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230307

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230315

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230418

R150 Certificate of patent or registration of utility model

Ref document number: 7266674

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150