JP7347202B2 - 分類モデルを訓練する装置と方法及び分類モデルを用いた分類装置 - Google Patents
分類モデルを訓練する装置と方法及び分類モデルを用いた分類装置 Download PDFInfo
- Publication number
- JP7347202B2 JP7347202B2 JP2019234844A JP2019234844A JP7347202B2 JP 7347202 B2 JP7347202 B2 JP 7347202B2 JP 2019234844 A JP2019234844 A JP 2019234844A JP 2019234844 A JP2019234844 A JP 2019234844A JP 7347202 B2 JP7347202 B2 JP 7347202B2
- Authority
- JP
- Japan
- Prior art keywords
- training
- layer
- sample image
- feature
- feature extraction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims description 359
- 238000013145 classification model Methods 0.000 title claims description 136
- 238000000034 method Methods 0.000 title claims description 49
- 238000000605 extraction Methods 0.000 claims description 153
- 230000004927 fusion Effects 0.000 claims description 129
- 230000000295 complement effect Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 5
- 230000006870 function Effects 0.000 description 53
- 238000013527 convolutional neural network Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biodiversity & Conservation Biology (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
第一所定数量の訓練集合のうちの各訓練集合に対してそれぞれ対応する数量の特徴抽出層を設定するように構成され、且つ、各サンプル画像について、該サンプル画像の属する訓練集合に対して設定される特徴抽出層を用いて、それぞれ、該サンプル画像の特徴を抽出し、該サンプル画像の抽出された特徴(抽出特徴)を取得するように構成される特徴抽出ユニットであって、前記第一所定数量の訓練集合のうちの少なくとも2つの訓練集合が少なくとも部分的に重畳(overlap)する特徴抽出ユニット;
前記第一所定数量の訓練集合に対してそれぞれ対応する数量の特徴融合層を設定するように構成され、且つ、各サンプル画像について、該サンプル画像の属する訓練集合に対して設定される特徴融合層を用いて、該サンプル画像の抽出された特徴に対して融合を行い、該サンプル画像の融合後の特徴を取得するように構成される特徴融合ユニット;及び
前記第一所定数量の訓練集合のうちの各訓練集合に対してそれぞれ損失確定層を設定するように構成され、且つ、各サンプル画像について、該サンプル画像の属する訓練集合に対して設定される損失確定層を用いて、該サンプル画像の融合後の特徴に基づいて該サンプル画像の損失関数を計算し、また、前記損失関数に基づいて前記分類モデルを訓練するように構成される損失確定ユニットを含み、
前記第一所定数量の訓練集合は、各訓練集合に対してそれぞれ設定される特徴融合層及び特徴抽出層のうちの少なくとも1つの層をシェアする。
第一所定数量の訓練集合のうちの各訓練集合に対してそれぞれ対応する数量の特徴抽出層を設定し、且つ各サンプル画像について、該サンプル画像の属する訓練集合に対して設定される特徴抽出層を用いて、それぞれ、該サンプル画像の特徴を抽出し、該サンプル画像の抽出された特徴を取得する特徴抽出ステップであって、前記第一所定数量の訓練集合のうちの少なくとも2つの訓練集合が少なくとも部分的に重畳する特徴抽出ステップ;
前記第一所定数量の訓練集合に対してそれぞれ対応する数量の特徴融合層を設定し、且つ各サンプル画像について、該サンプル画像の属する訓練集合に対して設定される特徴融合層を用いて、該サンプル画像の抽出された特徴に対して融合を行い、各サンプル画像の融合後の特徴を取得する特徴融合ステップ;及び
前記第一所定数量の訓練集合のうちの各訓練集合に対してそれぞれ損失確定層を設定し、且つ各サンプル画像について、該サンプル画像の属する訓練集合に対して設定される損失確定層を用いて、該サンプル画像の融合後の特徴に基づいて該サンプル画像の損失関数を計算し、また、前記損失関数に基づいて前記分類モデルを訓練する損失確定ステップを含み、
前記第一所定数量の訓練集合は、各訓練集合に対してそれぞれ設定される特徴抽出層及び特徴融合層のうちの少なくとも1つの層をシェアする。
前記分類モデルにおける、第一所定数量の訓練集合のうちの各訓練集合に対してそれぞれ設定される対応する数量の特徴抽出層を用いて、それぞれ、分類待ち画像の特徴を抽出し、前記分類待ち画像の抽出された特徴を取得するように構成される第二特徴抽出ユニット;
前記分類モデルにおける、前記第一所定数量の訓練集合のうちの各訓練集合に対してそれぞれ設定される対応する数量の特徴融合層を用いて、前記分類待ち画像の抽出された特徴に対して融合を行い、前記分類待ち画像の融合後の特徴を取得するように構成される第二特徴融合ユニット;及び
前記分類モデルにおける、前記第一所定数量の訓練集合に対してそれぞれ設定される損失確定層を用いて、前記分類待ち画像の融合後の特徴に基づいて前記分類待ち画像の損失関数を計算し、また、前記損失関数に基づいて前記分類待ち画像に対して分類を行うように構成される第二損失確定ユニットを含み、
前記分類モデルでは、前記第一所定数量の訓練集合が各訓練集合に対してそれぞれ設定される特徴融合層及び特徴抽出層のうちの少なくとも1つの層をシェアする。
分類モデルを訓練する装置であって、
第一所定数量の訓練集合のうちの各訓練集合に対してそれぞれ対応する数量の特徴抽出層を設定するように構成され、且つ各サンプル画像について、該サンプル画像の属する訓練集合に対して設定される前記特徴抽出層を用いて、それぞれ、該サンプル画像の特徴を抽出し、該サンプル画像の抽出された特徴を取得するように構成され、前記第一所定数量の訓練集合のうちの少なくとも2つの訓練集合が少なくとも部分的に重畳する特徴抽出ユニット;
前記第一所定数量の訓練集合のうちの各訓練集合に対してそれぞれ対応する数量の特徴融合層を設定するように構成され、且つ各サンプル画像について、該サンプル画像の属する訓練集合に対して設定される特徴融合層を用いて、該サンプル画像の抽出された特徴に対して融合を行い、該サンプル画像の融合後の特徴を取得するように構成される特徴融合ユニット;及び
前記第一所定数量の訓練集合のうちの各訓練集合に対してそれぞれ損失確定層を設定するように構成され、且つ各サンプル画像について、該サンプル画像の属する訓練集合に対して設定される損失確定層を用いて、該サンプル画像の融合後の特徴に基づいて該サンプル画像の損失関数を計算し、また、前記損失関数に基づいて前記分類モデルを訓練するように構成される損失確定ユニットを含み、
前記第一所定数量の訓練集合は、各訓練集合に対してそれぞれ設定される特徴融合層及び特徴抽出層のうちの少なくとも1つの層をシェアする、装置。
付記1に記載の分類モデルを訓練する装置であって、
各訓練集合に対してそれぞれ設定される特徴融合層は、複数の特徴融合層を含み、また、前記第一所定数量の訓練集合は、各訓練集合に対してそれぞれ設定される前記複数の特徴融合層のうちの少なくとも1つの層をシェアしない、装置。
付記1に記載の分類モデルを訓練する装置であって、
各サンプル画像について、該サンプル画像の第二所定数量のローカル領域を得るように構成され、各ローカル領域が前記サンプル画像のグローバル領域における一部であるローカル領域取得ユニットをさらに含み、
前記特徴抽出ユニットは、前記グローバル領域及び各所定ローカル領域に対して対応する数量の特徴抽出層をそれぞれ設定し、それぞれ、前記グローバル領域のグローバル特徴及び各所定ローカル領域のローカル特徴を抽出するように構成され、
前記第一所定数量の訓練集合は、各訓練集合中のサンプル画像の前記グローバル領域に対して設定される特徴抽出層のうちの少なくとも1つの層をシェアする、装置。
付記3に記載の分類モデルを訓練する装置であって、
前記第一所定数量の訓練集合は、さらに、各訓練集合中のサンプル画像の所定ローカル領域のうちの少なくとも1つの所定ローカル領域に対して設定される特徴抽出層のうちの少なくとも1つの層をシェアする、装置。
付記3に記載の分類モデルを訓練する装置であって、
前記特徴抽出ユニットでは、前記グローバル領域及び前記第二所定数量の所定ローカル領域が前記グローバル領域及び各所定ローカル領域に対してそれぞれ設定される特徴抽出層のうちの少なくとも1つの層をシェアし、シェアされる前記少なくとも1つの層において前記グローバル特徴と各ローカル特徴とを結合し、各サンプル画像の結合後の特徴を取得する、装置。
付記5に記載の分類モデルを訓練する装置であって、
前記損失確定ユニットは、各サンプル画像について、該サンプル画像の属する訓練集合に対して設定される損失確定層を用いて、該サンプル画像の結合後の特徴に基づいて該サンプル画像の前記損失関数を計算し、また、前記損失関数に基づいて前記分類モデルを訓練するように構成される、装置。
付記3に記載の分類モデルを訓練する装置であって、
前記第二所定数量のローカル領域は、前記グローバル領域に関する相補的情報を有する、装置。
付記1に記載の分類モデルを訓練する装置であって、
前記特徴抽出層は、畳み込みニューラルネットワークの畳み込み層であり、前記特徴融合層は、前記畳み込みニューラルネットワークの全結合層である、装置。
分類モデルを訓練する方法であって、
第一所定数量の訓練集合のうちの各訓練集合に対してそれぞれ対応する数量の特徴抽出層を設定し、且つ各サンプル画像について、該サンプル画像の属する訓練集合に対して設定される特徴抽出層を用いて、それぞれ、該サンプル画像の特徴を抽出し、該サンプル画像の抽出された特徴を取得する特徴抽出ステップであって、前記第一所定数量の訓練集合のうちの少なくとも2つの訓練集合が少なくとも部分的に重畳する特徴抽出ステップ;
前記第一所定数量の訓練集合のうちの各訓練集合に対してそれぞれ対応する数量の特徴融合層を設定し、且つ各サンプル画像について、該サンプル画像の属する訓練集合に対して設定される特徴融合層を用いて、該サンプル画像の抽出された特徴に対して融合を行い、各サンプル画像の融合後の特徴を取得する特徴融合ステップ;及び
前記第一所定数量の訓練集合のうちの各訓練集合に対してそれぞれ損失確定層を設定し、且つ各サンプル画像について、該サンプル画像の属する訓練集合に対して設定される損失確定層を用いて、該サンプル画像の融合後の特徴に基づいて該サンプル画像の損失関数を計算し、また、前記損失関数に基づいて前記分類モデルを訓練する損失確定ステップを含み、
前記第一所定数量の訓練集合は、各訓練集合に対してそれぞれ設定される特徴抽出層及び特徴融合層のうちの少なくとも1つの層をシェアする、方法。
付記9に記載の分類モデルを訓練する方法であって、
各訓練集合に対してそれぞれ設定される特徴融合層は、複数の特徴融合層を含み、前記第一所定数量の訓練集合は、各訓練集合に対してそれぞれ設定される前記複数の特徴融合層のうちの少なくとも1つの層をシェアしない、方法。
付記9に記載の分類モデルを訓練する方法であって、
ローカル領域取得ステップをさらに含み、該ステップでは、各サンプル画像について、該サンプル画像の第二所定数量のローカル領域を取得し、各ローカル領域は、前記サンプル画像のグローバル領域における一部であり、
前記特徴抽出ステップでは、前記グローバル領域及び各所定ローカル領域に対してそれぞれ対応する数量の特徴抽出層を設定し、それぞれ、前記グローバル領域のグローバル特徴及び各所定ローカル領域のローカル特徴を抽出し、
前記第一所定数量の訓練集合は、各訓練集合中のサンプル画像の前記グローバル領域に対して設定される特徴抽出層のうちの少なくとも1つの層をシェアする、方法。
付記11に記載の分類モデルを訓練する方法であって、
前記第一所定数量の訓練集合は、さらに、各訓練集合中のサンプル画像の所定ローカル領域のうちの少なくとも1つの所定ローカル領域に対して設定される特徴抽出層のうちの少なくとも1つの層をシェアする、方法。
付記11に記載の分類モデルを訓練する方法であって、
前記特徴抽出ステップでは、前記グローバル領域及び前記第二所定数量の所定ローカル領域が前記グローバル領域及び各所定ローカル領域に対してそれぞれ設定される特徴抽出層のうちの少なくとも1つの層をシェアし、シェアされる前記少なくとも1つの層において前記グローバル特徴と各ローカル特徴とを結合し、各サンプル画像の結合後の特徴を取得する、方法。
付記13に記載の分類モデルを訓練する方法であって、
前記損失確定ステップでは、各サンプル画像について、該サンプル画像の属する訓練集合に対して設定される損失確定層を用いて、該サンプル画像の結合後の特徴に基づいて該サンプル画像の前記損失関数を計算し、また、前記損失関数に基づいて前記分類モデルを訓練する、方法。
付記11に記載の分類モデルを訓練する方法であって、
前記第二所定数量のローカル領域は、前記グローバル領域に関する相補的情報を有する、方法。
付記9に記載の分類モデルを訓練する方法であって、
前記特徴抽出層は、畳み込みニューラルネットワークの畳み込み層であり、前記特徴融合層は、前記畳み込みニューラルネットワークの全結合層である、方法。
分類モデルを用いて分類を行う装置であって、
前記分類モデルにおける、第一所定数量の訓練集合のうちの各訓練集合に対してそれぞれ設定される対応する数量の特徴抽出層を用いて、それぞれ、分類待ち画像の特徴を抽出し、前記分類待ち画像の抽出された特徴を取得するように構成される第二特徴抽出ユニット;
前記分類モデルにおける、前記第一所定数量の訓練集合のうちの各訓練集合に対してそれぞれ設定される対応する数量の特徴融合層を用いて、前記分類待ち画像の抽出された特徴に対して融合を行い、前記分類待ち画像の融合後の特徴を取得するように構成される第二特徴融合ユニット;及び
前記分類モデルにおける、前記第一所定数量の訓練集合に対してそれぞれ設定される損失確定層を用いて、前記分類待ち画像の融合後の特徴に基づいて前記分類待ち画像の損失関数を計算し、また、前記損失関数に基づいて前記分類待ち画像に対して分類を行うように構成される第二損失確定ユニットを含み、
前記分類モデルでは、前記第一所定数量の訓練集合は、各訓練集合に対してそれぞれ設定される特徴融合層及び特徴抽出層のうちの少なくとも1つの層をシェアする、装置。
付記17に記載の分類モデルを用いて分類を行う装置であって、
前記分類待ち画像の第二所定数量のローカル領域を取得するように構成される第二ローカル領域取得ユニットであって、各ローカル領域が前記分類待ち画像のグローバル領域における一部である第二ローカル領域取得ユニットをさらに含み、
前記第二特徴抽出ユニットは、さらに、前記分類モデルにおける、前記グローバル領域及び各ローカル領域に対して設定される特徴抽出層を用いて、それぞれ、前記グローバル領域のグローバル特徴及び各所定ローカル領域のローカル特徴を抽出するように構成され、前記分類モデルでは、前記グローバル領域及び前記第二所定数量の所定ローカル領域が前記グローバル領域及び各所定ローカル領域に対してそれぞれ設定される特徴抽出層のうちの少なくとも1つの層をシェアし、シェアされる前記少なくとも1つの層において前記グローバル特徴と各ローカル特徴とを結合し、前記分類待ち画像の結合後の特徴を取得し、
前記第二損失確定ユニットは、さらに、前記分類モデルにおける、前記第一所定数量の訓練集合に対してそれぞれ設定される損失確定層を用いて、前記分類待ち画像の結合後の特徴に基づいて前記分類待ち画像の損失関数を計算し、また、前記損失関数に基づいて前記分類待ち画像に対して分類を行うように構成される、装置。
Claims (10)
- 分類モデルを訓練する装置であって、
第一所定数量の訓練集合のうちの各訓練集合に対してそれぞれ対応する数量の特徴抽出層を設定するように構成され、各サンプル画像について、該サンプル画像の属する訓練集合に対して設定される前記特徴抽出層を用いて、それぞれ、該サンプル画像の特徴を抽出し、該サンプル画像の抽出特徴を取得するように構成される特徴抽出ユニットであって、前記第一所定数量の訓練集合のうちの少なくとも2つの訓練集合が少なくとも部分的に重畳する特徴抽出ユニット;
前記第一所定数量の訓練集合のうちの各訓練集合に対してそれぞれ対応する数量の特徴融合層を設定するように構成され、各サンプル画像について、該サンプル画像の属する訓練集合に対して設定される特徴融合層を用いて、該サンプル画像の抽出特徴に対して融合を行い、該サンプル画像の融合後の特徴を取得するように構成される特徴融合ユニット;及び
前記第一所定数量の訓練集合のうちの各訓練集合に対してそれぞれ損失確定層を設定するように構成され、各サンプル画像について、該サンプル画像の属する訓練集合に対して設定される損失確定層を用いて、該サンプル画像の融合後の特徴に基づいて該サンプル画像の損失関数を計算し、前記損失関数に基づいて前記分類モデルを訓練するように構成される損失確定ユニットを含み、
前記第一所定数量の訓練集合は、各訓練集合に対してそれぞれ設定される特徴融合層及び特徴抽出層のうちの少なくとも1つの層をシェアする、装置。 - 請求項1に記載の装置であって、
各訓練集合に対してそれぞれ設定される特徴融合層は、複数の特徴融合層を含み、
前記第一所定数量の訓練集合は、各訓練集合に対してそれぞれ設定される前記複数の特徴融合層のうちの少なくとも1つの層をシェアしない、装置。 - 請求項1に記載の装置であって、
各サンプル画像について、該サンプル画像の第二所定数量のローカル領域を得るように構成されるローカル領域取得ユニットであって、各ローカル領域が前記サンプル画像のグローバル領域における一部であるローカル領域取得ユニットをさらに含み、
前記特徴抽出ユニットは、前記グローバル領域及び各所定ローカル領域に対して対応する数量の特徴抽出層をそれぞれ設定し、それぞれ、前記グローバル領域のグローバル特徴及び各所定ローカル領域のローカル特徴を抽出するように構成され、
前記第一所定数量の訓練集合は、各訓練集合中のサンプル画像の前記グローバル領域に対して設定される特徴抽出層のうちの少なくとも1つの層をシェアする、装置。 - 請求項3に記載の装置であって、
前記第一所定数量の訓練集合は、さらに、各訓練集合中のサンプル画像の所定ローカル領域のうちの少なくとも1つの所定ローカル領域に対して設定される特徴抽出層のうちの少なくとも1つの層をシェアする、装置。 - 請求項3に記載の装置であって、
前記特徴抽出ユニットでは、前記グローバル領域及び前記第二所定数量の所定ローカル領域が前記グローバル領域及び各所定ローカル領域に対してそれぞれ設定される特徴抽出層のうちの少なくとも1つの層をシェアし、シェアされる前記少なくとも1つの層において前記グローバル特徴と各ローカル特徴とを結合し、各サンプル画像の結合後の特徴を取得する、装置。 - 請求項5に記載の装置であって、
前記損失確定ユニットは、各サンプル画像について、該サンプル画像の属する訓練集合に対して設定される損失確定層を用いて、該サンプル画像の結合後の特徴に基づいて該サンプル画像の前記損失関数を計算し、前記損失関数に基づいて前記分類モデルを訓練するように構成される、装置。 - 請求項3に記載の装置であって、
前記第二所定数量のローカル領域は、前記グローバル領域に関する相補的情報を有する、装置。 - 分類モデルを訓練する方法であって、
第一所定数量の訓練集合のうちの各訓練集合に対してそれぞれ対応する数量の特徴抽出層を設定し、各サンプル画像について、該サンプル画像の属する訓練集合に対して設定される特徴抽出層を用いて、それぞれ、該サンプル画像の特徴を抽出し、該サンプル画像の抽出特徴を取得する特徴抽出ステップであって、前記第一所定数量の訓練集合のうちの少なくとも2つの訓練集合が少なくとも部分的に重畳する特徴抽出ステップ;
前記第一所定数量の訓練集合のうちの各訓練集合に対してそれぞれ対応する数量の特徴融合層を設定し、各サンプル画像について、該サンプル画像の属する訓練集合に対して設定される特徴融合層を用いて、該サンプル画像の抽出特徴に対して融合を行い、各サンプル画像の融合後の特徴を取得する特徴融合ステップ;及び
前記第一所定数量の訓練集合のうちの各訓練集合に対してそれぞれ損失確定層を設定し、各サンプル画像について、該サンプル画像の属する訓練集合に対して設定される損失確定層を用いて、該サンプル画像の融合後の特徴に基づいて該サンプル画像の損失関数を計算し、前記損失関数に基づいて前記分類モデルを訓練する損失確定ステップを含み、
前記第一所定数量の訓練集合は、各訓練集合に対してそれぞれ設定される特徴抽出層及び特徴融合層のうちの少なくとも1つの層をシェアする、方法。 - 請求項8に記載の方法であって、
各訓練集合に対してそれぞれ設定される特徴融合層は、複数の特徴融合層を含み、
前記第一所定数量の訓練集合は、各訓練集合に対してそれぞれ設定される前記複数の特徴融合層のうちの少なくとも1つの層をシェアしない、方法。 - 分類モデルを用いて分類を行う装置であって、
前記分類モデルにおける、第一所定数量の訓練集合のうちの各訓練集合に対してそれぞれ設定される対応する数量の特徴抽出層を用いて、それぞれ、分類待ち画像の特徴を抽出し、前記分類待ち画像の抽出特徴を取得するように構成される第二特徴抽出ユニット;
前記分類モデルにおける、前記第一所定数量の訓練集合のうちの各訓練集合に対してそれぞれ設定される対応する数量の特徴融合層を用いて、前記分類待ち画像の抽出特徴に対して融合を行い、前記分類待ち画像の融合後の特徴を取得するように構成される第二特徴融合ユニット;及び
前記分類モデルにおける、前記第一所定数量の訓練集合に対してそれぞれ設定される損失確定層を用いて、前記分類待ち画像の融合後の特徴に基づいて前記分類待ち画像の損失関数を計算し、前記損失関数に基づいて前記分類待ち画像に対して分類を行うように構成される第二損失確定ユニットを含み、
前記分類モデルでは、前記第一所定数量の訓練集合が、各訓練集合に対してそれぞれ設定される特徴融合層及び特徴抽出層のうちの少なくとも1つの層をシェアする、装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910124176.0A CN111582009B (zh) | 2019-02-19 | 2019-02-19 | 训练分类模型的装置和方法及利用分类模型分类的装置 |
CN201910124176.0 | 2019-02-19 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020135857A JP2020135857A (ja) | 2020-08-31 |
JP7347202B2 true JP7347202B2 (ja) | 2023-09-20 |
Family
ID=69159649
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019234844A Active JP7347202B2 (ja) | 2019-02-19 | 2019-12-25 | 分類モデルを訓練する装置と方法及び分類モデルを用いた分類装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11514272B2 (ja) |
EP (1) | EP3699819A1 (ja) |
JP (1) | JP7347202B2 (ja) |
CN (1) | CN111582009B (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112101246A (zh) * | 2020-09-18 | 2020-12-18 | 济南博观智能科技有限公司 | 一种车辆识别方法、装置、设备及介质 |
CN112116005B (zh) * | 2020-09-18 | 2024-01-23 | 推想医疗科技股份有限公司 | 影像分类模型的训练方法及装置、存储介质和电子设备 |
CN112149754B (zh) * | 2020-09-30 | 2021-06-11 | 罗中岩 | 一种信息的分类方法、装置、设备及存储介质 |
CN112183669B (zh) * | 2020-11-04 | 2024-02-13 | 航天科工(北京)空间信息应用股份有限公司 | 图像分类方法和装置、设备及存储介质 |
CN112668586B (zh) | 2020-12-18 | 2024-05-14 | 北京百度网讯科技有限公司 | 模型训练、图片处理方法及设备、存储介质、程序产品 |
CN113723527A (zh) * | 2021-09-01 | 2021-11-30 | 重庆赛迪奇智人工智能科技有限公司 | 分类模型训练方法、瑕疵检测方法、装置和电子设备 |
CN114120433B (zh) * | 2021-11-30 | 2022-12-30 | 北京百度网讯科技有限公司 | 图像处理方法、图像处理装置、电子设备和介质 |
US20230196732A1 (en) * | 2021-12-20 | 2023-06-22 | Kla Corporation | Machine learning using a global texture characteristic for semiconductor-based applications |
CN115100472B (zh) * | 2022-06-20 | 2023-06-27 | 北京达佳互联信息技术有限公司 | 展示对象识别模型的训练方法、装置和电子设备 |
CN115376195B (zh) * | 2022-10-09 | 2023-01-13 | 珠海大横琴科技发展有限公司 | 训练多尺度网络模型的方法及人脸关键点检测方法 |
CN116630721B (zh) * | 2023-06-14 | 2024-02-13 | 电子科技大学中山学院 | 基于局部特征补全的图像分类方法、装置、设备及介质 |
CN116958954B (zh) * | 2023-07-27 | 2024-03-22 | 匀熵智能科技(无锡)有限公司 | 基于关键点与旁路矫正的车牌识别方法、装置及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016141282A1 (en) | 2015-03-04 | 2016-09-09 | The Regents Of The University Of California | Convolutional neural network with tree pooling and tree feature map selection |
JP2017513144A (ja) | 2014-04-11 | 2017-05-25 | ペキン センスタイム テクノロジー ディベロップメント カンパニー リミテッド | 顔認証方法およびシステム |
JP2021184169A (ja) | 2020-05-21 | 2021-12-02 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1065705A (ja) | 1996-08-15 | 1998-03-06 | Nec Corp | Lanエミュレーションのデータ転送高速化 |
US10755082B2 (en) * | 2016-10-25 | 2020-08-25 | Deep North, Inc. | Point to set similarity comparison and deep feature learning for visual recognition |
CN108171112B (zh) * | 2017-12-01 | 2021-06-01 | 西安电子科技大学 | 基于卷积神经网络的车辆识别与跟踪方法 |
CN109033938A (zh) * | 2018-06-01 | 2018-12-18 | 上海阅面网络科技有限公司 | 一种基于可区分性特征融合的人脸识别方法 |
US10303981B1 (en) * | 2018-10-04 | 2019-05-28 | StradVision, Inc. | Learning method and testing method for R-CNN based object detector, and learning device and testing device using the same |
CN109215027B (zh) * | 2018-10-11 | 2024-05-24 | 平安科技(深圳)有限公司 | 一种基于神经网络的车辆定损方法、服务器及介质 |
-
2019
- 2019-02-19 CN CN201910124176.0A patent/CN111582009B/zh active Active
- 2019-12-25 JP JP2019234844A patent/JP7347202B2/ja active Active
-
2020
- 2020-01-07 US US16/736,180 patent/US11514272B2/en active Active
- 2020-01-13 EP EP20151409.8A patent/EP3699819A1/en not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017513144A (ja) | 2014-04-11 | 2017-05-25 | ペキン センスタイム テクノロジー ディベロップメント カンパニー リミテッド | 顔認証方法およびシステム |
WO2016141282A1 (en) | 2015-03-04 | 2016-09-09 | The Regents Of The University Of California | Convolutional neural network with tree pooling and tree feature map selection |
JP2021184169A (ja) | 2020-05-21 | 2021-12-02 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20200265272A1 (en) | 2020-08-20 |
JP2020135857A (ja) | 2020-08-31 |
CN111582009A (zh) | 2020-08-25 |
CN111582009B (zh) | 2023-09-15 |
US11514272B2 (en) | 2022-11-29 |
EP3699819A1 (en) | 2020-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7347202B2 (ja) | 分類モデルを訓練する装置と方法及び分類モデルを用いた分類装置 | |
Zhang et al. | Uncertainty inspired RGB-D saliency detection | |
US11113513B2 (en) | Apparatus and method for training classification model and apparatus for classifying with classification model | |
Math et al. | Adaptive machine learning classification for diabetic retinopathy | |
JP2018200685A (ja) | 完全教師あり学習用のデータセットの形成 | |
CN111696196B (zh) | 一种三维人脸模型重建方法及装置 | |
CN110459317B (zh) | 基于动态脑网络图核的阿尔茨海默病辅助诊断系统及方法 | |
CN106127804A (zh) | 基于稀疏深度去噪自编码器的rgb‑d数据跨模式特征学习的目标跟踪方法 | |
CN111986180B (zh) | 基于多相关帧注意力机制的人脸伪造视频检测方法 | |
CN115631112B (zh) | 一种基于深度学习的建筑轮廓矫正方法及装置 | |
Ma et al. | Location-aware box reasoning for anchor-based single-shot object detection | |
Sun et al. | Weakly supervised segmentation of COVID-19 infection with local lesion coherence on CT images | |
CN113158860B (zh) | 基于深度学习多维度输出人脸质量评估方法与电子设备 | |
CN113505261A (zh) | 数据标注方法、装置以及数据标注模型训练方法、装置 | |
Wei et al. | Bidirectional attentional interaction networks for rgb-d salient object detection | |
JP7059889B2 (ja) | 学習装置、画像生成装置、学習方法、及び学習プログラム | |
Li et al. | CrackCLF: Automatic Pavement Crack Detection Based on Closed-Loop Feedback | |
CN112446292A (zh) | 一种2d图像显著目标检测方法及系统 | |
TW201706969A (zh) | 戶外停車場空位自動偵測方法 | |
Lu | Evaluation and Comparison of Deep Learning Methods for Pavement Crack Identification with Visual Images | |
CN117011617B (zh) | 基于二阶段教师-学生框架的肺结节检测装置及构建方法 | |
LIAN et al. | Prediction of Bone Age in the Wrist Bone Region Based on the TW3-C Carpal Method | |
Xu et al. | Learning to estimate smooth and accurate semantic correspondence | |
Huang et al. | LEPS: A lightweight and effective single-stage detector for pothole segmentation | |
Fang et al. | Artificial Intelligence: First CAAI International Conference, CICAI 2021, Hangzhou, China, June 5–6, 2021, Proceedings, Part I |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220908 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230726 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230808 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230821 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7347202 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |