JP2020004406A - 分類モデル訓練方法及び装置並びに分類方法及び装置 - Google Patents
分類モデル訓練方法及び装置並びに分類方法及び装置 Download PDFInfo
- Publication number
- JP2020004406A JP2020004406A JP2019115484A JP2019115484A JP2020004406A JP 2020004406 A JP2020004406 A JP 2020004406A JP 2019115484 A JP2019115484 A JP 2019115484A JP 2019115484 A JP2019115484 A JP 2019115484A JP 2020004406 A JP2020004406 A JP 2020004406A
- Authority
- JP
- Japan
- Prior art keywords
- loss
- waiting information
- class
- test waiting
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 127
- 238000013145 classification model Methods 0.000 title claims abstract description 103
- 238000012549 training Methods 0.000 title claims abstract description 102
- 238000012360 testing method Methods 0.000 claims abstract description 143
- 230000006837 decompression Effects 0.000 claims abstract description 13
- 238000007906 compression Methods 0.000 claims abstract description 11
- 230000006835 compression Effects 0.000 claims abstract description 10
- 238000000605 extraction Methods 0.000 claims abstract description 9
- 238000009826 distribution Methods 0.000 claims description 46
- 238000004364 calculation method Methods 0.000 claims description 23
- 238000012545 processing Methods 0.000 claims description 18
- 238000000926 separation method Methods 0.000 claims description 13
- 238000010257 thawing Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 description 52
- 238000003860 storage Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 5
- 239000004065 semiconductor Substances 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000013480 data collection Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
Description
分類モデルを訓練する方法であって、
サンプル処理ステップであって、
訓練集合中の各サンプルについて、それぞれ、
前記サンプルから特徴を抽出し;
抽出された特徴を、前記サンプルの低次元のヒドゥン特徴を表し得るように圧縮し;
前記ヒドゥン特徴を解凍し、解凍後の特徴を取得し;及び
前記解凍後の特徴に基づいて前記サンプルを再構成し、再構成後のサンプルを得る、ステップ;
前記ヒドゥン特徴に基づいて、前記訓練集合中の全てのサンプルについて再構成損失を計算する再構成損失計算ステップ;
前記訓練集合中の全てのサンプルについて、異なるクラスのサンプル間の分離度を示すクラス間損失を計算するクラス間損失計算ステップ;及び
前記再構成損失及び前記クラス間損失を含む損失関数を最小化し、訓練後の分類モデルを取得する分類モデル取得ステップを含む、方法。
付記1に記載の分類モデルを訓練する方法であって、
前記再構成損失は、各サンプルとその再構成後のサンプルとの間の差を示す生成損失、及び、前記ヒドゥン特徴の分布と特定分布との間のマッチ度を示すヒドゥン損失を含む、方法。
付記1に記載の分類モデルを訓練する方法であって、
前記クラス間損失計算ステップでは、各サンプルのヒドゥン特徴に基づいてsoftmax損失を前記クラス間損失として計算する、方法。
付記2に記載の分類モデルを訓練する方法であって、
前記クラス間損失計算ステップでは、各サンプルのヒドゥン特徴に基づいてsoftmax損失を前記クラス間損失として計算する、方法。
付記1に記載の分類モデルを訓練する方法であって、
各サンプルのヒドゥン特徴と該サンプルの属するクラスの中心ヒドゥン特徴との間の距離を示す中心損失を計算する中心損失計算ステップをさらに含み、
前記損失関数は、前記中心損失をさらに含む、方法。
付記2に記載の分類モデルを訓練する方法であって、
各サンプルのヒドゥン特徴と該サンプルの属するクラスの中心ヒドゥン特徴との間の距離を示す中心損失を計算する中心損失計算ステップをさらに含み、
前記損失関数は、前記中心損失をさらに含む、方法。
付記3に記載の分類モデルを訓練する方法であって、
各サンプルのヒドゥン特徴と該サンプルの属するクラスの中心ヒドゥン特徴との間の距離を示す中心損失を計算する中心損失計算ステップをさらに含み、
前記損失関数は、前記中心損失をさらに含む、方法。
分類方法であって、
訓練後の分類モデルに入力されたテスト待ち情報から特徴を抽出する抽出ステップ;
抽出された特徴を、前記テスト待ち情報の低次元のヒドゥン特徴を表し得るように圧縮する圧縮ステップ;
前記ヒドゥン特徴を解凍し、解凍後の特徴を得る解凍ステップ;
前記解凍後の特徴に基づいて前記テスト待ち情報を再構成し、再構成後のテスト待ち情報を得る再構成ステップ;
前記テスト待ち情報と前記再構成後のテスト待ち情報との間の再構成損失に基づいて、前記テスト待ち情報が既知のクラスか、それとも、未知のクラスに属するかを判断する判断ステップ;及び
前記テスト待ち情報が既知のクラスに属すると判断された場合、前記訓練後の分類モデルにより、前記テスト待ち情報を分類する分類ステップを含む、方法。
付記8に記載の分類方法であって、
前記判断ステップでは、前記再構成損失が所定閾値以下の場合、前記テスト待ち情報が既知のクラスに属すると判断し、前記再構成損失が前記所定閾値よりも大きい場合、前記テスト待ち情報が未知のクラスに属すると判断する、方法。
付記8に記載の分類方法であって、
前記再構成損失は、前記テスト待ち情報と前記再構成後のテスト待ち情報との間の差を示す生成損失、及び、前記ヒドゥン特徴の分布と特定分布との間のマッチ度を示すヒドゥン損失を含む、方法。
付記8に記載の分類方法であって、
前記分類モデルにsoftmax損失を用いて、異なる既知のクラス間の分離度を示し、
前記分類ステップでは、前記ヒドゥン特徴を用い、既知のクラスのうちの各クラスに基づいて前記softmax損失を計算し、
前記テスト待ち情報の損失関数は、前記再構成損失及び前記softmax損失を含む、方法。
付記10に記載の分類方法であって、
前記分類モデルにsoftmax損失を用いて、異なる既知のクラス間の分離度を示し、
前記分類ステップでは、前記ヒドゥン特徴を用い、既知のクラスのうちの各クラスに基づいて前記softmax損失を計算し、
前記テスト待ち情報の損失関数は、前記再構成損失及び前記softmax損失を含む、方法。
付記11に記載の分類方法であって、
前記分類ステップでは、さらに、前記ヒドゥン特徴と既知のクラスのうちの各クラスの中心ヒドゥン特徴との間の距離を示す中心損失を計算し、
前記損失関数は、前記中心損失をさらに含む、方法。
付記12に記載の分類方法であって、
前記分類ステップでは、さらに、前記ヒドゥン特徴と既知のクラスのうちの各クラスの中心ヒドゥン特徴との間の距離を示す中心損失を計算し、
前記損失関数は、前記中心損失をさらに含む、方法。
分類装置であって、
訓練後の分類モデルに入力されたテスト待ち情報から特徴を抽出する抽出ユニット;
抽出された特徴を、前記テスト待ち情報の低次元のヒドゥン特徴を表し得るように圧縮する圧縮ユニット;
前記ヒドゥン特徴を解凍し、解凍後の特徴を得る解凍ユニット;
前記解凍後の特徴に基づいて前記テスト待ち情報を再構成し、再構成後のテスト待ち情報を得る再構成ユニット;
前記テスト待ち情報と前記再構成後のテスト待ち情報との間の再構成損失に基づいて、前記テスト待ち情報が既知のクラスか、それとも、未知のクラスに属するかを判断し;及び
前記テスト待ち情報が既知のクラスに属すると確定された場合、前記訓練後の分類モデルにより、前記テスト待ち情報を分類する分類ユニットを含む、装置。
付記15に記載の分類装置であって、
前記判断ユニットは、前記再構成損失が所定閾値以下の場合、前記テスト待ち情報が既知のクラスに属すると判断し、前記再構成損失が前記所定閾値よりも大きい場合、前記テスト待ち情報が未知のクラスに属すると判断する、装置。
付記15に記載の分類装置であって、
前記再構成損失は、前記テスト待ち情報と前記再構成後のテスト待ち情報との間の差を示す生成損失、及び、前記ヒドゥン特徴の分布と特定分布との間のマッチ程度を示すヒドゥン損失を含む、装置。
付記15に記載の分類装置であって、
前記分類モデルにsoftmax損失を用いて、異なる既知のクラス間の分離度を示し、
前記分類ユニットは、前記ヒドゥン特徴を用い、既知のクラスのうちの各クラスに基づいて前記softmax損失を計算し、
前記テスト待ち情報の損失関数は、前記再構成損失及び前記softmax損失を含む、装置。
付記17に記載の分類装置であって、
前記分類モデルにsoftmax損失を用いて、異なる既知のクラス間の分離度を示し、
前記分類ユニットでは、前記ヒドゥン特徴を用い、既知のクラスのうちの各クラスに基づいて前記softmax損失を計算し、
前記テスト待ち情報の損失関数は、前記再構成損失及び前記softmax損失を含む、装置。
付記18に記載の分類装置であって、
前記分類ユニットは、さらに、前記ヒドゥン特徴と既知のクラスのいちの各クラスの中心ヒドゥン特徴との間の距離を示す中心損失を計算し、
前記損失関数は、前記中心損失をさらに含む、装置。
Claims (10)
- 分類モデルを訓練する方法であって、
サンプル処理ステップ、再構成損失計算ステップ、クラス間損失計算ステップ、及び分類モデル取得ステップを含み、
前記サンプル処理ステップでは、
訓練集合における各サンプルについて、
前記サンプルから特徴を抽出し;
抽出された特徴を、前記サンプルの低次元のヒドゥン(hidden)特徴を表し得るように圧縮し;
前記ヒドゥン特徴を解凍し、解凍後の特徴を取得し;及び
前記解凍後の特徴に基づいて前記サンプルを再構成し、再構成後のサンプルを取得し、
前記再構成損失計算ステップでは、前記ヒドゥン特徴に基づいて、前記訓練集合における全てのサンプルにいて再構成損失を計算し、
前記クラス間損失計算ステップでは、前記訓練集合における全てのサンプルについて、異なるクラスのサンプル間の分離度を示すクラス間損失を計算し、
前記分類モデル取得ステップでは、前記再構成損失及び前記クラス間損失を含む損失関数を最小化して、訓練後の分類モデルを取得する、方法。 - 請求項1に記載の分類モデルを訓練する方法であって、
前記再構成損失は、各サンプルとその再構成後のサンプルとの間の差を示す生成損失、及び、前記ヒドゥン特徴の分布と特定分布との間のマッチ度を示すヒドゥン損失を含む、方法。 - 請求項1に記載の分類モデルを訓練する方法であって、
前記クラス間損失計算ステップでは、各サンプルのヒドゥン特徴に基づいてsoftmax損失を前記クラス間損失として計算する、方法。 - 請求項1に記載の分類モデルを訓練する方法であって、
各サンプルのヒドゥン特徴と該サンプルの属するクラスの中心ヒドゥン特徴との間の距離を示す中心損失を計算する中心損失計算ステップをさらに含み、
前記損失関数は、前記中心損失をさらに含む、方法。 - 分類方法であって、
訓練後の分類モデルに入力されたテスト待ち情報から特徴を抽出する抽出ステップ;
抽出された前記特徴を、前記テスト待ち情報の低次元のヒドゥン特徴を表し得るように圧縮する圧縮ステップ;
前記ヒドゥン特徴を解凍し、解凍後の特徴を得る解凍ステップ;
前記解凍後の特徴に基づいて前記テスト待ち情報を再構成し、再構成後のテスト待ち情報を得る再構成ステップ;
前記テスト待ち情報と前記再構成後のテスト待ち情報との間の再構成損失に基づいて、前記テスト待ち情報が既知のクラスか、それとも、未知のクラスに属するかを判断する判断ステップ;及び
前記テスト待ち情報が既知のクラスに属すると判断された場合、前記訓練後の分類モデルにより、前記テスト待ち情報を分類する分類ステップを含む、方法。 - 請求項5に記載の分類方法であって、
前記判断ステップでは、前記再構成損失が所定閾値以下の場合、前記テスト待ち情報が既知のクラスに属すると判断し、前記再構成損失が前記所定閾値よりも大きい場合、前記テスト待ち情報が未知のクラスに属すると判断する、方法。 - 請求項5に記載の分類方法であって、
前記再構成損失は、前記テスト待ち情報と前記再構成後のテスト待ち情報との間の差を示す生成損失、及び、前記ヒドゥン特徴の分布と特定分布との間のマッチ度を示すヒドゥン損失を含む、方法。 - 請求項5に記載の分類方法であって、
前記分類モデルにsoftmax損失を用いて異なる既知のクラス間の分離度を示し、
前記分類ステップでは、前記ヒドゥン特徴を用い、既知のクラスのうちの各クラスに基づいて、前記softmax損失を計算し、
前記テスト待ち情報の損失関数は、前記再構成損失及び前記softmax損失を含む、方法。 - 請求項8に記載の分類方法であって、
前記分類ステップでは、前記ヒドゥン特徴と既知のクラスのうちの各クラスの中心ヒドゥン特徴との間の距離を示す中心損失をさらに計算し、
前記損失関数は、前記中心損失をさらに含む、方法。 - 分類装置であって、
訓練後の分類モデルに入力されたテスト待ち情報から特徴を抽出する抽出ユニット;
抽出された前記特徴を、前記テスト待ち情報の低次元のヒドゥン特徴を表し得るように圧縮する圧縮ユニット;
前記ヒドゥン特徴を解凍し、解凍後の特徴を得る解凍ユニット;
前記解凍後の特徴に基づいて前記テスト待ち情報を再構成し、再構成後のテスト待ち情報を得る再構成ユニット;
前記テスト待ち情報と前記再構成後のテスト待ち情報との間の再構成損失に基づいて、前記テスト待ち情報が既知のクラスか、それとも、未知のクラスに属するかを判断する判断ユニット;及び
前記テスト待ち情報が既知のクラスに属すると判断された場合、前記訓練後の分類モデルにより、前記テスト待ち情報を分類する分類ユニットを含む、装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810663447.5 | 2018-06-25 | ||
CN201810663447.5A CN110633725B (zh) | 2018-06-25 | 2018-06-25 | 训练分类模型的方法和装置以及分类方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020004406A true JP2020004406A (ja) | 2020-01-09 |
JP7222319B2 JP7222319B2 (ja) | 2023-02-15 |
Family
ID=66998124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019115484A Active JP7222319B2 (ja) | 2018-06-25 | 2019-06-21 | 分類モデル訓練方法及び装置並びに分類方法及び装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10902296B2 (ja) |
EP (1) | EP3588381A1 (ja) |
JP (1) | JP7222319B2 (ja) |
CN (1) | CN110633725B (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021210042A1 (ja) * | 2020-04-13 | 2021-10-21 | ||
WO2022162719A1 (ja) * | 2021-01-26 | 2022-08-04 | 日本電信電話株式会社 | 分離方法、分離装置、学習方法、学習装置及びプログラム |
JP7435098B2 (ja) | 2020-03-18 | 2024-02-21 | Toppanホールディングス株式会社 | くずし字認識システム、くずし字認識方法及びプログラム |
JP7440798B2 (ja) | 2020-06-09 | 2024-02-29 | 日本電信電話株式会社 | 学習装置、予測装置、学習方法及びプログラム |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110824912B (zh) * | 2018-08-08 | 2021-05-18 | 华为技术有限公司 | 训练用于生成自动驾驶策略的控制策略模型的方法和装置 |
CN111291817B (zh) * | 2020-02-17 | 2024-01-23 | 北京迈格威科技有限公司 | 图像识别方法、装置、电子设备和计算机可读介质 |
JP7354063B2 (ja) * | 2020-05-14 | 2023-10-02 | 株式会社東芝 | 分類システム、プログラム及び学習システム |
US11756290B2 (en) * | 2020-06-10 | 2023-09-12 | Bank Of America Corporation | System for intelligent drift matching for unstructured data in a machine learning environment |
CN111898577B (zh) * | 2020-08-10 | 2022-08-26 | 腾讯科技(深圳)有限公司 | 一种图像检测方法、装置、设备及计算机可读存储介质 |
CN113392931B (zh) * | 2021-07-02 | 2023-02-10 | 西安电子科技大学 | 基于自监督学习及多任务学习的高光谱开放集分类方法 |
CN114241526B (zh) * | 2022-02-28 | 2022-05-17 | 南京甄视智能科技有限公司 | 分类模型、训练方法、分类方法、电子设备及存储介质 |
WO2024044559A1 (en) * | 2022-08-22 | 2024-02-29 | SentinelOne, Inc. | Systems and methods of data selection for iterative training using zero knowledge clustering |
CN118279678B (zh) * | 2024-06-04 | 2024-08-06 | 中国人民解放军海军航空大学 | 面向未知类型船舶目标的开集识别方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7602962B2 (en) * | 2003-02-25 | 2009-10-13 | Hitachi High-Technologies Corporation | Method of classifying defects using multiple inspection machines |
US20120106854A1 (en) * | 2010-10-28 | 2012-05-03 | Feng Tang | Event classification of images from fusion of classifier classifications |
CN104951791B (zh) * | 2014-03-26 | 2018-10-09 | 华为技术有限公司 | 数据分类方法和装置 |
WO2015196084A1 (en) * | 2014-06-20 | 2015-12-23 | Theodore Kuklinski | A self-learning system and methods for automatic document recognition, authentication, and information extraction |
CN105389583A (zh) * | 2014-09-05 | 2016-03-09 | 华为技术有限公司 | 图像分类器的生成方法、图像分类方法和装置 |
NL2015087B1 (en) * | 2015-06-05 | 2016-09-09 | Univ Amsterdam | Deep receptive field networks. |
US10452951B2 (en) * | 2016-08-26 | 2019-10-22 | Goodrich Corporation | Active visual attention models for computer vision tasks |
CN107180248A (zh) * | 2017-06-12 | 2017-09-19 | 桂林电子科技大学 | 基于联合损失增强网络的高光谱图像分类方法 |
CN107705299B (zh) * | 2017-09-25 | 2021-05-14 | 安徽睿极智能科技有限公司 | 基于多属性特征的图像质量分类方法 |
CN107992900B (zh) * | 2017-12-18 | 2020-09-11 | 深圳市盛波光电科技有限公司 | 缺陷检测的样本获取方法、训练方法、装置、介质和设备 |
CN112384947A (zh) * | 2017-12-28 | 2021-02-19 | 英特尔公司 | 视觉雾 |
GB201801627D0 (en) * | 2018-02-01 | 2018-03-21 | Siemens Healthcare Ltd | Image autoencoding for quantum machine learning |
-
2018
- 2018-06-25 CN CN201810663447.5A patent/CN110633725B/zh active Active
-
2019
- 2019-06-18 EP EP19180825.2A patent/EP3588381A1/en not_active Withdrawn
- 2019-06-19 US US16/445,240 patent/US10902296B2/en active Active
- 2019-06-21 JP JP2019115484A patent/JP7222319B2/ja active Active
Non-Patent Citations (2)
Title |
---|
中川 大海 HIROMI NAKAGAWA: "深層学習を用いた知識獲得予測を最適化する知識分類の抽出 Optimization of Deep Knowledge Tracing by Re", 一般社団法人 人工知能学会 第31回全国大会論文集DVD [DVD−ROM], JPN6022054945, 2017, ISSN: 0004955440 * |
俵 直弘 NAOHIRO TAWARA: "敵対的学習に基づく話者特徴抽出 Speaker feature extraction using adversarial training.", 日本音響学会 2018年 春季研究発表会講演論文集CD−ROM [CD−ROM], JPN6022054948, 2018, ISSN: 0004955439 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7435098B2 (ja) | 2020-03-18 | 2024-02-21 | Toppanホールディングス株式会社 | くずし字認識システム、くずし字認識方法及びプログラム |
JPWO2021210042A1 (ja) * | 2020-04-13 | 2021-10-21 | ||
WO2021210042A1 (ja) * | 2020-04-13 | 2021-10-21 | 日本電信電話株式会社 | 学習装置、分類装置、学習方法、分類方法、および、プログラム |
JP7396467B2 (ja) | 2020-04-13 | 2023-12-12 | 日本電信電話株式会社 | 学習装置、分類装置、学習方法、分類方法、および、プログラム |
JP7440798B2 (ja) | 2020-06-09 | 2024-02-29 | 日本電信電話株式会社 | 学習装置、予測装置、学習方法及びプログラム |
WO2022162719A1 (ja) * | 2021-01-26 | 2022-08-04 | 日本電信電話株式会社 | 分離方法、分離装置、学習方法、学習装置及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20190392260A1 (en) | 2019-12-26 |
CN110633725B (zh) | 2023-08-04 |
US10902296B2 (en) | 2021-01-26 |
EP3588381A1 (en) | 2020-01-01 |
JP7222319B2 (ja) | 2023-02-15 |
CN110633725A (zh) | 2019-12-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020004406A (ja) | 分類モデル訓練方法及び装置並びに分類方法及び装置 | |
US10671833B2 (en) | Analyzing digital holographic microscopy data for hematology applications | |
Kong | Facial expression recognition method based on deep convolutional neural network combined with improved LBP features | |
Chaudhary et al. | Detecting covid-19 and community acquired pneumonia using chest ct scan images with deep learning | |
CN104966105A (zh) | 一种鲁棒机器错误检索方法与系统 | |
CN109800781A (zh) | 一种图像处理方法、装置及计算机可读存储介质 | |
EP4075325A1 (en) | Method and system for the classification of histopathological images based on multiple instance learning | |
US11666286B2 (en) | Classification of polyps using learned image analysis | |
CN113222062A (zh) | 烟叶分类的方法、装置和计算机可读取介质 | |
Shoohi et al. | DCGAN for Handling Imbalanced Malaria Dataset based on Over-Sampling Technique and using CNN. | |
CN115497124A (zh) | 身份识别方法和装置及存储介质 | |
CN113838524B (zh) | S-亚硝基化位点预测方法、模型训练方法及存储介质 | |
CN114428860A (zh) | 院前急救病例文本的识别方法、装置、终端及存储介质 | |
CN110414562A (zh) | X光片的分类方法、装置、终端及存储介质 | |
CN103268494A (zh) | 基于稀疏表示的寄生虫虫卵识别方法 | |
US11397868B2 (en) | Fungal identification by pattern recognition | |
CN112861881A (zh) | 一种基于改进MobileNet模型的蜂窝肺识别方法 | |
Manohar et al. | Recognition and classification of animals based on texture features through parallel computing | |
CN113780084B (zh) | 基于生成式对抗网络的人脸数据扩增方法、电子设备和存储介质 | |
CN115497564A (zh) | 一种鉴定抗原模型建立方法及鉴定抗原方法 | |
CN104778479B (zh) | 一种基于稀疏编码提取子的图像分类方法及系统 | |
Szijártó et al. | Design of a Machine Learning System to Predict the Thickness of a Melanoma Lesion in a Non-Invasive Way from Dermoscopic Images | |
CN113205149A (zh) | 图片处理方法及装置 | |
Foran et al. | A cagrid-enabled, learning based image segmentation method for histopathology specimens | |
Rao et al. | Markov random field classification technique for plant leaf disease detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220308 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221227 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7222319 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |