JP7310351B2 - 情報処理方法及び情報処理装置 - Google Patents
情報処理方法及び情報処理装置 Download PDFInfo
- Publication number
- JP7310351B2 JP7310351B2 JP2019115483A JP2019115483A JP7310351B2 JP 7310351 B2 JP7310351 B2 JP 7310351B2 JP 2019115483 A JP2019115483 A JP 2019115483A JP 2019115483 A JP2019115483 A JP 2019115483A JP 7310351 B2 JP7310351 B2 JP 7310351B2
- Authority
- JP
- Japan
- Prior art keywords
- training
- information processing
- training samples
- processing method
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 94
- 238000003672 processing method Methods 0.000 title claims description 71
- 238000012549 training Methods 0.000 claims description 191
- 239000013598 vector Substances 0.000 claims description 112
- 238000013145 classification model Methods 0.000 claims description 74
- 238000000034 method Methods 0.000 claims description 30
- 238000009826 distribution Methods 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 8
- 230000004931 aggregating effect Effects 0.000 claims 2
- 230000006870 function Effects 0.000 description 29
- 238000013527 convolutional neural network Methods 0.000 description 22
- 238000012545 processing Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000007781 pre-processing Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Description
(外1)
及び
(外2)
は、M次元重みベクトルのモデュラス(mod)を表し、
(外3)
は、M次元訓練サンプルベクトルのモデュラスを表し、θj,iは、重みベクトルWj及び訓練サンプルベクトルxiのベクトル空間におけるの夾角を表し、そのうち、0≦θj,i≦πである。
[第一実施形態]
図1は、本開示の第一実施形態における情報処理方法100のフローチャートである。
[第二実施形態]
本開示によれば、訓練の前に、訓練サンプルに対して前処理を行うこと以外に、分類モデル自身に対して前処理を行うこともできる。
学習ユニット502:調整された複数の訓練サンプルの特徴ベクトルを用いて、分類モデルに対して訓練を行う。
複数の訓練サンプルを用いて分類モデルに対して訓練を行う情報処理方法であって、
前記複数の訓練サンプルのうちの典型的なサンプルに基づいて、前記複数の訓練サンプルの特徴ベクトルの特徴空間中での分布を調整し;及び
調整された複数の訓練サンプルの特徴ベクトルを用いて、前記分類モデルに対して訓練を行うことを含む。
付記1に記載の情報処理方法であって、
前記典型的なサンプルは、最も顕著なクラス特徴を有する訓練サンプルであり、
前記複数の訓練サンプルのうちの典型的なサンプルに基づいて、前記複数の訓練サンプルの特徴ベクトルの特徴空間中での分布を調整することは、
典型的なサンプル以外の他の訓練サンプルの特徴ベクトルが前記典型的なサンプルの特徴ベクトルへ集まるようにさせることを含む、情報処理方法。
付記2に記載の情報処理方法であって、
前記最も顕著なクラス特徴は、前記分類モデルが前記典型的なサンプルを他のクラスに分類しないようにさせる、情報処理方法。
付記2に記載の情報処理方法であって、
前記典型的なサンプル以外の他の訓練サンプルの特徴ベクトルが前記典型的なサンプルの特徴ベクトルへ集まるようにさせることは、
前記典型的なサンプルの特徴ベクトルを中心として、他の訓練サンプルの特徴ベクトルと、該典型的なサンプルの特徴ベクトルとの間の距離に対して正規化を行うことを含む、情報処理方法。
付記1に記載の情報処理方法であって、
各クラスについて、前記分類モデルは、該クラスに対応するパラメータを有し、
前記方法は、さらに、
前記分類モデルの、異なるクラスについてのパラメータを正規化し、調整された前記複数の訓練サンプルの特徴ベクトル及び正規化されたパラメータに基づいて、前記分類モデルを訓練することを含む、情報処理方法。
付記1に記載の情報処理方法であって、さらに、
前記複数の訓練サンプルの属する異なるクラス間の区別マージンを増加させ、調整された前記複数の訓練サンプルの特徴ベクトル及び増加した区別マージンに基づいて、前記分類モデルを訓練することを含む、情報処理方法。
付記6に記載の情報処理方法であって、
前記複数の訓練サンプルの属する異なるクラス間の区別マージンを増加させることは、
前記複数の訓練サンプルのうちの各訓練サンプルについて、該訓練サンプルと、対応するクラスのパラメータとの間の類似度を調整することをさらに含む、情報処理方法。
付記7に記載の情報処理方法であって、
前記複数の訓練サンプルのうちの各訓練サンプルについて、該訓練サンプルと、対応するクラスのパラメータとの間の類似度を調整することは、
該訓練サンプルの特徴ベクトルと、前記分類モデルの対応するパラメータの特徴ベクトルとの間の夾角に係数mを乗算することを含み、m>1である、情報処理方法。
付記8に記載の情報処理方法であって、
前記係数mは、同一クラス内の最大角度特徴距離が異なるクラス間の最小角度特徴距離よりも小さくなるように選択される、情報処理方法。
付記8に記載の情報処理方法であって、
前記複数の訓練サンプルの属するクラスの数が増加するときに、前記係数mを減少させ;及び、前記数が減少するときに、前記係数mを増加させる、情報処理方法。
付記1に記載の情報処理方法であって、
前記分類モデルは、Softmax関数であり、前記パラメータは、Softmax関数の、異なるクラスについての重みであり、前記訓練サンプルは、Softmax関数の訓練過程で使用される入力である、情報処理方法。
複数の訓練サンプルを用いて分類モデルに対して訓練を行う情報処理装置であって、
調整ユニットであって、前記複数の訓練サンプルのうちの典型的なサンプルに基づいて、前記複数の訓練サンプルの特徴ベクトルの特徴空間中で分布を調整するもの;及び
学習ユニットであって、調整された複数の訓練サンプルの特徴ベクトルを用いて、前記分類モデルに対して訓練を行うものを含む、情報処理装置。
情報処理方法であって、
付記1~11に記載の情報処理方法を用いて訓練を行うことにより得られた分類モデルにより、検出待ちデータに対して検出を行う、情報処理方法。
Claims (8)
- 複数の訓練サンプルを用いて分類モデルに対して訓練を行う情報処理方法であって、
前記複数の訓練サンプルのうちの典型的なサンプルに基づいて、前記複数の訓練サンプルの特徴ベクトルの特徴空間における分布を調整し;及び
調整された複数の訓練サンプルの特徴ベクトルを用いて、前記分類モデルを訓練することを含み、
前記典型的なサンプルは、最も顕著なクラス特徴を有する訓練サンプルであり、
前記複数の訓練サンプルのうちの典型的なサンプルに基づいて、前記複数の訓練サンプルの特徴ベクトルの特徴空間における分布を調整することは、
前記典型的なサンプル以外の他の訓練サンプルの特徴ベクトルを、前記典型的なサンプルの特徴ベクトルへ集めさせることを含み、
前記典型的なサンプル以外の他の訓練サンプルの特徴ベクトルを、前記典型的なサンプルの特徴ベクトルへ集めさせることは、
前記典型的なサンプルの特徴ベクトルを中心として、他の訓練サンプルの特徴ベクトルと、該典型的なサンプルの特徴ベクトルとの間の距離を正規化することを含む、情報処理方法。 - 請求項1に記載の情報処理方法であって、
前記最も顕著なクラス特徴は、前記分類モデルが前記典型的なサンプルを他のクラスに分類しないようにさせる、情報処理方法。 - 請求項1に記載の情報処理方法であって、
各クラスについて、前記分類モデルは、該クラスに対応するパラメータを有し、
前記情報処理方法は、さらに、
前記分類モデルの、異なるクラスについてのパラメータを正規化し、調整された前記複数の訓練サンプルの特徴ベクトル及び正規化されたパラメータに基づいて、前記分類モデルを訓練することを含む、情報処理方法。 - 請求項1に記載の情報処理方法であって、さらに、
前記複数の訓練サンプルの属する異なるクラス間の区別マージンを増加させ、調整された前記複数の訓練サンプルの特徴ベクトル及び増加した区別マージンに基づいて、前記分類モデルを訓練することを含む、情報処理方法。 - 請求項4に記載の情報処理方法であって、
前記複数の訓練サンプルの属する異なるクラス間の区別マージンを増加させることは、
前記複数の訓練サンプルのうちの各訓練サンプルについて、該訓練サンプルと、対応するクラスのパラメータとの間の類似度を調整することを含む、情報処理方法。 - 請求項5に記載の情報処理方法であって、
前記複数の訓練サンプルのうちの各訓練サンプルについて、該訓練サンプルと、対応するクラスのパラメータとの間の類似度を調整することは、
該訓練サンプルの特徴ベクトルと、前記分類モデルの対応するパラメータの特徴ベクトルとの間の夾角に係数m(m>1)を乗算することを含む、情報処理方法。 - 複数の訓練サンプルを用いて分類モデルに対して訓練を行う情報処理装置であって、
前記複数の訓練サンプルのうちの典型的なサンプルに基づいて、前記複数の訓練サンプルの特徴ベクトルの特徴空間における分布を調整する調整ユニット;及び
調整された複数の訓練サンプルの特徴ベクトルを用いて、前記分類モデルを訓練する学習ユニットを含み、
前記典型的なサンプルは、最も顕著なクラス特徴を有する訓練サンプルであり、
前記調整ユニットは、前記典型的なサンプル以外の他の訓練サンプルの特徴ベクトルを、前記典型的なサンプルの特徴ベクトルへ集めさせることを行い、
前記典型的なサンプル以外の他の訓練サンプルの特徴ベクトルを、前記典型的なサンプルの特徴ベクトルへ集めさせることは、
前記典型的なサンプルの特徴ベクトルを中心として、他の訓練サンプルの特徴ベクトルと、該典型的なサンプルの特徴ベクトルとの間の距離を正規化することを含む、情報処理装置。 - 情報処理方法であって、
請求項1~6のうちいずれか1項に記載の情報処理方法を用いて訓練を行うことで得られた分類モデルにより、検出待ちデータを検出することを含む、情報処理方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810662632.2 | 2018-06-25 | ||
CN201810662632.2A CN110633604B (zh) | 2018-06-25 | 2018-06-25 | 信息处理方法和信息处理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020004405A JP2020004405A (ja) | 2020-01-09 |
JP7310351B2 true JP7310351B2 (ja) | 2023-07-19 |
Family
ID=66793911
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019115483A Active JP7310351B2 (ja) | 2018-06-25 | 2019-06-21 | 情報処理方法及び情報処理装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11113581B2 (ja) |
EP (1) | EP3588380A1 (ja) |
JP (1) | JP7310351B2 (ja) |
CN (1) | CN110633604B (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10621473B1 (en) * | 2019-01-30 | 2020-04-14 | StradVision, Inc. | Method for providing object detecting system capable of updating types of detectable classes in real-time by using continual learning and devices using the same |
US10635918B1 (en) * | 2019-01-30 | 2020-04-28 | StradVision, Inc. | Method and device for managing smart database for face recognition based on continual learning |
US10740593B1 (en) * | 2019-01-31 | 2020-08-11 | StradVision, Inc. | Method for recognizing face using multiple patch combination based on deep neural network with fault tolerance and fluctuation robustness in extreme situation |
EP3997625A4 (en) * | 2019-10-29 | 2022-11-09 | Samsung Electronics Co., Ltd. | ELECTRONIC DEVICE AND ASSOCIATED CONTROL METHOD |
JP7483405B2 (ja) | 2020-02-25 | 2024-05-15 | キヤノン株式会社 | 学習装置、電子機器、学習方法、電子機器の制御方法およびプログラム |
WO2021214943A1 (ja) * | 2020-04-23 | 2021-10-28 | 日本電信電話株式会社 | パラメータ最適化方法、非一時的記録媒体、特徴量抽出方法及びパラメータ最適化装置 |
CN114612953A (zh) * | 2020-12-09 | 2022-06-10 | 佳能株式会社 | 对象识别模型的训练方法及装置 |
US20220284261A1 (en) * | 2021-03-05 | 2022-09-08 | The Aerospace Corporation | Training-support-based machine learning classification and regression augmentation |
CN112801054B (zh) * | 2021-04-01 | 2021-06-22 | 腾讯科技(深圳)有限公司 | 人脸识别模型的处理方法、人脸识别方法及装置 |
CN113963203B (zh) * | 2021-10-19 | 2024-07-19 | 动联(山东)电子科技有限公司 | 一种智能捕鼠监测方法、系统、装置及介质 |
CN118114123B (zh) * | 2024-04-17 | 2024-08-02 | 腾讯科技(深圳)有限公司 | 识别模型的处理方法、装置、计算机设备和存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017162232A (ja) | 2016-03-10 | 2017-09-14 | 株式会社Screenホールディングス | 教師データ作成支援装置、画像分類装置、教師データ作成支援方法および画像分類方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2008356919A1 (en) * | 2008-05-26 | 2009-12-03 | Agency For Science, Technology And Research | A method and system for classifying brain signals in a BCI |
CN101727463A (zh) * | 2008-10-24 | 2010-06-09 | 中国科学院计算技术研究所 | 一种文本训练方法和分类方法 |
CN102855259B (zh) * | 2011-06-30 | 2015-05-13 | Sap欧洲公司 | 大规模数据聚类分析的并行化 |
CN102393914A (zh) * | 2011-10-28 | 2012-03-28 | 华中科技大学 | 一种基于支持向量机分类树的地基云图识别方法 |
CN103400146B (zh) * | 2013-07-19 | 2017-03-01 | 北京工业大学 | 基于颜色建模的中医面色识别方法 |
US9141885B2 (en) * | 2013-07-29 | 2015-09-22 | Adobe Systems Incorporated | Visual pattern recognition in an image |
CN105574538B (zh) * | 2015-12-10 | 2020-03-17 | 小米科技有限责任公司 | 分类模型训练方法及装置 |
US20170308790A1 (en) * | 2016-04-21 | 2017-10-26 | International Business Machines Corporation | Text classification by ranking with convolutional neural networks |
GB2555192B (en) * | 2016-08-02 | 2021-11-24 | Invincea Inc | Methods and apparatus for detecting and identifying malware by mapping feature data into a semantic space |
CN108133224B (zh) * | 2016-12-01 | 2021-11-16 | 富士通株式会社 | 用于评估分类任务复杂度的方法 |
CN108229508B (zh) * | 2016-12-15 | 2022-01-04 | 富士通株式会社 | 用于训练图像处理装置的训练装置和训练方法 |
CN107103281A (zh) * | 2017-03-10 | 2017-08-29 | 中山大学 | 基于聚集损失深度度量学习的人脸识别方法 |
US10957337B2 (en) * | 2018-04-11 | 2021-03-23 | Microsoft Technology Licensing, Llc | Multi-microphone speech separation |
-
2018
- 2018-06-25 CN CN201810662632.2A patent/CN110633604B/zh active Active
-
2019
- 2019-06-07 EP EP19179144.1A patent/EP3588380A1/en active Pending
- 2019-06-21 JP JP2019115483A patent/JP7310351B2/ja active Active
- 2019-06-24 US US16/450,153 patent/US11113581B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017162232A (ja) | 2016-03-10 | 2017-09-14 | 株式会社Screenホールディングス | 教師データ作成支援装置、画像分類装置、教師データ作成支援方法および画像分類方法 |
Non-Patent Citations (1)
Title |
---|
WEN, Yandong, et al.,A Discriminative Feature Learning Approach for Deep Face Recognition,ECCV 2016,2016年,pp.499-515,<URL: https://link.springer.com/chapter/10.1007/978-3-319-46478-7_31> |
Also Published As
Publication number | Publication date |
---|---|
US11113581B2 (en) | 2021-09-07 |
CN110633604A (zh) | 2019-12-31 |
CN110633604B (zh) | 2023-04-25 |
EP3588380A1 (en) | 2020-01-01 |
JP2020004405A (ja) | 2020-01-09 |
US20190392248A1 (en) | 2019-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7310351B2 (ja) | 情報処理方法及び情報処理装置 | |
CN108182427B (zh) | 一种基于深度学习模型和迁移学习的人脸识别方法 | |
Cui et al. | Identifying materials of photographic images and photorealistic computer generated graphics based on deep CNNs. | |
CN111583263B (zh) | 一种基于联合动态图卷积的点云分割方法 | |
CN109190665B (zh) | 一种基于半监督生成对抗网络的通用图像分类方法和装置 | |
CN108171209B (zh) | 一种基于卷积神经网络进行度量学习的人脸年龄估计方法 | |
CN109359608B (zh) | 一种基于深度学习模型的人脸识别方法 | |
CN103605972B (zh) | 一种基于分块深度神经网络的非限制环境人脸验证方法 | |
CN110929679B (zh) | 一种基于gan的无监督自适应行人重识别方法 | |
CN109063724B (zh) | 一种增强型生成式对抗网络以及目标样本识别方法 | |
CN108985268B (zh) | 基于深度迁移学习的归纳式雷达高分辨距离像识别方法 | |
CN111814584A (zh) | 基于多中心度量损失的多视角环境下车辆重识别方法 | |
WO2021238586A1 (zh) | 一种训练方法、装置、设备以及计算机可读存储介质 | |
CN116503676B (zh) | 一种基于知识蒸馏小样本增量学习的图片分类方法及系统 | |
CN112085055A (zh) | 一种基于迁移模型雅克比阵特征向量扰动的黑盒攻击方法 | |
Nagendar et al. | Neuro-IoU: Learning a Surrogate Loss for Semantic Segmentation. | |
CN110751005B (zh) | 融合深度感知特征和核极限学习机的行人检测方法 | |
CN113743474A (zh) | 基于协同半监督卷积神经网络的数字图片分类方法与系统 | |
CN110188646B (zh) | 基于梯度方向直方图与局部二值模式融合的人耳识别方法 | |
CN117854104A (zh) | 一种基于特征对齐的无监督行人重识别方法 | |
CN111553437A (zh) | 一种基于神经网络图像分类方法 | |
CN109145749B (zh) | 一种跨数据集的面部表情识别模型构建及识别方法 | |
CN112750128A (zh) | 图像语义分割方法、装置、终端及可读存储介质 | |
CN114445875A (zh) | 基于深度学习的身份识别与人脸比对系统及训练方法 | |
CN112784800A (zh) | 一种基于神经网络和形状约束的人脸关键点检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220308 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230317 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230619 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7310351 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |