JP7289012B2 - ラベル付けされていない顔データにわたるクラスタリングに基づく深層顔認識 - Google Patents
ラベル付けされていない顔データにわたるクラスタリングに基づく深層顔認識 Download PDFInfo
- Publication number
- JP7289012B2 JP7289012B2 JP2022513896A JP2022513896A JP7289012B2 JP 7289012 B2 JP7289012 B2 JP 7289012B2 JP 2022513896 A JP2022513896 A JP 2022513896A JP 2022513896 A JP2022513896 A JP 2022513896A JP 7289012 B2 JP7289012 B2 JP 7289012B2
- Authority
- JP
- Japan
- Prior art keywords
- labeled
- face
- unlabeled
- clustering
- face data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001815 facial effect Effects 0.000 claims description 55
- 238000009826 distribution Methods 0.000 claims description 42
- 238000012549 training Methods 0.000 claims description 36
- 238000000034 method Methods 0.000 claims description 28
- 238000013528 artificial neural network Methods 0.000 claims description 22
- 239000000203 mixture Substances 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 11
- 238000004458 analytical method Methods 0.000 claims description 5
- 230000015654 memory Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000000926 separation method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000007477 logistic regression Methods 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003711 image thresholding Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000002902 bimodal effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000013016 damping Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7747—Organisation of the process, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
- G06V40/173—Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Description
本出願は、2019年11月13日に出願された仮出願第62/934,617号、および2020年11月6日に出願された米国特許出願第17/091,066号の優先権を主張し、その全体が参照により本明細書に組み込まれる。
関連技術の説明
Claims (20)
- 顔認識を実施するためにコンピュータで実施する方法であって、
ラベル付けされた顔データ上で訓練された顔認識モデルを取得すること(410)と、
確率分布の混合を使用して、ラベル付けされていない顔データに対応する複数のラベル付けされていない顔を、前記ラベル付けされた顔データ内のものと重複するアイデンティティを含む1つまたは複数の重複するラベル付けされていない顔のセットと、前記ラベル付けされた顔データ内のものと互いに素なアイデンティティを含む1つまたは複数の互いに素なラベル付けされていない顔のセットとに分離すること(420)と、
1つまたは複数の擬似ラベル付けされたサンプルを取得するためにクラスタ割り当てに対応する擬似ラベルを前記1つまたは複数の互いに素なラベル付けされていない顔のそれぞれに割り当てることを含む、グラフ畳み込みネットワークを使用して1つまたは複数のクラスタ割り当てを生成するために前記1つまたは複数の互いに素なラベル付けされていない顔をクラスタリングすること(430)と、
前記1つまたは複数のクラスタ割り当てに関連するクラスタリング不確実性を生成すること(440)と、
前記クラスタリング不確実性を組み込むことによって顔認識性能を改善するために、前記ラベル付けされた顔データおよび前記ラベル付けされていない顔データ上で前記顔認識モデルを再訓練すること(450)とを含む、方法。 - 前記ラベル付けされた顔データ上で訓練された顔認識モデルを取得するために使用される深層ニューラルネットワークは、完全な教師ありの様式で、ラベル付けされた顔上で訓練される、請求項1に記載の方法。
- 前記確率分布の混合は、Weibull分布の混合を含む、請求項1に記載の方法。
- 推定された前記クラスタリング不確実性を取得することは、不正確なクラスタ割り当ての可能性の教師なしモデルを学習することをさらに含む、請求項1に記載の方法。
- 前記顔認識モデルを再訓練することは、さらに、
前記ラベル付けされた顔データおよび前記1つまたは複数の擬似ラベル付けされたサンプルをニューラルネットワークに供給することと、
前記クラスタリング不確実性と前記ニューラルネットワークの出力とを使用することによって、重み付けされた訓練損失を得るために前記1つまたは複数の擬似ラベル付けされたサンプルの訓練損失を減らすこととを含む、請求項1に記載の方法。 - 顔認識タスクを実行するために前記顔認識モデルを実施することをさらに含む、請求項1に記載の方法。
- 前記顔認識モデルは、計算システムまたは装置へのユーザのアクセスを前記ユーザの顔の分析に基づいて提供するバイオメトリックシステム内に実装される、請求項6に記載の方法。
- コンピュータに顔認識を実現する方法を実行させるために前記コンピュータによって実行可能なプログラム命令を有する、一時的でないコンピュータ読み取り可能な記憶媒体を備えるコンピュータプログラム製品であって、前記コンピュータによって実行される方法は、
ラベル付けされた顔データ上で訓練された顔認識モデルを取得すること(410)と、
確率分布の混合を使用して、ラベル付けされていない顔データに対応する複数のラベル付けされていない顔を、前記ラベル付けされた顔データ内のものと重複するアイデンティティを含む1つまたは複数の重複するラベル付けされていない顔のセットと、前記ラベル付けされた顔データ内のものと互いに素なアイデンティティを含む1つまたは複数の互いに素なラベル付けされていない顔のセットとに分離すること(420)と、
1つまたは複数の擬似ラベル付けされたサンプルを取得するためにクラスタ割り当てに対応する擬似ラベルを前記1つまたは複数の互いに素なラベル付けされていない顔のそれぞれに割り当てることを含む、グラフ畳み込みネットワークを使用して1つまたは複数のクラスタ割り当てを生成するために前記1つまたは複数の互いに素なラベル付けされていない顔をクラスタリングすること(430)と、
前記1つまたは複数のクラスタ割り当てに関連するクラスタリング不確実性を生成すること(440)と、
前記クラスタリング不確実性を組み込むことによって顔認識性能を改善するために、前記ラベル付けされた顔データおよび前記ラベル付けされていない顔データ上で前記顔認識モデルを再訓練すること(450)とを含む、コンピュータプログラム製品。 - 前記ラベル付けされた顔データ上で訓練された顔認識モデルを取得するために使用される深層ニューラルネットワークは、完全な教師ありの様式で、ラベル付けされた顔上で訓練される、請求項8に記載のコンピュータプログラム製品。
- 前記確率分布の混合は、Weibull分布の混合を含む、請求項8に記載のコンピュータプログラム製品。
- 推定された前記クラスタリング不確実性を取得することは、不正確なクラスタ割り当ての可能性の教師なしモデルを学習することをさらに含む、請求項8に記載のコンピュータプログラム製品。
- 前記顔認識モデルを再訓練することは、さらに、
前記ラベル付けされた顔データおよび前記1つまたは複数の擬似ラベル付けされたサンプルをニューラルネットワークに供給することと、
前記クラスタリング不確実性と前記ニューラルネットワークの出力とを使用することによって、重み付けされた訓練損失を得るために前記1つまたは複数の擬似ラベル付けされたサンプルの訓練損失を減らすこととを含む、請求項8に記載のコンピュータプログラム製品。 - 前記方法は、顔認識タスクを実行するために前記顔認識モデルを実施することをさらに含む、請求項8に記載のコンピュータプログラム製品。
- 前記顔認識モデルは、計算システムまたは装置へのユーザのアクセスを前記ユーザの顔の分析に基づいて提供するバイオメトリックシステム内に実装される、請求項13に記載のコンピュータプログラム製品。
- 顔認識を実施するためのシステムであって、
プログラムコードを格納するメモリ装置と、
前記メモリ装置と動作可能に結合され、前記メモリ装置に記憶されたプログラムコードを実行するように構成された少なくとも1つのプロセッサ装置とを有し、前記プロセッサ装置は、
ラベル付けされた顔データ上で訓練された顔認識モデルを取得し(410)、
確率分布の混合を使用して、ラベル付けされていない顔データに対応する複数のラベル付けされていない顔を、前記ラベル付けされた顔データ内のものと重複するアイデンティティを含む1つまたは複数の重複するラベル付けされていない顔のセットと、前記ラベル付けされた顔データ内のものと互いに素なアイデンティティを含む1つまたは複数の互いに素なラベル付けされていない顔のセットとに分離し(420)、
1つまたは複数の擬似ラベル付けされたサンプルを取得するためにクラスタ割り当てに対応する擬似ラベルを前記1つまたは複数の互いに素なラベル付けされていない顔のそれぞれに割り当てることによって、グラフ畳み込みネットワークを使用して1つまたは複数のクラスタ割り当てを生成するために前記1つまたは複数の互いに素なラベル付けされていない顔をクラスタリングし(430)、
前記1つまたは複数のクラスタ割り当てに関連するクラスタリング不確実性を生成し(440)、
前記クラスタリング不確実性を組み込むことによって顔認識性能を改善するために、前記ラベル付けされた顔データおよび前記ラベル付けされていない顔データ上で前記顔認識モデルを再訓練する(450)、システム。 - 前記ラベル付けされた顔データ上で訓練された顔認識モデルを取得するために使用される深層ニューラルネットワークは、完全な教師ありの様式で、ラベル付けされた顔上で訓練される、請求項15に記載のシステム。
- 前記確率分布の混合は、Weibull分布の混合を含む、請求項15に記載のシステム。
- 前記少なくとも1つのプロセッサ装置は、不正確なクラスタ割り当ての可能性の教師なしモデルを学習することによって、前記クラスタリング不確実性を生成するようにさらに構成される、請求項15に記載のシステム。
- 前記少なくとも1つのプロセッサ装置は、
前記ラベル付けされた顔データおよび前記1つまたは複数の擬似ラベル付けされたサンプルをニューラルネットワークに供給し、
前記クラスタリング不確実性と前記ニューラルネットワークの出力とを使用することによって、重み付けされた訓練損失を得るために前記1つまたは複数の擬似ラベル付けされたサンプルの訓練損失を減らすことによって、前記顔認識モデルを再訓練するようにさらに構成される、請求項15に記載のシステム。 - 前記少なくとも1つのプロセッサ装置は、顔認識タスクを実行するために前記顔認識モデルを実装するために前記メモリ装置上に格納されたプログラムコードを実行するようにさらに構成され、前記顔認識モデルは、計算システムまたは装置へのユーザのアクセスを前記ユーザの顔の分析に基づいて提供するバイオメトリックシステム内に実装される、請求項15に記載のシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962934617P | 2019-11-13 | 2019-11-13 | |
US62/934,617 | 2019-11-13 | ||
US17/091,066 | 2020-11-06 | ||
US17/091,066 US11600113B2 (en) | 2019-11-13 | 2020-11-06 | Deep face recognition based on clustering over unlabeled face data |
PCT/US2020/059651 WO2021096799A1 (en) | 2019-11-13 | 2020-11-09 | Deep face recognition based on clustering over unlabeled face data |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022547003A JP2022547003A (ja) | 2022-11-10 |
JP7289012B2 true JP7289012B2 (ja) | 2023-06-08 |
Family
ID=75846656
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022513896A Active JP7289012B2 (ja) | 2019-11-13 | 2020-11-09 | ラベル付けされていない顔データにわたるクラスタリングに基づく深層顔認識 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11600113B2 (ja) |
JP (1) | JP7289012B2 (ja) |
DE (1) | DE112020005572T5 (ja) |
WO (1) | WO2021096799A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11580780B2 (en) * | 2019-11-13 | 2023-02-14 | Nec Corporation | Universal feature representation learning for face recognition |
US20220351367A1 (en) * | 2021-04-30 | 2022-11-03 | Avicenna.Ai | Continuous update of hybrid models for multiple tasks learning from medical images |
CN113553975B (zh) * | 2021-07-29 | 2023-04-07 | 西安交通大学 | 基于样本对关系蒸馏的行人重识别方法、系统、设备及介质 |
CN113627447B (zh) * | 2021-10-13 | 2022-02-08 | 腾讯科技(深圳)有限公司 | 标签识别方法、装置、计算机设备、存储介质及程序产品 |
CN113987236B (zh) * | 2021-12-24 | 2022-03-22 | 中科视语(北京)科技有限公司 | 基于图卷积网络的视觉检索模型的无监督训练方法和装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017167834A (ja) | 2016-03-16 | 2017-09-21 | セコム株式会社 | 学習データ選択装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11017250B2 (en) * | 2010-06-07 | 2021-05-25 | Affectiva, Inc. | Vehicle manipulation using convolutional image processing |
US10204625B2 (en) * | 2010-06-07 | 2019-02-12 | Affectiva, Inc. | Audio analysis learning using video data |
US20130136298A1 (en) * | 2011-11-29 | 2013-05-30 | General Electric Company | System and method for tracking and recognizing people |
US10530671B2 (en) * | 2015-01-15 | 2020-01-07 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer readable media for generating and using a web page classification model |
US9875736B2 (en) * | 2015-02-19 | 2018-01-23 | Microsoft Technology Licensing, Llc | Pre-training and/or transfer learning for sequence taggers |
US9704054B1 (en) * | 2015-09-30 | 2017-07-11 | Amazon Technologies, Inc. | Cluster-trained machine learning for image processing |
IL250948B (en) * | 2017-03-05 | 2021-04-29 | Verint Systems Ltd | A system and method for using transfer learning to identify user actions |
US10025950B1 (en) * | 2017-09-17 | 2018-07-17 | Everalbum, Inc | Systems and methods for image recognition |
US11087142B2 (en) * | 2018-09-13 | 2021-08-10 | Nec Corporation | Recognizing fine-grained objects in surveillance camera images |
US11475714B2 (en) * | 2020-02-19 | 2022-10-18 | Motorola Solutions, Inc. | Systems and methods for detecting liveness in captured image data |
-
2020
- 2020-11-06 US US17/091,066 patent/US11600113B2/en active Active
- 2020-11-09 DE DE112020005572.8T patent/DE112020005572T5/de active Pending
- 2020-11-09 WO PCT/US2020/059651 patent/WO2021096799A1/en active Application Filing
- 2020-11-09 JP JP2022513896A patent/JP7289012B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017167834A (ja) | 2016-03-16 | 2017-09-21 | セコム株式会社 | 学習データ選択装置 |
Non-Patent Citations (2)
Title |
---|
Charles Otto et al.,Clustering Millions of Faces by Identity,IEEE Transactions on Pattern Analysis and Machine Intelligence ( Volume: 40, Issue: 2, 01 February 2018),米国,IEEE,2017年03月07日,https://ieeexplore.ieee.org/document/7873333 |
Lei Yang et al.,Learning to Cluster Faces on an Affinity Graph,2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR),米国,IEEE,2019年06月20日,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8954333 |
Also Published As
Publication number | Publication date |
---|---|
WO2021096799A1 (en) | 2021-05-20 |
US11600113B2 (en) | 2023-03-07 |
DE112020005572T5 (de) | 2022-09-08 |
US20210142046A1 (en) | 2021-05-13 |
JP2022547003A (ja) | 2022-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7289012B2 (ja) | ラベル付けされていない顔データにわたるクラスタリングに基づく深層顔認識 | |
CN113378632B (zh) | 一种基于伪标签优化的无监督域适应行人重识别方法 | |
Wang et al. | An effective image representation method using kernel classification | |
CN106951825B (zh) | 一种人脸图像质量评估系统以及实现方法 | |
Babu et al. | Sequential projection-based metacognitive learning in a radial basis function network for classification problems | |
Wallace et al. | Interpreting neural networks with nearest neighbors | |
JP5506722B2 (ja) | マルチクラス分類器をトレーニングするための方法 | |
KR20190013011A (ko) | 교사 모델로부터 학생 모델을 트레이닝하는데 사용되는 학습 데이터를 생성하는 장치 및 방법 | |
US7646894B2 (en) | Bayesian competitive model integrated with a generative classifier for unspecific person verification | |
US8620837B2 (en) | Determination of a basis for a new domain model based on a plurality of learned models | |
JP7257587B2 (ja) | 複数のデータセットからの訓練による物体検出 | |
WO2023088174A1 (zh) | 目标检测方法及装置 | |
Li et al. | An entropy-guided reinforced partial convolutional network for zero-shot learning | |
Zhang et al. | An unsupervised deep learning model to discover visual similarity between sketches for visual analogy support | |
CN115293217A (zh) | 一种基于射频信号的无监督伪标签优化行人重识别方法 | |
WO2021200392A1 (ja) | データ調整システム、データ調整装置、データ調整方法、端末装置及び情報処理装置 | |
Ubaidillah et al. | Classification of liver cancer using artificial neural network and support vector machine | |
Lee et al. | Learning non-homogenous textures and the unlearning problem with application to drusen detection in retinal images | |
JP7270839B2 (ja) | 顔認識のための汎用特徴表現学習 | |
Yang et al. | A two-stage training framework with feature-label matching mechanism for learning from label proportions | |
Verma et al. | Fatigue detection | |
US20220101101A1 (en) | Domain adaptation | |
Landgren et al. | Input verification for deep neural networks | |
Farias et al. | Analyzing the impact of data representations in classification problems using clustering | |
Bocharov et al. | K-shot learning of acoustic context |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220301 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230323 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230512 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230529 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7289012 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |