JP7405145B2 - モデル生成装置、モデル生成方法、及び、プログラム - Google Patents
モデル生成装置、モデル生成方法、及び、プログラム Download PDFInfo
- Publication number
- JP7405145B2 JP7405145B2 JP2021543900A JP2021543900A JP7405145B2 JP 7405145 B2 JP7405145 B2 JP 7405145B2 JP 2021543900 A JP2021543900 A JP 2021543900A JP 2021543900 A JP2021543900 A JP 2021543900A JP 7405145 B2 JP7405145 B2 JP 7405145B2
- Authority
- JP
- Japan
- Prior art keywords
- reliability
- target
- class
- model
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 22
- 238000004821 distillation Methods 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 7
- 230000015654 memory Effects 0.000 description 6
- 238000012937 correction Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
- G06V10/7784—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2178—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
- G06F18/2185—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor the supervisor being an automated module, e.g. intelligent oracle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
学習済みモデルを用いて画像データを認識し、各々が認識対象とするクラス毎に信頼度を出力する複数の認識手段と、
前記複数の認識手段が出力したクラス毎の信頼度のうち、ターゲットクラスに含まれるクラスの信頼度を統合して、複数のターゲットクラス毎の信頼度を生成する信頼度生成手段と、
ターゲットモデルを用いて前記画像データを認識し、前記ターゲットクラス毎の信頼度を出力するターゲットモデル認識手段と、
前記信頼度生成手段が生成した前記ターゲットクラス毎の信頼度と、前記ターゲットモデル認識手段が出力した前記ターゲットクラス毎の信頼度とが一致するように、前記ターゲットモデルのパラメータを調整するパラメータ調整手段と、
を備える。
学習済みモデルを用いる複数の認識手段により画像データを認識し、前記複数の認識手段の各々が認識対象とするクラス毎に信頼度を出力し、
前記複数の認識手段が出力したクラス毎の信頼度のうち、ターゲットクラスに含まれるクラスの信頼度を統合して、複数のターゲットクラス毎の第1の信頼度を生成し、
ターゲットモデルを用いて前記画像データを認識し、前記ターゲットクラス毎の第2の信頼度を出力し、
前記第1の信頼度と、前記第2の信頼度とが一致するように、前記ターゲットモデルのパラメータを調整する。
学習済みモデルを用いる複数の認識手段により画像データを認識し、前記複数の認識手段の各々が認識対象とするクラス毎に信頼度を出力し、
前記複数の認識手段が出力したクラス毎の信頼度のうち、ターゲットクラスに含まれるクラスの信頼度を統合して、複数のターゲットクラス毎の第1の信頼度を生成し、
ターゲットモデルを用いて前記画像データを認識し、前記ターゲットクラス毎の第2の信頼度を出力し、
前記第1の信頼度と、前記第2の信頼度とが一致するように、前記ターゲットモデルのパラメータを調整する処理をコンピュータに実行させる。
まず、本発明の実施形態の基本原理について説明する。本実施形態では、学習済みの大規模ネットワークにより構成される教師モデルを用いて、蒸留により新たな生徒モデルを生成する。「蒸留」とは、学習済みの教師モデルから未学習の生徒モデルに知識を伝達する手法である。
次に、本発明の第1実施形態について説明する。
(ハードウェア構成)
図2は、第1実施形態に係るモデル生成装置のハードウェア構成を示すブロック図である。図示のように、モデル生成装置10は、インタフェース(IF)12と、プロセッサ13と、メモリ14と、記録媒体15と、データベース(DB)16と、を備える。
次に、モデル生成装置10の機能構成について説明する。図3は、モデル生成装置10の機能構成を示すブロック図である。モデル生成装置10は、大別して、教師モデル部20と、生徒モデル部30とを備える。教師モデル部20は、画像入力部21と、2クラス認識部22a~22cと、信頼度生成部23とを備える。また、生徒モデル部30は、生徒モデル認識部32と、ロス算出部33と、パラメータ修正部34とを備える。
Pperson=96%、Pcar=3%、Psignal=1%
信頼度生成部23は、生成した教師モデル信頼度をロス算出部33に供給する。
次に、モデル生成処理について説明する。図4は、モデル生成装置10によるモデル生成処理のフローチャートである。この処理は、図2に示すプロセッサ13が予め用意されたプログラムを実行することにより実現される。
上記の実施形態では、信頼度生成部23は、上記の式(1)~(3)に示すように、2クラス認識部22a~22cが出力した信頼度の値そのものを用いて教師モデル信頼度を生成している。その代わりに、信頼度生成部23は、2クラス認識部22a~22cが出力した信頼度の値に対して重み付けを行って教師モデル信頼度を生成してもよい。例えば、2クラス認識部22a~22cが出力した信頼度に対する重みを「α」、「β」、「γ」とすると、信頼度生成部23は、クラス「人」の信頼度pperson、クラス「車」の信頼度pcar、クラス「信号」の信頼度psignalを以下のように算出する。
次に、本発明の第2実施形態について説明する。上述の第1実施形態では、教師モデル部20に使用される2クラス認識部22a~22cは、それぞれ1つの認識対象の有無、即ち、1つの認識対象について肯定クラスと否定クラスを認識するものであった。これに対し、第2実施形態では、複数の認識対象を認識する認識部を用いる点が第1実施形態と異なる。なお、第2実施形態に係るモデル生成装置のハードウェア構成は、図2に示す第1実施形態のものと同様である。
次に、本発明の第3実施形態について説明する。図8は、第3実施形態によるモデル生成装置40の機能構成を示す。なお、モデル生成装置40は、図2に示すハードウェア構成により実現される。
学習済みモデルを用いて画像データを認識し、各々が認識対象とするクラス毎に信頼度を出力する複数の認識部と、
前記複数の認識部が出力する信頼度に基づいて、複数のターゲットクラス毎の信頼度を生成する信頼度生成部と、
ターゲットモデルを用いて前記画像データを認識し、前記ターゲットクラス毎の信頼度を出力するターゲットモデル認識部と、
前記信頼度生成部が生成した前記ターゲットクラス毎の信頼度と、前記ターゲットモデル認識部が出力した前記ターゲットクラス毎の信頼度とが一致するように、前記ターゲットモデルのパラメータを調整するパラメータ調整部と、
を備えるモデル生成装置。
前記信頼度生成部は、前記複数の認識部が出力したクラス毎の信頼度のうち、前記ターゲットクラスに含まれるクラスの信頼度を統合して、前記ターゲットクラス毎の信頼度を生成する付記1に記載のモデル生成装置。
前記複数の認識部の各々は、前記画像データが認識対象を含むことを示す肯定クラス、及び、前記画像データが認識対象を含まないことを示す否定クラスについて信頼度を出力する2クラス認識部である付記1又は2に記載のモデル生成装置。
前記信頼度生成部は、前記複数の認識部の各々が、前記肯定クラスについて出力した信頼度を用いて、前記ターゲットクラス毎の信頼度を生成する付記3又は4に記載のモデル生成装置。
前記信頼度生成部は、前記複数の認識部が出力した肯定クラスの信頼度の合計に対する各肯定クラスの信頼度の割合に基づいて、前記ターゲットクラス毎の信頼度を生成する付記4に記載のモデル生成装置。
前記信頼度生成部は、前記割合を正規化した値を、前記ターゲットクラス毎の信頼度とする付記5に記載のモデル生成装置。
前記複数の認識部の各々は、異なる認識対象を認識する付記3乃至6のいずれか一項に記載のモデル生成装置。
前記複数の認識部の各々は、前記複数のターゲットクラスのうちの1つのクラスの認識対象を認識する付記7に記載のモデル生成装置。
前記複数の認識部の各々は、異なる複数の認識対象の認識を行う付記1又は2に記載のモデル生成装置。
前記複数の認識部の各々は、少なくとも前記複数のターゲットクラスのうちの1つのクラスを認識対象として含む付記9に記載のモデル生成装置。
学習済みモデルを用いる複数の認識部により画像データを認識し、前記複数の認識部の各々が認識対象とするクラス毎に信頼度を出力し、
前記複数の認識部が出力する信頼度に基づいて、複数のターゲットクラス毎の第1の信頼度を生成し、
ターゲットモデルを用いて前記画像データを認識し、前記ターゲットクラス毎の第2の信頼度を出力し、
前記第1の信頼度と、前記第2の信頼度とが一致するように、前記ターゲットモデルのパラメータを調整するモデル生成方法。
学習済みモデルを用いる複数の認識部により画像データを認識し、前記複数の認識部の各々が認識対象とするクラス毎に信頼度を出力し、
前記複数の認識部が出力する信頼度に基づいて、複数のターゲットクラス毎の第1の信頼度を生成し、
ターゲットモデルを用いて前記画像データを認識し、前記ターゲットクラス毎の第2の信頼度を出力し、
前記第1の信頼度と、前記第2の信頼度とが一致するように、前記ターゲットモデルのパラメータを調整する処理をコンピュータに実行させるプログラムを記録した記録媒体。
22a~22c 2クラス認識部
22e~22g 認識部
23 信頼度生成部
32 生徒モデル認識部
33 ロス算出部
34 パラメータ修正部
Claims (11)
- 学習済みモデルを用いて画像データを認識し、各々が認識対象とするクラス毎に信頼度を出力する複数の認識手段と、
前記複数の認識手段が出力したクラス毎の信頼度のうち、ターゲットクラスに含まれるクラスの信頼度を統合して、複数のターゲットクラス毎の信頼度を生成する信頼度生成手段と、
ターゲットモデルを用いて前記画像データを認識し、前記ターゲットクラス毎の信頼度を出力するターゲットモデル認識手段と、
前記信頼度生成手段が生成した前記ターゲットクラス毎の信頼度と、前記ターゲットモデル認識手段が出力した前記ターゲットクラス毎の信頼度とが一致するように、前記ターゲットモデルのパラメータを調整するパラメータ調整手段と、
を備えるモデル生成装置。 - 前記複数の認識手段の各々は、前記画像データが認識対象を含むことを示す肯定クラス、及び、前記画像データが認識対象を含まないことを示す否定クラスについて信頼度を出力する2クラス認識手段である請求項1に記載のモデル生成装置。
- 前記信頼度生成手段は、前記複数の認識手段の各々が、前記肯定クラスについて出力した信頼度を用いて、前記ターゲットクラス毎の信頼度を生成する請求項2に記載のモデル生成装置。
- 前記信頼度生成手段は、前記複数の認識手段が出力した肯定クラスの信頼度の合計に対する各肯定クラスの信頼度の割合に基づいて、前記ターゲットクラス毎の信頼度を生成する請求項3に記載のモデル生成装置。
- 前記信頼度生成手段は、前記割合を正規化した値を、前記ターゲットクラス毎の信頼度とする請求項4に記載のモデル生成装置。
- 前記複数の認識手段の各々は、異なる認識対象を認識する請求項2乃至5のいずれか一項に記載のモデル生成装置。
- 前記複数の認識手段の各々は、前記複数のターゲットクラスのうちの1つのクラスの認識対象を認識する請求項6に記載のモデル生成装置。
- 前記複数の認識手段の各々は、異なる複数の認識対象の認識を行う請求項1に記載のモデル生成装置。
- 前記複数の認識手段の各々は、少なくとも前記複数のターゲットクラスのうちの1つのクラスを認識対象として含む請求項8に記載のモデル生成装置。
- 学習済みモデルを用いる複数の認識手段により画像データを認識し、前記複数の認識手段の各々が認識対象とするクラス毎に信頼度を出力し、
前記複数の認識手段が出力したクラス毎の信頼度のうち、ターゲットクラスに含まれるクラスの信頼度を統合して、複数のターゲットクラス毎の第1の信頼度を生成し、
ターゲットモデルを用いて前記画像データを認識し、前記ターゲットクラス毎の第2の信頼度を出力し、
前記第1の信頼度と、前記第2の信頼度とが一致するように、前記ターゲットモデルのパラメータを調整するモデル生成方法。 - 学習済みモデルを用いる複数の認識手段により画像データを認識し、前記複数の認識手段の各々が認識対象とするクラス毎に信頼度を出力し、
前記複数の認識手段が出力したクラス毎の信頼度のうち、ターゲットクラスに含まれるクラスの信頼度を統合して、複数のターゲットクラス毎の第1の信頼度を生成し、
ターゲットモデルを用いて前記画像データを認識し、前記ターゲットクラス毎の第2の信頼度を出力し、
前記第1の信頼度と、前記第2の信頼度とが一致するように、前記ターゲットモデルのパラメータを調整する処理をコンピュータに実行させるプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/035014 WO2021044591A1 (ja) | 2019-09-05 | 2019-09-05 | モデル生成装置、モデル生成方法、及び、記録媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021044591A1 JPWO2021044591A1 (ja) | 2021-03-11 |
JPWO2021044591A5 JPWO2021044591A5 (ja) | 2022-04-01 |
JP7405145B2 true JP7405145B2 (ja) | 2023-12-26 |
Family
ID=74853291
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021543900A Active JP7405145B2 (ja) | 2019-09-05 | 2019-09-05 | モデル生成装置、モデル生成方法、及び、プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220301293A1 (ja) |
JP (1) | JP7405145B2 (ja) |
WO (1) | WO2021044591A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117099098A (zh) * | 2021-03-26 | 2023-11-21 | 三菱电机株式会社 | 重新学习系统和重新学习方法 |
CN115456167B (zh) | 2022-08-30 | 2024-03-12 | 北京百度网讯科技有限公司 | 轻量级模型训练方法、图像处理方法、装置及电子设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017531255A (ja) | 2014-09-12 | 2017-10-19 | マイクロソフト コーポレーションMicrosoft Corporation | 出力分布による生徒dnnの学習 |
WO2018126213A1 (en) | 2016-12-30 | 2018-07-05 | Google Llc | Multi-task learning using knowledge distillation |
US20190034764A1 (en) | 2017-07-31 | 2019-01-31 | Samsung Electronics Co., Ltd. | Method and apparatus for generating training data to train student model using teacher model |
CN109783824A (zh) | 2018-12-17 | 2019-05-21 | 北京百度网讯科技有限公司 | 基于翻译模型的翻译方法、装置及存储介质 |
US20190205748A1 (en) | 2018-01-02 | 2019-07-04 | International Business Machines Corporation | Soft label generation for knowledge distillation |
JP2022524662A (ja) | 2019-03-22 | 2022-05-09 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 蒸留を用いたそれぞれのターゲット・クラスを有するモデルの統合 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7362892B2 (en) * | 2003-07-02 | 2008-04-22 | Lockheed Martin Corporation | Self-optimizing classifier |
US10417501B2 (en) * | 2017-12-06 | 2019-09-17 | International Business Machines Corporation | Object recognition in video |
-
2019
- 2019-09-05 WO PCT/JP2019/035014 patent/WO2021044591A1/ja active Application Filing
- 2019-09-05 JP JP2021543900A patent/JP7405145B2/ja active Active
- 2019-09-05 US US17/640,571 patent/US20220301293A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017531255A (ja) | 2014-09-12 | 2017-10-19 | マイクロソフト コーポレーションMicrosoft Corporation | 出力分布による生徒dnnの学習 |
WO2018126213A1 (en) | 2016-12-30 | 2018-07-05 | Google Llc | Multi-task learning using knowledge distillation |
US20190034764A1 (en) | 2017-07-31 | 2019-01-31 | Samsung Electronics Co., Ltd. | Method and apparatus for generating training data to train student model using teacher model |
US20190205748A1 (en) | 2018-01-02 | 2019-07-04 | International Business Machines Corporation | Soft label generation for knowledge distillation |
CN109783824A (zh) | 2018-12-17 | 2019-05-21 | 北京百度网讯科技有限公司 | 基于翻译模型的翻译方法、装置及存储介质 |
JP2022524662A (ja) | 2019-03-22 | 2022-05-09 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 蒸留を用いたそれぞれのターゲット・クラスを有するモデルの統合 |
Non-Patent Citations (2)
Title |
---|
Jayakorn Vongkulbhisal, et al.,"Unifying Heterogeneous Classifiers with Distillation",Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR),IEEE,2019年06月20日,Pages 3170-3179,ISBN: 978-1-7281-3293-8, <DOI: 10.1109/CVPR.2019.00329>. |
Yevgen Chebotar, et al.,"Distilling knowledge from ensembles of neural networks for speech recognition",Proceedings of Interspeech 2016,[online], ISCA,2016年,Pages 3439-3443,[令和5年1月10日検索], インターネット, <URL: https://www.isca-speech.org/archive/interspeech_2016/chebotar16_interspeech.html> and <URL: https://www.isca-speech.org/archive/pdfs/interspeech_2016/chebotar16_interspeech.pdf>,<DOI: 10.21437/Interspeech.2016-1190>. |
Also Published As
Publication number | Publication date |
---|---|
WO2021044591A1 (ja) | 2021-03-11 |
US20220301293A1 (en) | 2022-09-22 |
JPWO2021044591A1 (ja) | 2021-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102644947B1 (ko) | 뉴럴 네트워크를 위한 트레이닝 방법, 뉴럴 네트워크를 이용한 인식 방법 및 그 장치들 | |
KR102641116B1 (ko) | 데이터 증강에 기초한 인식 모델 트레이닝 방법 및 장치, 이미지 인식 방법 및 장치 | |
US10990852B1 (en) | Method and apparatus for training model for object classification and detection | |
JP6708847B1 (ja) | 機械学習装置及び方法 | |
KR20190013011A (ko) | 교사 모델로부터 학생 모델을 트레이닝하는데 사용되는 학습 데이터를 생성하는 장치 및 방법 | |
US11436497B2 (en) | System and method for optimization of deep learning model | |
CN116635866A (zh) | 用于挖掘少数类数据样本以训练神经网络的方法和系统 | |
CN110537184A (zh) | 利用生成式对抗网络的半监督回归 | |
JP7405145B2 (ja) | モデル生成装置、モデル生成方法、及び、プログラム | |
EP3646252A1 (en) | Selective training for decorrelation of errors | |
CN115618941A (zh) | 训练精炼的机器学习模型 | |
AU2015226983A1 (en) | Neural network and method of neural network training | |
JP7384217B2 (ja) | 学習装置、学習方法、及び、プログラム | |
KR102570070B1 (ko) | 일반화된 사용자 모델을 이용한 사용자 인증 방법 및 장치 | |
WO2021132099A1 (ja) | 学習支援装置、学習装置、学習支援方法及び学習支援プログラム | |
JP2018194974A (ja) | 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法 | |
JP2015210747A (ja) | 階層型ニューラルネットワークの学習システム及び方法 | |
CN109508658A (zh) | 一种多生物特征联合识别方法及装置 | |
KR20210060146A (ko) | 딥 뉴럴 네트워크 모델을 이용한 데이터 처리 방법 및 장치, 딥 뉴럴 네트워크 모델을 학습시키는 학습 방법 및 장치 | |
JP2023044336A (ja) | 学習装置、学習方法およびプログラム | |
JP2021093144A (ja) | センサ特化イメージ認識装置及び方法 | |
JP2020052935A (ja) | 学習済みモデルを生成する方法、データを分類する方法、コンピュータおよびプログラム | |
KR20160106063A (ko) | 패턴 인식 시스템 및 방법 | |
WO2023127062A1 (ja) | データ生成方法,機械学習方法,情報処理装置,データ生成プログラムおよび機械学習プログラム | |
KR20200094354A (ko) | 버스트 스파이크 기반한 스파이킹 신경망 생성 방법 및 스파이킹 신경망 기반 추론 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220112 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230905 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231127 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7405145 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |