JP7291183B2 - モデルをトレーニングするための方法、装置、デバイス、媒体、およびプログラム製品 - Google Patents
モデルをトレーニングするための方法、装置、デバイス、媒体、およびプログラム製品 Download PDFInfo
- Publication number
- JP7291183B2 JP7291183B2 JP2021153612A JP2021153612A JP7291183B2 JP 7291183 B2 JP7291183 B2 JP 7291183B2 JP 2021153612 A JP2021153612 A JP 2021153612A JP 2021153612 A JP2021153612 A JP 2021153612A JP 7291183 B2 JP7291183 B2 JP 7291183B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- constraint
- augmented
- classification result
- samples
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Description
ただし、重みは、異なるアプリケーションのニーズに応じて調整できる。コンピューティングデバイス110は、最終的に、合計制約に従って第1のモデル132のパラメータを調整して、合計制約を最小化し、それにより、トレーニングされた第1のモデルを取得することができる。
Claims (20)
- 複数の元のサンプルに対応する複数の拡張サンプルセットを特定することと、
前記複数の拡張サンプルセットに基づいて、第1のモデルに従って同じ拡張サンプルセット内の異なる拡張サンプルに対する第1のモデルの出力間の差分に関している第1の制約を特定することと、
前記複数の拡張サンプルセットに基づいて、複雑さが第2のモデルの複雑さよりも低い第1のモデルと第2のモデルに従って、同じ拡張サンプルセットに対する第1のモデルと第2のモデルの出力間の差分に関している第2の制約を特定することと、
少なくとも前記第1の制約および前記第2の制約に基づいて、前記第1のモデルのトレーニングパラメータを調整して前記第1のモデルをトレーニングして、トレーニングされた前記第1のモデルを取得することと、を含む、
モデルをトレーニングするための方法。 - 前記複数の拡張サンプルセットに基づいて、第1のモデルに従って第1の制約を特定することは、
拡張サンプルセット内の第1の拡張サンプルに基づいて、前記第1のモデルに従って第1の分類結果を生成することと、
前記拡張サンプルセット内の第2の拡張サンプルに基づいて、前記第1のモデルに従って第2の分類結果を生成することと、
前記拡張サンプルセット内の第3の拡張サンプルに基づいて、前記第1のモデルに従って第3の分類結果を生成することと、
前記第1の分類結果、前記第2の分類結果と前記第3の分類結果との間の差分に基づいて、前記第1の制約を特定することと、を含む
請求項1に記載の方法。 - 拡張サンプルが、前記拡張サンプルのカテゴリを示すタグを有し、
前記複数の拡張サンプルセットに基づいて、第1のモデルに従って前記拡張サンプルに対する第1のモデルの出力と前記タグの差分に関している第3の制約を特定することをさらに含み、
少なくとも前記第1の制約および前記第2の制約に基づいて、前記第1のモデルをトレーニングして、トレーニングされた前記第1のモデルを取得することは、
前記第1の制約、前記第2の制約、前記第3の制約および、前記第1の制約、前記第2の制約、前記第3の制約にそれぞれ関連する重みに基づいて前記第1のモデルをトレーニングしてトレーニングされた第1のモデルを取得することを含む
請求項1に記載の方法。 - 前記複数の拡張サンプルセットに基づいて、前記第1のモデルと前記第2のモデルに従って第2の制約を特定することは、
第4の拡張サンプルに基づいて第1のモデルに従って第4の分類結果を生成することと、
前記第4の拡張サンプルに基づいて前記第2のモデルに従って第5の分類結果を生成することと、
前記第4の分類結果と前記第5の分類結果との間の差分に基づいて前記第2の制約を特定することと、を含む
請求項1に記載の方法。 - サンプルは、画像、ビデオ、オーディオ、テキスト、およびマルチメディアファイルのうちの少なくとも1つを含む
請求項1に記載の方法。 - 入力データを取得することと、
請求項1~5のいずれか一項に記載の方法によってトレーニングされた、トレーニングされたモデルを使用して入力データに対する予測結果を特定することと、を含む
データを処理するための方法。 - 前記入力データは画像のデータであり、
前記トレーニングされたモデルは画像分類モデル、セマンティックセグメンテーションモデル、およびターゲット認識モデルのうちの1つであり、前記予測結果は前記画像の分類結果とセマンティックセグメンテーション結果とターゲット認識結果中の対応する一つ項である
請求項6に記載の方法。 - 複数の元のサンプルに対応する複数の拡張サンプルセットを特定するように構成される拡張サンプル特定モジュールと、
前記複数の拡張サンプルセットに基づいて第1のモデルに従って同じ拡張サンプルセット内の異なる拡張サンプルに対する第1のモデルの出力間の差分に関している第1の制約を特定するように構成される第1の制約特定モジュールと、
前記複数の拡張サンプルセットに基づいて、複雑さが第2のモデルの複雑さよりも低い前記第1のモデルと第2のモデルに従って同じ拡張サンプルセットに対する第1のモデルと第2のモデルの出力間の差分に関している第2の制約を特定するように構成される第2の制約特定モジュールと、
少なくとも前記第1の制約および前記第2の制約に基づいて、前記第1のモデルのトレーニングパラメータを調整して前記第1のモデルをトレーニングして、トレーニングされた前記第1のモデルを取得するように構成される第1のモデルトレーニングモジュールと、を含む、
モデルをトレーニングするための装置。 - 前記第1の制約特定モジュールは、
拡張サンプルセット内の第1の拡張サンプルに基づいて第1のモデルに従って第1の分類結果を生成するように構成される第1の結果生成モジュールと、
前記拡張サンプルセット内の第2の拡張サンプルに基づいて前記第1のモデルに従って第2の分類結果を生成するように構成される第2の結果生成モジュールと、
前記拡張サンプルセット内の第3の拡張サンプルに基づいて前記第1のモデルに従って第3の分類結果を生成するように構成される第3の結果生成モジュールと、
前記第1の分類結果と前記第2の分類結果と前記第3の分類結果との間の差分に基づいて前記第1の制約を特定するように構成される第4の制約特定モジュールと、を含む
請求項8に記載の装置。 - 拡張サンプルが、前記拡張サンプルのカテゴリを示すタグを有し、
前記装置は、
前記複数の拡張サンプルセットに基づいて第1のモデルに従って前記拡張サンプルに対する前記第1のモデルの出力と前記タグの差分に関している第3の制約を特定するように構成される第5の制約特定モジュール、をさらに含み、
前記第1のモデルトレーニングモジュールは、
前記第1の制約、前記第2の制約、前記第3の制約および、前記第1の制約、前記第2の制約、前記第3の制約にそれぞれ関連する重みに基づいて前記第1のモデルをトレーニングしてトレーニングされた前記第1のモデルを取得するように構成される第2のモデルトレーニングモジュールを含む、
請求項8に記載の装置。 - 前記第2の制約特定モジュールは、
第4の拡張サンプルに基づいて前記第1のモデルに従って第4の分類結果を生成するように構成される第4の結果生成モジュールと、
前記第4の拡張サンプルに基づいて前記第2のモデルに従って第5の分類結果を生成するように構成される第5の結果生成モジュールと、
前記第4の分類結果と前記第5の分類結果との間の差分に基づいて前記第2の制約を特定するように構成される第6の制約特定モジュールと、を含む、
請求項8に記載の装置。 - サンプルは、画像、ビデオ、オーディオ、テキスト、およびマルチメディアファイルのうちの少なくとも1つを含む、
請求項8に記載の装置。 - 入力データを取得するデータ取得モジュールと、
請求項8~12のいずれか一項に記載の装置によってトレーニングされたトレーニングされたモデルを使用して入力データに対する予測結果を特定する予測モジュールと、を含む
データを処理するための装置。 - 前記入力データは画像のデータであり、
前記トレーニングされたモデルは画像分類モデル、セマンティックセグメンテーションモデル、およびターゲット認識モデルのうちの1つであり、前記予測結果は前記画像の分類結果とセマンティックセグメンテーション結果とターゲット認識結果中の対応する一つ項である、
請求項13に記載の装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されたメモリと、を含み、
前記メモリは、前記少なくとも1つのプロセッサによって実行可能な命令を記憶し、前記命令は、前記少なくとも1つのプロセッサが請求項1~5のいずれか一項に記載の方法を実行するように、前記少なくとも1つのプロセッサによって実行される
電子デバイス。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されたメモリと、を含み、
前記メモリは、前記少なくとも1つのプロセッサによって実行可能な命令を記憶し、前記命令は、前記少なくとも1つのプロセッサが請求項6~7のいずれか一項に記載の方法を実行するように、前記少なくとも1つのプロセッサによって実行される
電子デバイス。 - コンピュータに請求項1~5のいずれか一項に記載の方法を実行させるコンピュータ命令を記憶した非一時的なコンピュータ読み取り可能な記憶媒体。
- コンピュータに請求項6~7のいずれか一項に記載の方法を実行させるコンピュータ命令を記憶した非一時的なコンピュータ読み取り可能な記憶媒体。
- プロセッサによって実行される場合、請求項1~5のいずれか一項に記載の方法を実現するコンピュータプログラム。
- プロセッサによって実行される場合、請求項6~7のいずれか一項に記載の方法を実現するコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110321597.X | 2021-03-25 | ||
CN202110321597.XA CN113033537B (zh) | 2021-03-25 | 2021-03-25 | 用于训练模型的方法、装置、设备、介质和程序产品 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022006174A JP2022006174A (ja) | 2022-01-12 |
JP7291183B2 true JP7291183B2 (ja) | 2023-06-14 |
Family
ID=76474029
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021153612A Active JP7291183B2 (ja) | 2021-03-25 | 2021-09-21 | モデルをトレーニングするための方法、装置、デバイス、媒体、およびプログラム製品 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220004811A1 (ja) |
EP (1) | EP3913542A3 (ja) |
JP (1) | JP7291183B2 (ja) |
KR (1) | KR20210124111A (ja) |
CN (1) | CN113033537B (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113420533B (zh) * | 2021-07-09 | 2023-12-29 | 中铁七局集团有限公司 | 信息提取模型的训练方法、装置及电子设备 |
CN113807455A (zh) * | 2021-09-26 | 2021-12-17 | 北京有竹居网络技术有限公司 | 构建聚类模型的方法、设备、介质和程序产品 |
KR102479679B1 (ko) * | 2021-12-31 | 2022-12-21 | 주식회사 애자일소다 | 데이터 증강과 오토 레이블링을 이용한 데이터 구축 장치 및 방법 |
CN114595923B (zh) * | 2022-01-11 | 2023-04-28 | 电子科技大学 | 一种基于深度强化学习的群体教学推荐系统 |
CN114612725B (zh) * | 2022-03-18 | 2023-04-25 | 北京百度网讯科技有限公司 | 图像处理方法、装置、设备及存储介质 |
CN114372477B (zh) * | 2022-03-21 | 2022-06-10 | 北京百度网讯科技有限公司 | 文本识别模型的训练方法、文本识别方法及装置 |
CN114596637B (zh) * | 2022-03-23 | 2024-02-06 | 北京百度网讯科技有限公司 | 图像样本数据增强训练方法、装置及电子设备 |
CN115050238B (zh) * | 2022-07-08 | 2024-03-12 | 卡斯柯信号有限公司 | 一种基于真实ctc系统的多模式切换仿真实训系统 |
CN116071621B (zh) * | 2023-03-15 | 2023-06-23 | 中汽智联技术有限公司 | 针对感知算法的训练样本生成和验证方法、设备和介质 |
CN117253287B (zh) * | 2023-09-21 | 2024-04-26 | 书行科技(北京)有限公司 | 基于域泛化的动作预测模型训练方法、相关方法及产品 |
CN117435981B (zh) * | 2023-12-22 | 2024-03-01 | 四川泓宝润业工程技术有限公司 | 机泵设备运行故障诊断方法、装置、存储介质及电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017531255A (ja) | 2014-09-12 | 2017-10-19 | マイクロソフト コーポレーションMicrosoft Corporation | 出力分布による生徒dnnの学習 |
JP2020140466A (ja) | 2019-02-28 | 2020-09-03 | 富士通株式会社 | 訓練データ拡張装置、方法、及びプログラム |
US20210056417A1 (en) | 2019-08-22 | 2021-02-25 | Google Llc | Active learning via a sample consistency assessment |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9786270B2 (en) * | 2015-07-09 | 2017-10-10 | Google Inc. | Generating acoustic models |
WO2021202170A1 (en) * | 2020-03-30 | 2021-10-07 | University Of Florida Research Foundation | Collaborative feature ensembling adaptation for domain adaptation in unsupervised optic disc and cup segmentation |
-
2021
- 2021-03-25 CN CN202110321597.XA patent/CN113033537B/zh active Active
- 2021-09-20 US US17/479,061 patent/US20220004811A1/en active Pending
- 2021-09-21 EP EP21197956.2A patent/EP3913542A3/en active Pending
- 2021-09-21 JP JP2021153612A patent/JP7291183B2/ja active Active
- 2021-09-23 KR KR1020210126010A patent/KR20210124111A/ko unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017531255A (ja) | 2014-09-12 | 2017-10-19 | マイクロソフト コーポレーションMicrosoft Corporation | 出力分布による生徒dnnの学習 |
JP2020140466A (ja) | 2019-02-28 | 2020-09-03 | 富士通株式会社 | 訓練データ拡張装置、方法、及びプログラム |
US20210056417A1 (en) | 2019-08-22 | 2021-02-25 | Google Llc | Active learning via a sample consistency assessment |
Non-Patent Citations (1)
Title |
---|
Fabian Ruffy, et al.,The State of Knowledge Distillation for Classification,arXiv:1912.10850,2019年12月20日,<URL: https://arxiv.org/abs/1912.10850> |
Also Published As
Publication number | Publication date |
---|---|
CN113033537B (zh) | 2022-07-01 |
KR20210124111A (ko) | 2021-10-14 |
EP3913542A2 (en) | 2021-11-24 |
CN113033537A (zh) | 2021-06-25 |
EP3913542A3 (en) | 2022-05-11 |
US20220004811A1 (en) | 2022-01-06 |
JP2022006174A (ja) | 2022-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7291183B2 (ja) | モデルをトレーニングするための方法、装置、デバイス、媒体、およびプログラム製品 | |
US11367271B2 (en) | Similarity propagation for one-shot and few-shot image segmentation | |
US11960843B2 (en) | Multi-module and multi-task machine learning system based on an ensemble of datasets | |
US20230229919A1 (en) | Learning to generate synthetic datasets for training neural networks | |
US20220327809A1 (en) | Method, device and storage medium for training model based on multi-modal data joint learning | |
WO2021159714A1 (zh) | 一种数据处理方法及相关设备 | |
US11574142B2 (en) | Semantic image manipulation using visual-semantic joint embeddings | |
EP3961584A2 (en) | Character recognition method, model training method, related apparatus and electronic device | |
US20220004928A1 (en) | Method and apparatus for incrementally training model | |
WO2019154411A1 (zh) | 词向量更新方法和装置 | |
US20230162477A1 (en) | Method for training model based on knowledge distillation, and electronic device | |
JP7430820B2 (ja) | ソートモデルのトレーニング方法及び装置、電子機器、コンピュータ可読記憶媒体、コンピュータプログラム | |
US11386114B2 (en) | Structure-based transformers with localization and encoding for chart question answering | |
US20230230198A1 (en) | Utilizing a generative neural network to interactively create and modify digital images based on natural language feedback | |
US10936938B2 (en) | Method for visualizing neural network models | |
CN117033609B (zh) | 文本视觉问答方法、装置、计算机设备和存储介质 | |
US20230114673A1 (en) | Method for recognizing token, electronic device and storage medium | |
CN116051388A (zh) | 经由语言请求的自动照片编辑 | |
CN113434683A (zh) | 文本分类方法、装置、介质及电子设备 | |
CN113360683B (zh) | 训练跨模态检索模型的方法以及跨模态检索方法和装置 | |
WO2024060839A1 (zh) | 对象操作方法、装置、计算机设备以及计算机存储介质 | |
CN116258147A (zh) | 一种基于异构图卷积的多模态评论情感分析方法及系统 | |
CN113139463B (zh) | 用于训练模型的方法、装置、设备、介质和程序产品 | |
CN113343979B (zh) | 用于训练模型的方法、装置、设备、介质和程序产品 | |
US20240153259A1 (en) | Single image concept encoder for personalization using a pretrained diffusion model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210921 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230602 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7291183 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |