JP2023518015A - データ保護方法、装置、サーバ及び媒体 - Google Patents
データ保護方法、装置、サーバ及び媒体 Download PDFInfo
- Publication number
- JP2023518015A JP2023518015A JP2022555056A JP2022555056A JP2023518015A JP 2023518015 A JP2023518015 A JP 2023518015A JP 2022555056 A JP2022555056 A JP 2022555056A JP 2022555056 A JP2022555056 A JP 2022555056A JP 2023518015 A JP2023518015 A JP 2023518015A
- Authority
- JP
- Japan
- Prior art keywords
- sample
- gradient
- target sample
- target
- samples
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 239000000523 sample Substances 0.000 claims abstract description 319
- 238000012546 transfer Methods 0.000 claims abstract description 90
- 238000012549 training Methods 0.000 claims abstract description 74
- 239000013074 reference sample Substances 0.000 claims abstract description 57
- 238000009826 distribution Methods 0.000 claims abstract description 19
- 238000012937 correction Methods 0.000 claims abstract description 6
- 230000000875 corresponding effect Effects 0.000 claims description 149
- 230000004044 response Effects 0.000 claims description 16
- 230000002596 correlated effect Effects 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 9
- 238000004891 communication Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 10
- 210000002569 neuron Anatomy 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000012512 characterization method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000003795 chemical substances by application Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000010420 art technique Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2193—Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/091—Active learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioethics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Information Transfer Between Computers (AREA)
- Complex Calculations (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
Description
上記所定のカテゴリラベルiと一致しない目標サンプル(即ち、負のサンプル)に対して、N(0、 σ2)分布に合致するノイズを追加する。σの値は、前述の第1標準差を例として、即ち、
すると、
相応的に、上記所定のカテゴリラベルiと一致し(即ち、正のサンプル)、且つ相応のサンプル予測確率が上記参照サンプルのサンプル予測確率よりも大きい目標サンプルに対して、N(0、 σ2)分布に合致するノイズを追加する。σの値は、前述の第2標準差を例として、即ち、
Claims (10)
- 分布不均衡の二分類サンプルセットに属する目標サンプルと、前記目標サンプルと同一バッチに属する参照サンプルとにそれぞれ対応する勾配関連情報を取得するステップと、
前記目標サンプルに対応する勾配関連情報と前記参照サンプルに対応する勾配関連情報との比較結果に基づいて、追加するデータノイズの情報を生成するステップと、
前記サンプルセットにおける異なるカテゴリに属するサンプルに対応する勾配伝達情報が一致するように、前記追加するデータノイズの情報に基づいて前記目標サンプルに対応する初期勾配伝達値を補正して、補正後の勾配伝達情報を生成するステップと、
前記勾配伝達情報を連携トレーニングモデルの受動参加者に送信して、前記受動参加者に前記勾配伝達情報に基づいて前記連携トレーニングモデルのパラメータを調整させるステップと、を含み、
前記初期勾配伝達値は、トレーニングする連携トレーニングモデルを、前記目標サンプルに基づいて調整することを指示するためのものである、
データ保護方法。 - 前記勾配関連情報は、サンプルカテゴリを表すためのサンプルラベルとサンプル予測確率とを含み、前記サンプル予測確率は、前記サンプルが連携トレーニングモデルを経ることにより得られた、所定のカテゴリラベルであると予測された確率を表すためのものであり、前記所定のカテゴリラベルは、前記サンプルセットにおいて占める割合が小さいサンプルラベルを含み、前記参照サンプルは、前記サンプル予測確率が所定の確率条件を満たし、且つ前記サンプルラベルが前記所定のカテゴリラベルと一致するサンプルを含み、
前記目標サンプルに対応する勾配関連情報と前記参照サンプルに対応する勾配関連情報との比較結果に基づいて、追加するデータノイズの情報を生成するステップは、前記目標サンプルに対応するサンプルラベルが前記所定のカテゴリラベルと一致するか否かに応じて、前記目標サンプルにマッチングする追加するデータノイズの標準差を生成するステップを含む、
請求項1に記載の方法。 - 前記目標サンプルに対応するサンプルラベルが前記所定のカテゴリラベルと一致するか否かに応じて、前記目標サンプルにマッチングする追加するデータノイズの標準差を生成するステップは、
前記目標サンプルに対応するサンプルラベルが前記所定のカテゴリラベルと一致しないと判定されたことに応答して、前記目標サンプルにマッチングする追加するデータノイズの標準差として、前記目標サンプルに対応するサンプル予測確率と負の相関となる第1標準差を生成するステップを含む、
請求項2に記載の方法。 - 前記目標サンプルに対応するサンプルラベルが前記所定のカテゴリラベルと一致するか否かに応じて、前記目標サンプルにマッチングする追加するデータノイズの標準差を生成するステップは、
前記目標サンプルに対応するサンプルラベルが前記所定のカテゴリラベルと一致し、且つ前記目標サンプルに対応するサンプル予測確率が前記参照サンプルのサンプル予測確率より大きいと判定されたことに応答して、前記目標サンプルにマッチングする追加するデータノイズの標準差として、前記目標サンプルに対応するサンプル予測確率と正の相関となる第2標準差を生成するステップを含む、
請求項2に記載の方法。 - 前記参照サンプルは、前記目標サンプルと同一バッチであって、前記所定のカテゴリラベルと一致するサンプルのうちサンプル予測確率が最も小さいサンプルを含む、
請求項2乃至4のいずれか一項に記載の方法。 - 前記勾配関連情報は、サンプルに対応する損失関数の、前記受動参加者に属するモデル部分のパラメータに対する勾配を指示するための勾配係数を含み、
前記目標サンプルに対応する勾配関連情報と前記参照サンプルに対応する勾配関連情報との比較結果に基づいて、追加するデータノイズの情報を生成するステップは、
前記目標サンプルに対応する勾配係数が前記参照サンプルの勾配係数よりも小さいと判定されたことに応答して、前記目標サンプルにマッチングする追加するデータノイズの標準差として、前記目標サンプルに対応する勾配係数と負の相関となる第3標準差を生成するステップを含む、
請求項1に記載の方法。 - 前記参照サンプルは、前記目標サンプルと同一バッチのサンプルのうち勾配係数が最も大きいサンプルを含む、
請求項6に記載の方法。 - 分布不均衡の二分類サンプルセットに属する目標サンプルと、前記目標サンプルと同一バッチに属する参照サンプルとにそれぞれ対応する勾配関連情報を取得するように構成された取得手段と、
前記目標サンプルに対応する勾配関連情報と前記参照サンプルに対応する勾配関連情報との比較結果に基づいて、追加するデータノイズの情報を生成するように構成された生成手段と、
前記サンプルセットにおける異なるカテゴリに属するサンプルに対応する勾配伝達情報が一致するように、前記追加するデータノイズの情報に基づいて前記目標サンプルに対応する初期勾配伝達値を補正して、補正後の勾配伝達情報を生成するように構成された補正手段と、
前記勾配伝達情報を連携トレーニングモデルの受動参加者に送信して、前記受動参加者に前記勾配伝達情報に基づいて前記連携トレーニングモデルのパラメータを調整させるように構成された送信手段と、を備え、
前記初期勾配伝達値は、トレーニングする連携トレーニングモデルを、前記目標サンプルに基づいて調整することを指示するためのものである、
データ保護装置。 - 1つ又は複数のプロセッサと、
1つ又は複数のプログラムが記憶された記憶装置と、を備え、
前記1つ又は複数のプログラムが前記1つ又は複数のプロセッサに実行されると、前記1つ又は複数のプロセッサに請求項1乃至7のいずれか一項に記載の方法を実現させる、
サーバ。 - プロセッサに実行されるとき、請求項1~7のいずれか一項に記載の方法を実現するコンピュータプログラムが記憶された、
コンピュータ読み取り可能な媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010640985.XA CN111783142B (zh) | 2020-07-06 | 2020-07-06 | 数据保护方法、装置、服务器和介质 |
CN202010640985.X | 2020-07-06 | ||
PCT/CN2021/102488 WO2022007651A1 (zh) | 2020-07-06 | 2021-06-25 | 数据保护方法、装置、服务器和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023518015A true JP2023518015A (ja) | 2023-04-27 |
JP7354463B2 JP7354463B2 (ja) | 2023-10-02 |
Family
ID=72757996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022555056A Active JP7354463B2 (ja) | 2020-07-06 | 2021-06-25 | データ保護方法、装置、サーバ及び媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11755691B2 (ja) |
EP (1) | EP4083839A4 (ja) |
JP (1) | JP7354463B2 (ja) |
CN (1) | CN111783142B (ja) |
WO (1) | WO2022007651A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111783142B (zh) * | 2020-07-06 | 2021-10-08 | 北京字节跳动网络技术有限公司 | 数据保护方法、装置、服务器和介质 |
CN112347476B (zh) * | 2020-11-13 | 2024-02-02 | 脸萌有限公司 | 数据保护方法、装置、介质及设备 |
CN113190872B (zh) * | 2021-05-28 | 2024-08-13 | 脸萌有限公司 | 数据保护方法、网络结构训练方法、装置、介质及设备 |
CN113722738B (zh) * | 2021-09-02 | 2023-08-08 | 脸萌有限公司 | 数据保护方法、装置、介质及电子设备 |
CN114091065A (zh) * | 2021-11-23 | 2022-02-25 | 脸萌有限公司 | 用于保护敏感数据的方法、设备、装置和介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180268283A1 (en) * | 2017-03-17 | 2018-09-20 | Microsoft Technology Licensing, Llc | Predictive Modeling from Distributed Datasets |
US20190132708A1 (en) * | 2017-10-30 | 2019-05-02 | Apple Inc. | Expanded Implementation of Enhanced Broadcast Multicast Services for Broadcast Multicast Content Selection and Service |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6680735B1 (en) * | 2000-10-04 | 2004-01-20 | Terarecon, Inc. | Method for correcting gradients of irregular spaced graphic data |
US10755172B2 (en) * | 2016-06-22 | 2020-08-25 | Massachusetts Institute Of Technology | Secure training of multi-party deep neural network |
CN109388661B (zh) * | 2017-08-02 | 2020-04-21 | 创新先进技术有限公司 | 一种基于共享数据的模型训练方法及装置 |
US11475350B2 (en) * | 2018-01-22 | 2022-10-18 | Google Llc | Training user-level differentially private machine-learned models |
CN108416370B (zh) * | 2018-02-07 | 2022-03-22 | 深圳大学 | 基于半监督深度学习的图像分类方法、装置和存储介质 |
CN109165515A (zh) * | 2018-08-10 | 2019-01-08 | 深圳前海微众银行股份有限公司 | 基于联邦学习的模型参数获取方法、系统及可读存储介质 |
CN109684855B (zh) * | 2018-12-17 | 2020-07-10 | 电子科技大学 | 一种基于隐私保护技术的联合深度学习训练方法 |
CN109919299A (zh) * | 2019-02-19 | 2019-06-21 | 西安交通大学 | 一种基于元学习器逐步梯度校正的元学习算法 |
US10878298B2 (en) * | 2019-03-06 | 2020-12-29 | Adobe Inc. | Tag-based font recognition by utilizing an implicit font classification attention neural network |
CN110390206A (zh) * | 2019-04-19 | 2019-10-29 | 江苏慧中数据科技有限公司 | 边云系统框架下具有隐私保护的梯度下降加速算法 |
CN110443063B (zh) * | 2019-06-26 | 2023-03-28 | 电子科技大学 | 自适性保护隐私的联邦深度学习的方法 |
CN110728375B (zh) * | 2019-10-16 | 2021-03-19 | 支付宝(杭州)信息技术有限公司 | 多个计算单元联合训练逻辑回归模型的方法和装置 |
CN110797124B (zh) * | 2019-10-30 | 2024-04-12 | 腾讯科技(深圳)有限公司 | 一种模型多端协同训练方法、医疗风险预测方法和装置 |
CN111260061B (zh) * | 2020-03-09 | 2022-07-19 | 厦门大学 | 联邦学习梯度交换中的差异化加噪方法及系统 |
CN111008709A (zh) * | 2020-03-10 | 2020-04-14 | 支付宝(杭州)信息技术有限公司 | 联邦学习、资料风险评估方法、装置和系统 |
CN111783142B (zh) | 2020-07-06 | 2021-10-08 | 北京字节跳动网络技术有限公司 | 数据保护方法、装置、服务器和介质 |
-
2020
- 2020-07-06 CN CN202010640985.XA patent/CN111783142B/zh active Active
-
2021
- 2021-06-25 EP EP21836952.8A patent/EP4083839A4/en active Pending
- 2021-06-25 JP JP2022555056A patent/JP7354463B2/ja active Active
- 2021-06-25 WO PCT/CN2021/102488 patent/WO2022007651A1/zh unknown
-
2022
- 2022-07-29 US US17/816,250 patent/US11755691B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180268283A1 (en) * | 2017-03-17 | 2018-09-20 | Microsoft Technology Licensing, Llc | Predictive Modeling from Distributed Datasets |
US20190132708A1 (en) * | 2017-10-30 | 2019-05-02 | Apple Inc. | Expanded Implementation of Enhanced Broadcast Multicast Services for Broadcast Multicast Content Selection and Service |
Also Published As
Publication number | Publication date |
---|---|
US20220383054A1 (en) | 2022-12-01 |
US11755691B2 (en) | 2023-09-12 |
EP4083839A4 (en) | 2023-10-25 |
WO2022007651A1 (zh) | 2022-01-13 |
EP4083839A1 (en) | 2022-11-02 |
CN111783142B (zh) | 2021-10-08 |
CN111783142A (zh) | 2020-10-16 |
JP7354463B2 (ja) | 2023-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2023518015A (ja) | データ保護方法、装置、サーバ及び媒体 | |
CN109816589B (zh) | 用于生成漫画风格转换模型的方法和装置 | |
CN108197652B (zh) | 用于生成信息的方法和装置 | |
US10650492B2 (en) | Method and apparatus for generating image | |
US20190080148A1 (en) | Method and apparatus for generating image | |
CN105447204B (zh) | 网址识别方法和装置 | |
CN107507153B (zh) | 图像去噪方法和装置 | |
Barbosa et al. | A measure for intrinsic information | |
CN109478204A (zh) | 非结构化文本的机器理解 | |
CN109377508B (zh) | 图像处理方法和装置 | |
US20240289999A1 (en) | Method, apparatus, device and storage medium for image generation | |
WO2020093724A1 (zh) | 生成信息的方法和装置 | |
US20200342307A1 (en) | Swarm fair deep reinforcement learning | |
CN112966701A (zh) | 目标分类的方法和装置 | |
CN113076981A (zh) | 数据处理方法及装置 | |
CN112434620A (zh) | 场景文字识别方法、装置、设备和计算机可读介质 | |
US11003960B2 (en) | Efficient incident management in large scale computer systems | |
US11475324B2 (en) | Dynamic recommendation system for correlated metrics and key performance indicators | |
CN110705635B (zh) | 用于生成隔离森林的方法和装置 | |
CN116843991A (zh) | 模型训练方法、信息生成方法、装置、设备和介质 | |
CN113066038B (zh) | 图像评估方法、装置、电子设备及计算机存储介质 | |
CN111784377B (zh) | 用于生成信息的方法和装置 | |
CN113742593A (zh) | 用于推送信息的方法和装置 | |
CN113158948B (zh) | 信息生成方法、装置、终端设备 | |
CN116911928B (zh) | 一种基于创意特征的广告推荐模型的训练方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230829 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230920 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7354463 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |