JP7297226B2 - 個人情報を保護するために原本データをコンシーリング処理して生成された変造データを認識するために使われる使用者ラーニングネットワークを学習する方法及びテストする方法、そしてこれを利用した学習装置及びテスト装置 - Google Patents
個人情報を保護するために原本データをコンシーリング処理して生成された変造データを認識するために使われる使用者ラーニングネットワークを学習する方法及びテストする方法、そしてこれを利用した学習装置及びテスト装置 Download PDFInfo
- Publication number
- JP7297226B2 JP7297226B2 JP2022522654A JP2022522654A JP7297226B2 JP 7297226 B2 JP7297226 B2 JP 7297226B2 JP 2022522654 A JP2022522654 A JP 2022522654A JP 2022522654 A JP2022522654 A JP 2022522654A JP 7297226 B2 JP7297226 B2 JP 7297226B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- characteristic information
- network
- training data
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012360 testing method Methods 0.000 title claims description 352
- 238000000034 method Methods 0.000 title claims description 153
- 238000012549 training Methods 0.000 claims description 516
- 230000008569 process Effects 0.000 claims description 106
- 230000006870 function Effects 0.000 description 24
- 230000004075 alteration Effects 0.000 description 23
- 238000012545 processing Methods 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 9
- 238000010801 machine learning Methods 0.000 description 8
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 230000004913 activation Effects 0.000 description 6
- 241000282412 Homo Species 0.000 description 4
- 238000013503 de-identification Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000007637 random forest analysis Methods 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 230000001131 transforming effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 238000012417 linear regression Methods 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000003094 perturbing effect Effects 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/10—Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
- G06F21/106—Enforcing content protection by specific content processing
- G06F21/1066—Hiding content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/10—Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
- G06F21/12—Protecting executable software
- G06F21/14—Protecting executable software against software analysis or reverse engineering, e.g. by obfuscation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
- G06F21/6254—Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Bioethics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Technology Law (AREA)
- Biodiversity & Conservation Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Digital Transmission Methods That Use Modulated Carrier Waves (AREA)
Description
Claims (16)
- 個人情報を保護するために原本データをコンシーリング(Concealing)処理して生成された変造データ(Obfuscated Data)を認識するために使われる使用者ラーニングネットワーク(User Learning Network)を学習する方法において、
(a)第1学習装置は、(i)変造ネットワーク(Obfuscation Network)にトレーニングデータが入力されると、前記変造ネットワークをもって前記トレーニングデータを変造するようにして変造されたトレーニングデータを生成させるプロセス、(ii)(ii‐1)前記変造されたトレーニングデータを少なくとも一つの予め学習されたパラメータを持つ学習用ラーニングネットワークに入力することで、前記学習用ラーニングネットワークをもって前記変造されたトレーニングデータに対して前記学習されたパラメータを利用したラーニング演算を適用して学習用第1特性(Characteristic)情報を生成するようにし、(ii‐2)前記トレーニングデータを前記学習用ラーニングネットワークに入力することで、前記学習用ラーニングネットワークをもって前記トレーニングデータに対して前記学習されたパラメータを利用したラーニング演算を適用して学習用第2特性情報を生成させるプロセス、及び(iii)前記学習用第1特性情報と前記学習用第2特性情報とを参照したり前記学習用第1特性情報を利用して生成された学習用タスク特定出力(Task Specific Output)を参照して算出された第1エラーが最小化され、前記トレーニングデータと前記変造されたトレーニングデータとを参照して算出された第2エラーが最大化されるように、前記変造ネットワークを学習するプロセスを遂行した状態で、第2学習装置が、(i)前記変造されたトレーニングデータと、前記トレーニングデータに対応されるトレーニングデータGT(Ground Truth)とを獲得したり、(ii)テストデータを学習された変造ネットワークに入力して生成された変造されたテストデータと、前記テストデータに対応されるテストデータGTとを獲得する段階;
(b)前記第2学習装置が、(i)前記変造されたトレーニングデータを前記使用者ラーニングネットワークに入力することで、前記使用者ラーニングネットワークをもって(i‐1)前記変造されたトレーニングデータに対してラーニング演算を適用して(i‐2)学習用第3特性情報を生成させるプロセス、または(ii)前記変造されたテストデータを前記使用者ラーニングネットワークに入力することで、前記使用者ラーニングネットワークをもって(ii‐1)前記変造されたテストデータに対してラーニング演算を適用して(ii‐2)学習用第4特性情報を生成させるプロセスを遂行する段階;及び
(c)前記第2学習装置が、(i)(i‐1)前記学習用第3特性情報を利用して生成された学習用第3タスク特定出力と(i‐2)前記トレーニングデータGTとを利用して生成された学習用データロスを参照して算出された第3エラーを最小化するように前記使用者ラーニングネットワークを学習するプロセス、または(ii)(ii‐1)前記学習用第4特性情報を利用して生成された学習用第4タスク特定出力と(ii‐2)前記テストデータGTとを利用して生成されたテスト用データロスを参照して算出された第4エラーを最小化するように前記使用者ラーニングネットワークを学習するプロセスを遂行する段階;
を含む方法。 - 前記(b)段階において、
前記第2学習装置は、(i)前記学習用第1特性情報及び前記学習用第2特性情報の中で少なくとも一部を含む学習用第1ヒント(Hint)情報をさらに獲得したり、(ii)(ii‐1)前記変造されたテストデータを前記学習用ラーニングネットワークに入力して生成されたテスト用第1特性情報及び(ii‐2)前記テストデータを前記学習用ラーニングネットワークに入力して生成されたテスト用第2特性情報の中で少なくとも一部を含む学習用第2ヒント情報をさらに獲得し、
前記(c)段階において、
前記第2学習装置は、(i)(i‐1)前記学習用第3特性情報と前記学習用第1ヒント情報との間の差、及び(i‐2)前記学習用データロスの中で少なくとも一つを参照して前記第3エラーを獲得したり、(ii)(ii‐1)前記学習用第4特性情報と前記学習用第2ヒント情報との間の差、及び(ii‐2)前記テスト用データロスの中で少なくとも一つを参照して前記第4エラーを獲得する請求項1に記載の方法。 - (i)前記学習用第3特性情報と前記学習用第1ヒント情報との間の差は、(i‐1)前記学習用第3特性情報と前記学習用第1特性情報との間の差、(i‐2)前記学習用第3特性情報と前記学習用第2特性情報との間の差、及び(i‐3)前記(i‐1)と前記(i‐2)との平均の中で少なくとも一つを含み、(ii)前記学習用第4特性情報と前記学習用第2ヒント情報との間の差は、(ii‐1)前記学習用第4特性情報と前記テスト用第1特性情報との間の差、(ii‐2)前記学習用第4特性情報と前記テスト用第2特性情報との間の差、及び(ii‐3)前記(ii‐1)と前記(ii‐2)との平均の中で少なくとも一つを含む請求項2に記載の方法。
- 前記学習用ラーニングネットワークは、少なくとも一つの第1学習されたパラメータないし少なくとも一つの第n(前記nは1以上の整数である)学習されたパラメータをそれぞれ持つ学習用第1ラーニングネットワークないし学習用第nラーニングネットワークを含み、
前記第1学習装置は、(i)前記変造されたトレーニングデータを前記学習用第1ラーニングネットワークないし前記学習用第nラーニングネットワークのそれぞれに入力することで、前記学習用第1ラーニングネットワークないし前記学習用第nラーニングネットワークのそれぞれをもって前記第1学習されたパラメータないし前記第n学習されたパラメータを利用したラーニング演算を前記変造されたトレーニングデータに対して適用して、学習用第1_1特性情報ないし学習用第1_n特性情報を生成させるプロセス、(ii)前記トレーニングデータを前記学習用第1ラーニングネットワークないし前記学習用第nラーニングネットワークのそれぞれに入力することで、前記学習用第1ラーニングネットワークないし前記学習用第nラーニングネットワークのそれぞれをもって前記第1学習されたパラメータないし前記第n学習されたパラメータを利用したラーニング演算を前記トレーニングデータに対して適用して、学習用第2_1特性情報ないし学習用第2_n特性情報を生成させるプロセス、(iii)前記学習用第1_1特性情報と前記学習用第2_1特性情報とを参照して算出された第1_1エラーないし前記学習用第1_n特性情報と前記学習用第2_n特性情報とを参照して算出された第1_nエラーの加重合計(Weighted Sum)である前記第1エラーを生成するプロセス、及び(iv)前記第1エラーが最小化され、前記第2エラーが最大化されるように、前記変造ネットワークを学習するプロセスを遂行した状態で、
前記(b)段階において、
前記第2学習装置は、(i)(i‐1)前記学習用第1_1特性情報ないし前記学習用第1_n特性情報の平均及び(i‐2)前記学習用第2_1特性情報ないし前記学習用第2_n特性情報の平均の中で少なくとも一つを含む学習用第1ヒント情報をさらに獲得したり、(ii)(ii‐1)前記変造されたテストデータを前記学習用第1ラーニングネットワークないし前記学習用第nラーニングネットワークのそれぞれに入力して生成されたテスト用第1_1特性情報ないしテスト用第1_n特性情報の平均及び(ii‐2)前記テストデータを前記学習用第1ラーニングネットワークないし前記学習用第nラーニングネットワークのそれぞれに入力して生成されたテスト用第2_1特性情報ないしテスト用第2_n特性情報の平均の中で少なくとも一つを含む学習用第2ヒント情報をさらに獲得し、
前記(c)段階において、
前記第2学習装置は、(i)(i‐1)前記学習用第3特性情報と前記学習用第1ヒント情報との間の差、及び(i‐2)前記学習用データロスの中で少なくとも一つを参照して前記第3エラーを獲得したり、(ii)(ii‐1)前記学習用第4特性情報と前記学習用第2ヒント情報との間の差、及び(ii‐2)前記テスト用データロスの中で少なくとも一つを参照して前記第4エラーを獲得する請求項1に記載の方法。 - (i)前記学習用第3特性情報と前記学習用第1ヒント情報との間の差は、(i‐1)前記学習用第3特性情報と、前記学習用第1_1特性情報ないし前記学習用第1_n特性情報の平均との差、(i‐2)前記学習用第3特性情報と、前記学習用第2_1特性情報ないし前記学習用第2_n特性情報の平均との差、及び(i‐3)前記(i‐1)と前記(i‐2)との平均の中で少なくとも一つを含み、(ii)前記学習用第4特性情報と前記学習用第2ヒント情報との間の差は、(ii‐1)前記学習用第4特性情報と、前記テスト用第1_1特性情報ないし前記テスト用第1_n特性情報の平均との差、(ii‐2)前記学習用第4特性情報と、前記テスト用第2_1特性情報ないし前記テスト用第2_n特性情報の平均との差、及び(ii‐3)前記(ii‐1)と前記(ii‐2)との平均の中で少なくとも一つを含む請求項4に記載の方法。
- 前記学習用ラーニングネットワークは、少なくとも一つの第1学習されたパラメータないし少なくとも一つの第n(前記nは1以上の整数である)学習されたパラメータをそれぞれ持つ学習用第1ラーニングネットワークないし学習用第nラーニングネットワークを含み、
前記第1学習装置は、(i)(i‐1)前記変造されたトレーニングデータである第1変造されたトレーニングデータを前記第1ラーニングネットワークに入力することで、前記第1変造されたトレーニングデータに対して前記第1学習されたパラメータを利用したラーニング演算を適用して学習用第1_1特性情報を生成するようにし、(i‐2)前記トレーニングデータを前記第1ラーニングネットワークに入力することで、前記トレーニングデータに対して前記第1学習されたパラメータを利用したラーニング演算を適用して学習用第2_1特性情報を生成するようにし、(i‐3)前記学習用第1_1特性情報と前記学習用第2_1特性情報とを参照して算出された第1_1エラーが最小化され、前記トレーニングデータと前記第1変造されたトレーニングデータとを参照して算出された第2_1エラーが最大化されるように前記変造ネットワークを学習することで、前記変造ネットワークが第1学習された変造ネットワークになるようにするプロセス、及び(ii)定数である kを2からnまで増加させながら、(ii‐1)前記トレーニングデータを前記第(k‐1)学習された変造ネットワークに入力することで、 前記第(k‐1)学習された変造ネットワークをもって第k変造されたトレーニングデータを生成するようにし、(ii‐2)前記第k変造されたトレーニングデータを第kラーニングネットワークに入力することで前記第kラーニングネットワークをもって前記第k変造されたトレーニングデータに対して第k学習されたパラメータを利用したラーニング演算を適用して学習用第1_k特性情報を生成するようにし、前記トレーニングデータを前記第kラーニングネットワークに入力することで前記第kラーニングネットワークをもって前記トレーニングデータに対して前記第k学習されたパラメータを利用したラーニング演算を適用して学習用第2_k特性情報を生成するようにし、(ii‐3)前記学習用第1_k特性情報と前記学習用第2_k特性情報とを参照して算出された第1_kエラーが最小化され、前記トレーニングデータと前記第k変造されたトレーニングデータとを参照して算出された第2_kエラーが最大化されるように変造ネットワークを学習することで、前記第(k‐1)学習された変造ネットワークが第k学習された変造ネットワークになるようにするプロセスを遂行した状態で、
前記(b)段階において、
前記第2学習装置は、(i)(i‐1)前記学習用第1_1特性情報ないし前記学習用第1_n特性情報の平均及び(i‐2)前記学習用第2_1特性情報ないし前記学習用第2_n特性情報の平均の中で少なくとも一つを含む学習用第1ヒント情報をさらに獲得したり、(ii)(ii‐1)前記変造されたテストデータを前記学習用第1ラーニングネットワークないし前記学習用第nラーニングネットワークのそれぞれに入力して生成されたテスト用第1_1特性情報ないしテスト用第1_n特性情報の平均及び(ii‐2)前記テストデータを前記学習用第1ラーニングネットワークないし前記学習用第nラーニングネットワークのそれぞれに入力して生成されたテスト用第2_1特性情報ないしテスト用第2_n特性情報の平均の中で少なくとも一つを含む学習用第2ヒント情報をさらに獲得し、
前記(c)段階において、
前記第2学習装置は、(i)(i‐1)前記学習用第3特性情報と前記学習用第1ヒント情報との間の差、及び(i‐2)前記学習用データロスの中で少なくとも一つを参照して前記第3エラーを獲得したり、(ii)(ii‐1)前記学習用第4特性情報と前記学習用第2ヒント情報との間の差、及び(ii‐2)前記テスト用データロスの中で少なくとも一つを参照して前記第4エラーを獲得する請求項1に記載の方法。 - (i)前記学習用第3特性情報と前記学習用第1ヒント情報との間の差は、(i‐1)前記学習用第3特性情報と前記学習用第1特性情報との間の差、(i‐2)前記学習用第3特性情報と前記学習用第2特性情報との間の差、及び(i‐3)前記(i‐1)と前記(i‐2)との平均の中で少なくとも一つを含み、(ii)前記学習用第4特性情報と前記学習用第2ヒント情報との間の差は、(ii‐1)前記学習用第4特性情報と前記テスト用第1特性情報との間の差、(ii‐2)前記学習用第4特性情報と前記テスト用第2特性情報との間の差、及び(ii‐3)前記(ii‐1)と前記(ii‐2)との平均の中で少なくとも一つを含む請求項6に記載の方法。
- 個人情報を保護するために原本データをコンシーリング(Concealing)処理して生成された変造データ(Obfuscated Data)を認識するように学習された使用者ラーニングネットワーク(User Learning Network)をテストする方法において、
(a)第1学習装置は、(i)変造ネットワークにトレーニングデータが入力されると、前記変造ネットワークをもって前記トレーニングデータを変造するようにし、変造されたトレーニングデータを生成させるプロセス、(ii)(ii‐1)前記変造されたトレーニングデータを少なくとも一つの予め学習されたパラメータを持つ学習用ラーニングネットワークに入力することで、前記学習用ラーニングネットワークをもって前記変造されたトレーニングデータに対して前記学習されたパラメータを利用したラーニング演算を適用して学習用第1特性(Characteristic)情報を生成するようにし、(ii‐2)前記トレーニングデータを前記学習用ラーニングネットワークに入力することで、前記学習用ラーニングネットワークをもって前記トレーニングデータに対して前記学習されたパラメータを利用したラーニング演算を適用して学習用第2特性情報を生成させるプロセス、及び(iii)前記学習用第1特性情報と前記学習用第2特性情報とを参照したり、前記学習用第1特性情報を利用して生成された学習用タスク特定出力(Task Specific Output)を参照して算出された第1エラーが最小化され、前記トレーニングデータと前記変造されたトレーニングデータとを参照して算出された第2エラーが最大化されるように、前記変造ネットワークを学習するプロセスを遂行した後、第2学習装置が、(i)(i‐1)前記変造されたトレーニングデータと、前記トレーニングデータに対応されるトレーニングデータGTとを獲得したり、(i‐2)第1テストデータを学習された変造ネットワークに入力して生成された第1変造されたテストデータと、前記第1テストデータに対応されるテストデータGTとを獲得するプロセス、(ii)(ii‐1)前記変造されたトレーニングデータを使用者ラーニングネットワークに入力することで、前記使用者ラーニングネットワークをもって前記変造されたトレーニングデータに対してラーニング演算を適用して学習用第3特性情報を生成するようにしたり、(ii‐2)前記第1変造されたテストデータを前記使用者ラーニングネットワークに入力することで、前記使用者ラーニングネットワークをもって前記第1変造されたテストデータに対してラーニング演算を適用して学習用第4特性情報を生成させるプロセス、及び(iii)(iii‐1)(1)前記学習用第3特性情報を利用して生成された学習用第3タスク特定出力と(2)前記トレーニングデータGTとを利用して生成された学習用データロスを参照して算出された第3エラーを最小化するように、前記使用者ラーニングネットワークを学習したり、(iii‐2)(1)前記学習用第4特性情報を利用して生成された学習用第4タスク特定出力と(2)前記テストデータGTとを利用して生成されたテスト用データロスを参照して算出された第4エラーを最小化するように、前記使用者ラーニングネットワークを学習するプロセスを遂行した状態で、テスト装置が、第2テストデータを前記学習された変造ネットワークに入力して第2変造されたテストデータを獲得する段階;及び
(b)前記テスト装置が、前記第2変造されたテストデータを前記学習された使用者ラーニングネットワークに入力することで、前記学習された使用者ラーニングネットワークをもって前記第2変造されたテストデータに対してラーニング演算を適用してテスト用特性情報を生成させる段階;
を含む方法。 - 個人情報を保護するために原本データをコンシーリング(Concealing)処理して生成された変造データ(Obfuscated Data)を認識するために使われる使用者ラーニングネットワーク(User Learning Network)を学習する第2学習装置において、
インストラクションを格納する少なくとも一つのメモリー;及び
(I)第1学習装置は、(i)変造ネットワーク(Obfuscation Network)にトレーニングデータが入力されると、前記変造ネットワークをもって前記トレーニングデータを変造するようにして変造されたトレーニングデータを生成させるプロセス、(ii)(ii‐1)前記変造されたトレーニングデータを少なくとも一つの予め学習されたパラメータを持つ学習用ラーニングネットワークに入力することで、前記学習用ラーニングネットワークをもって前記変造されたトレーニングデータに対して前記学習されたパラメータを利用したラーニング演算を適用して学習用第1特性(Characteristic)情報を生成するようにし、(ii‐2)前記トレーニングデータを前記学習用ラーニングネットワークに入力することで、前記学習用ラーニングネットワークをもって前記トレーニングデータに対して前記学習されたパラメータを利用したラーニング演算を適用して学習用第2特性情報を生成させるプロセス、及び(iii)前記学習用第1特性情報と前記学習用第2特性情報とを参照したり前記学習用第1特性情報を利用して生成された学習用タスク特定出力(Task Specific Output)を参照して算出された第1エラーが最小化され、前記トレーニングデータと前記変造されたトレーニングデータとを参照して算出された第2エラーが最大化されるように、前記変造ネットワークを学習するプロセスを遂行した状態で、(i)前記変造されたトレーニングデータと、前記トレーニングデータに対応されるトレーニングデータGT(Ground Truth)とを獲得したり、(ii)テストデータを学習された変造ネットワークに入力して生成された変造されたテストデータと、前記テストデータに対応されるテストデータGTとを獲得するプロセス;(II)(i)前記変造されたトレーニングデータを使用者ラーニングネットワークに入力することで、前記使用者ラーニングネットワークをもって(i‐1)前記変造されたトレーニングデータに対してラーニング演算を適用して(i‐2)学習用第3特性情報を生成させるプロセス、または(ii)前記変造されたテストデータを前記使用者ラーニングネットワークに入力することで、前記使用者ラーニングネットワークをもって(ii‐1)前記変造されたテストデータに対してラーニング演算を適用して(ii‐2)学習用第4特性情報を生成させるプロセスを遂行するプロセス;及び(III)(i)(i‐1)前記学習用第3特性情報を利用して生成された学習用第3タスク特定出力と(i‐2)前記トレーニングデータGTとを利用して生成された学習用データロスを参照して算出された第3エラーを最小化するように前記使用者ラーニングネットワークを学習するプロセス、または(ii)(ii‐1)前記学習用第4特性情報を利用して生成された学習用第4タスク特定出力と(ii‐2)前記テストデータGTとを利用して生成されたテスト用データロスを参照して算出された第4エラーを最小化するように前記使用者ラーニングネットワークを学習するプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含む第2学習装置。 - 前記(II)プロセスにおいて、
前記プロセッサは、(i)前記学習用第1特性情報及び前記学習用第2特性情報の中で少なくとも一部を含む学習用第1ヒント(Hint)情報をさらに獲得したり、(ii)(ii‐1)前記変造されたテストデータを前記学習用ラーニングネットワークに入力して生成されたテスト用第1特性情報及び(ii‐2)前記テストデータを前記学習用ラーニングネットワークに入力して生成されたテスト用第2特性情報の中で少なくとも一部を含む学習用第2ヒント情報をさらに獲得し、
前記(III)プロセスにおいて、
前記プロセッサは、(i)(i‐1)前記学習用第3特性情報と前記学習用第1ヒント情報との間の差、及び(i‐2)前記学習用データロスの中で少なくとも一つを参照して前記第3エラーを獲得したり、(ii)(ii‐1)前記学習用第4特性情報と前記学習用第2ヒント情報との間の差、及び(ii‐2)前記テスト用データロスの中で少なくとも一つを参照して前記第4エラーを獲得する請求項9に記載の第2学習装置。 - (i)前記学習用第3特性情報と前記学習用第1ヒント情報との間の差は、(i‐1)前記学習用第3特性情報と前記学習用第1特性情報との間の差、(i‐2)前記学習用第3特性情報と前記学習用第2特性情報との間の差、及び(i‐3)前記(i‐1)と前記(i‐2)との平均の中で少なくとも一つを含み、(ii)前記学習用第4特性情報と前記学習用第2ヒント情報との間の差は、(ii‐1)前記学習用第4特性情報と前記テスト用第1特性情報との間の差、(ii‐2)前記学習用第4特性情報と前記テスト用第2特性情報との間の差、及び(ii‐3)前記(ii‐1)と前記(ii‐2)との平均の中で少なくとも一つを含む請求項10に記載の第2学習装置。
- 前記学習用ラーニングネットワークは、少なくとも一つの第1学習されたパラメータないし少なくとも一つの第n(前記nは1以上の整数である)学習されたパラメータをそれぞれ持つ学習用第1ラーニングネットワークないし学習用第nラーニングネットワークを含み、
前記第1学習装置は、(i)前記変造されたトレーニングデータを前記学習用第1ラーニングネットワークないし前記学習用第nラーニングネットワークのそれぞれに入力することで、前記学習用第1ラーニングネットワークないし前記学習用第nラーニングネットワークのそれぞれをもって前記第1学習されたパラメータないし前記第n学習されたパラメータを利用したラーニング演算を前記変造されたトレーニングデータに対して適用し、学習用第1_1特性情報ないし学習用第1_n特性情報を生成させるプロセス、(ii)前記トレーニングデータを前記学習用第1ラーニングネットワークないし前記学習用第nラーニングネットワークのそれぞれに入力することで、前記学習用第1ラーニングネットワークないし前記学習用第nラーニングネットワークのそれぞれをもって前記第1学習されたパラメータないし前記第n学習されたパラメータを利用したラーニング演算を前記トレーニングデータに対して適用し、学習用第2_1特性情報ないし学習用第2_n特性情報を生成させるプロセス、(iii)前記学習用第1_1特性情報と前記学習用第2_1特性情報とを参照して算出された第1_1エラーないし前記学習用第1_n特性情報と前記学習用第2_n特性情報とを参照して算出された第1_nエラーの加重合計(Weighted Sum)である前記第1エラーを生成するプロセス、及び(iv)前記第1エラーが最小化され、前記第2エラーが最大化されるように、前記変造ネットワークを学習するプロセスを遂行した状態で、
前記(II)プロセスにおいて、
前記プロセッサは、(i)(i‐1)前記学習用第1_1特性情報ないし前記学習用第1_n特性情報の平均及び(i‐2)前記学習用第2_1特性情報ないし前記学習用第2_n特性情報の平均の中で少なくとも一つを含む学習用第1ヒント情報をさらに獲得したり、(ii)(ii‐1)前記変造されたテストデータを前記学習用第1ラーニングネットワークないし前記学習用第nラーニングネットワークのそれぞれに入力して生成されたテスト用第1_1特性情報ないしテスト用第1_n特性情報の平均及び(ii‐2)前記テストデータを前記学習用第1ラーニングネットワークないし前記学習用第nラーニングネットワークのそれぞれに入力して生成されたテスト用第2_1特性情報ないしテスト用第2_n特性情報の平均の中で少なくとも一つを含む学習用第2ヒント情報をさらに獲得し、
前記(III)プロセスにおいて、
前記プロセッサは、(i)(i‐1)前記学習用第3特性情報と前記学習用第1ヒント情報との間の差、及び(i‐2)前記学習用データロスの中で少なくとも一つを参照して前記第3エラーを獲得したり、(ii)(ii‐1)前記学習用第4特性情報と前記学習用第2ヒント情報との間の差、及び(ii‐2)前記テスト用データロスの中で少なくとも一つを参照して前記第4エラーを獲得する請求項9に記載の第2学習装置。 - (i)前記学習用第3特性情報と前記学習用第1ヒント情報との間の差は、(i‐1)前記学習用第3特性情報と、前記学習用第1_1特性情報ないし前記学習用第1_n特性情報の平均との差、(i‐2)前記学習用第3特性情報と、前記学習用第2_1特性情報ないし前記学習用第2_n特性情報の平均との差、及び(i‐3)前記(i‐1)と前記(i‐2)との平均の中で少なくとも一つを含み、(ii)前記学習用第4特性情報と前記学習用第2ヒント情報との間の差は、(ii‐1)前記学習用第4特性情報と、前記テスト用第1_1特性情報ないし前記テスト用第1_n特性情報の平均との差、(ii‐2)前記学習用第4特性情報と、前記テスト用第2_1特性情報ないし前記テスト用第2_n特性情報の平均との差、及び(ii‐3)前記(ii‐1)と前記(ii‐2)との平均の中で少なくとも一つを含む請求項12に記載の第2学習装置。
- 前記学習用ラーニングネットワークは、少なくとも一つの第1学習されたパラメータないし少なくとも一つの第n(前記nは1以上の整数である)学習されたパラメータをそれぞれ持つ学習用第1ラーニングネットワークないし学習用第nラーニングネットワークを含み、
前記第1学習装置は、(i)(i‐1)前記変造されたトレーニングデータである第1変造されたトレーニングデータを前記第1ラーニングネットワークに入力することで、前記第1変造されたトレーニングデータに対して前記第1学習されたパラメータを利用したラーニング演算を適用して学習用第1_1特性情報を生成するようにし、(i‐2)前記トレーニングデータを前記第1ラーニングネットワークに入力することで、前記トレーニングデータに対して前記第1学習されたパラメータを利用したラーニング演算を適用して学習用第2_1特性情報を生成するようにし、(i‐3)前記学習用第1_1特性情報と前記学習用第2_1特性情報とを参照して算出された第1_1エラーが最小化され、前記トレーニングデータと前記第1変造されたトレーニングデータとを参照して算出された第2_1エラーが最大化されるように、前記変造ネットワークを学習することで、前記変造ネットワークが第1学習された変造ネットワークになるようにするプロセス、及び(ii)定数であるkを2からnまで増加させながら、(ii‐1)前記トレーニングデータを前記第(k‐1)学習された変造ネットワークに入力することで、前記第(k‐1)学習された変造ネットワークをもって第k変造されたトレーニングデータを生成するようにし、(ii‐2)前記第k変造されたトレーニングデータを第kラーニングネットワークに入力することで前記第kラーニングネットワークをもって前記第k変造されたトレーニングデータに対して第k学習されたパラメータを利用したラーニング演算を適用して学習用第1_k特性情報を生成するようにし、前記トレーニングデータを前記第kラーニングネットワークに入力することで前記第kラーニングネットワークをもって前記トレーニングデータに対して前記第k学習されたパラメータを利用したラーニング演算を適用して学習用第2_k特性情報を生成するようにし、(ii‐3)前記学習用第1_k特性情報と前記学習用第2_k特性情報とを参照して算出された第1_kエラーが最小化され、前記トレーニングデータと前記第k変造されたトレーニングデータとを参照して算出された第2_kエラーが最大化されるように変造ネットワークを学習することで、前記第(k‐1)学習された変造ネットワークが第k学習された変造ネットワークになるようにするプロセスを遂行した状態で、
前記(II)プロセスにおいて、
前記プロセッサは、(i)(i‐1)前記学習用第1_1特性情報ないし前記学習用第1_n特性情報の平均及び(i‐2)前記学習用第2_1特性情報ないし前記学習用第2_n特性情報の平均の中で少なくとも一つを含む学習用第1ヒント情報をさらに獲得したり、(ii)(ii‐1)前記変造されたテストデータを前記学習用第1ラーニングネットワークないし前記学習用第nラーニングネットワークのそれぞれに入力して生成されたテスト用第1_1特性情報ないしテスト用第1_n特性情報の平均及び(ii‐2)前記テストデータを前記学習用第1ラーニングネットワークないし前記学習用第nラーニングネットワークのそれぞれに入力して生成されたテスト用第2_1特性情報ないしテスト用第2_n特性情報の平均の中で少なくとも一つを含む学習用第2ヒント情報をさらに獲得し、
前記(III)プロセスにおいて、
前記プロセッサは、(i)(i‐1)前記学習用第3特性情報と前記学習用第1ヒント情報との間の差、及び(i‐2)前記学習用データロスの中で少なくとも一つを参照して前記第3エラーを獲得したり、(ii)(ii‐1)前記学習用第4特性情報と前記学習用第2ヒント情報との間の差、及び(ii‐2)前記テスト用データロスの中で少なくとも一つを参照して前記第4エラーを獲得する請求項9に記載の第2学習装置。 - (i)前記学習用第3特性情報と前記学習用第1ヒント情報との間の差は、(i‐1)前記学習用第3特性情報と前記学習用第1特性情報との間の差、(i‐2)前記学習用第3特性情報と前記学習用第2特性情報との間の差、及び(i‐3)前記(i‐1)と前記(i‐2)との平均の中で少なくとも一つを含み、(ii)前記学習用第4特性情報と前記学習用第2ヒント情報との間の差は、(ii‐1)前記学習用第4特性情報と前記テスト用第1特性情報との間の差、(ii‐2)前記学習用第4特性情報と前記テスト用第2特性情報との間の差、及び(ii‐3)前記(ii‐1)と前記(ii‐2)との平均の中で少なくとも一つを含む請求項14に記載の第2学習装置。
- 個人情報を保護するために原本データをコンシーリング(Concealing)処理して生成された変造データ(Obfuscated Data)を認識するように学習された使用者ラーニングネットワーク(User Learning Network)をテストするテスト装置において、
インストラクションを格納する少なくとも一つのメモリー;及び
(I)第1学習装置は、(i)変造ネットワークにトレーニングデータが入力されると、前記変造ネットワークをもって前記トレーニングデータを変造するようにして変造されたトレーニングデータを生成させるプロセス、(ii)(ii‐1)前記変造されたトレーニングデータを少なくとも一つの予め学習されたパラメータを持つ学習用ラーニングネットワークに入力することで、前記学習用ラーニングネットワークをもって前記変造されたトレーニングデータに対して前記学習されたパラメータを利用したラーニング演算を適用して学習用第1特性(Characteristic)情報を生成するようにし、(ii‐2)前記トレーニングデータを前記学習用ラーニングネットワークに入力することで、前記学習用ラーニングネットワークをもって前記トレーニングデータに対して前記学習されたパラメータを利用したラーニング演算を適用して学習用第2特性情報を生成させるプロセス、及び(iii)前記学習用第1特性情報と前記学習用第2特性情報とを参照したり、前記学習用第1特性情報を利用して生成された学習用タスク特定出力(Task Specific Output)を参照して算出された第1エラーが最小化され、前記トレーニングデータと前記変造されたトレーニングデータとを参照して算出された第2エラーが最大化されるように、前記変造ネットワークを学習するプロセスを遂行した後、第2学習装置が、(i)(i‐1)前記変造されたトレーニングデータと、前記トレーニングデータに対応されるトレーニングデータGTとを獲得したり、(i‐2)第1テストデータを学習された変造ネットワークに入力して生成された第1変造されたテストデータと、前記第1テストデータに対応されるテストデータGTとを獲得するプロセス、(ii)(ii‐1)前記変造されたトレーニングデータを使用者ラーニングネットワークに入力することで、前記使用者ラーニングネットワークをもって前記変造されたトレーニングデータに対してラーニング演算を適用して学習用第3特性情報を生成するようにしたり、(ii‐2)前記第1変造されたテストデータを前記使用者ラーニングネットワークに入力することで、前記使用者ラーニングネットワークをもって前記第1変造されたテストデータに対してラーニング演算を適用して学習用第4特性情報を生成させるプロセス、及び(iii)(iii‐1)(1)前記学習用第3特性情報を利用して生成された学習用第3タスク特定出力と(2)前記トレーニングデータGTとを利用して生成された学習用データロスを参照して算出された第3エラーを最小化するように、前記使用者ラーニングネットワークを学習したり、(iii‐2)(1)前記学習用第4特性情報を利用して生成された学習用第4タスク特定出力と(2)前記テストデータGTとを利用して生成されたテスト用データロスを参照して算出された第4エラーを最小化するように、前記使用者ラーニングネットワークを学習するプロセスを遂行した状態で、第2テストデータを前記学習された変造ネットワークに入力して第2変造されたテストデータを獲得するプロセス、及び(II)前記第2変造されたテストデータを前記学習された使用者ラーニングネットワークに入力することで、前記学習された使用者ラーニングネットワークをもって前記第2変造されたテストデータに対してラーニング演算を適用してテスト用特性情報を生成させるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含むテスト装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/662,084 | 2019-10-24 | ||
US16/662,084 US10621378B1 (en) | 2019-10-24 | 2019-10-24 | Method for learning and testing user learning network to be used for recognizing obfuscated data created by concealing original data to protect personal information and learning device and testing device using the same |
PCT/KR2020/005583 WO2021080103A1 (en) | 2019-10-24 | 2020-04-28 | Method for learning and testing user learning network to be used for recognizing obfuscated data created by concealing original data to protect personal information and learning device and testing device using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022552681A JP2022552681A (ja) | 2022-12-19 |
JP7297226B2 true JP7297226B2 (ja) | 2023-06-26 |
Family
ID=70223665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022522654A Active JP7297226B2 (ja) | 2019-10-24 | 2020-04-28 | 個人情報を保護するために原本データをコンシーリング処理して生成された変造データを認識するために使われる使用者ラーニングネットワークを学習する方法及びテストする方法、そしてこれを利用した学習装置及びテスト装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10621378B1 (ja) |
EP (1) | EP3812970A1 (ja) |
JP (1) | JP7297226B2 (ja) |
KR (1) | KR102184787B1 (ja) |
WO (1) | WO2021080103A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018211144A1 (en) * | 2017-05-19 | 2018-11-22 | Deepmind Technologies Limited | Making object-level predictions of the future state of a physical system |
US11562134B2 (en) * | 2019-04-02 | 2023-01-24 | Genpact Luxembourg S.à r.l. II | Method and system for advanced document redaction |
US11709954B2 (en) * | 2020-05-01 | 2023-07-25 | Microsoft Technology Licensing, Llc | Image content obfuscation using a neural network |
US11017319B1 (en) * | 2020-06-23 | 2021-05-25 | Deeping Source Inc. | Method for training obfuscation network which conceals original data to be used for machine learning and training surrogate network which uses obfuscated data generated by obfuscation network and method for testing trained obfuscation network and learning device and testing device using the same |
US11017320B1 (en) * | 2020-06-24 | 2021-05-25 | Deeping Source Inc. | Method for training obfuscation network which conceals original data to be used for machine learning and training surrogate network which uses obfuscated data generated by obfuscation network and learning device using the same and method for testing trained obfuscation network and testing device using the same |
US11023777B1 (en) * | 2020-09-25 | 2021-06-01 | Deeping Source Inc. | Methods for training and testing obfuscation network capable of performing distinct concealing processes for distinct regions of original image and learning and testing devices using the same |
US11200494B1 (en) * | 2020-10-21 | 2021-12-14 | Deeping Source Inc. | Method for training and testing obfuscation network capable of obfuscating data for privacy, and training device and testing device using the same |
US11244248B1 (en) * | 2020-10-21 | 2022-02-08 | Deeping Source Inc. | Method for training and testing user learning network to be used for recognizing obfuscated data created by obfuscating original data to protect personal information and user learning device and testing device using the same |
WO2022141516A1 (zh) * | 2020-12-31 | 2022-07-07 | 华为技术有限公司 | 模型验证方法及设备 |
US11308359B1 (en) * | 2021-10-27 | 2022-04-19 | Deeping Source Inc. | Methods for training universal discriminator capable of determining degrees of de-identification for images and obfuscation network capable of obfuscating images and training devices using the same |
US11669635B1 (en) * | 2021-11-29 | 2023-06-06 | Deeping Source Inc. | Learning method and learning device for training obfuscation network capable of obfuscating original data for privacy and testing method and testing device using the same |
US11423643B1 (en) * | 2021-11-29 | 2022-08-23 | Deeping Source Inc. | Method for generating obfuscated image to be used in training learning net work and labeling device using the same |
US11886955B2 (en) | 2022-02-16 | 2024-01-30 | Protopia AI, Inc. | Self-supervised data obfuscation in foundation models |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018011842A1 (ja) | 2016-07-11 | 2018-01-18 | 株式会社Uei | 階層ネットワークを用いた演算処理システム |
JP6352512B1 (ja) | 2017-08-22 | 2018-07-04 | 株式会社 ディー・エヌ・エー | 信号処理装置、信号処理方法、信号処理プログラム、及びデータ構造 |
US20190286850A1 (en) | 2016-07-20 | 2019-09-19 | Siemens Healthcare Gmbh | Method of protecting data exchanged between a service user and a service provider |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016134782A1 (en) * | 2015-02-26 | 2016-09-01 | Longsand Limited | Obfuscating training data |
KR101784265B1 (ko) * | 2016-06-09 | 2017-10-12 | 주식회사 그리즐리 | 빅데이터의 비식별화 처리 방법 |
JP6567488B2 (ja) * | 2016-12-22 | 2019-08-28 | 日本電信電話株式会社 | 学習データ生成装置、開発データ生成装置、モデル学習装置、それらの方法、及びプログラム |
KR101861520B1 (ko) * | 2017-03-15 | 2018-05-28 | 광주과학기술원 | 얼굴 비식별화 방법 |
KR101877372B1 (ko) * | 2017-05-19 | 2018-07-13 | 주식회사 하루컴퍼니 | 워터마크 데이터의 임베딩 및 추출 방법 |
US11023593B2 (en) * | 2017-09-25 | 2021-06-01 | International Business Machines Corporation | Protecting cognitive systems from model stealing attacks |
KR102035796B1 (ko) * | 2018-07-26 | 2019-10-24 | 주식회사 딥핑소스 | 데이터를 비식별 처리하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
-
2019
- 2019-10-24 US US16/662,084 patent/US10621378B1/en active Active
-
2020
- 2020-04-28 JP JP2022522654A patent/JP7297226B2/ja active Active
- 2020-04-28 KR KR1020200051862A patent/KR102184787B1/ko active IP Right Grant
- 2020-04-28 WO PCT/KR2020/005583 patent/WO2021080103A1/en active Application Filing
- 2020-05-28 EP EP20177066.6A patent/EP3812970A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018011842A1 (ja) | 2016-07-11 | 2018-01-18 | 株式会社Uei | 階層ネットワークを用いた演算処理システム |
US20190286850A1 (en) | 2016-07-20 | 2019-09-19 | Siemens Healthcare Gmbh | Method of protecting data exchanged between a service user and a service provider |
JP6352512B1 (ja) | 2017-08-22 | 2018-07-04 | 株式会社 ディー・エヌ・エー | 信号処理装置、信号処理方法、信号処理プログラム、及びデータ構造 |
Also Published As
Publication number | Publication date |
---|---|
WO2021080103A1 (en) | 2021-04-29 |
EP3812970A1 (en) | 2021-04-28 |
KR102184787B1 (ko) | 2020-12-01 |
JP2022552681A (ja) | 2022-12-19 |
US10621378B1 (en) | 2020-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7297226B2 (ja) | 個人情報を保護するために原本データをコンシーリング処理して生成された変造データを認識するために使われる使用者ラーニングネットワークを学習する方法及びテストする方法、そしてこれを利用した学習装置及びテスト装置 | |
JP7362165B2 (ja) | プライバシーのためにデータをコンシーリング処理することができる変造ネットワークに対応される適応ネットワークを学習する方法及びテストする方法、そしてこれを利用した学習装置及びテスト装置{method for training and testing adaption network corresponding to obfuscation network capable of processing data to be concealed for privacy、and training device and testing device using the same} | |
JP7040712B2 (ja) | 個人情報保護のために原本データをコンシーリング処理する変調ネットワークを学習する方法及びテストする方法、そして、これを利用した学習装置及びテスト装置 | |
US11017319B1 (en) | Method for training obfuscation network which conceals original data to be used for machine learning and training surrogate network which uses obfuscated data generated by obfuscation network and method for testing trained obfuscation network and learning device and testing device using the same | |
US11200494B1 (en) | Method for training and testing obfuscation network capable of obfuscating data for privacy, and training device and testing device using the same | |
US11200342B1 (en) | Method for training and testing obfuscation network capable of processing data to be obfuscated for privacy, and training device and testing device using the same | |
US11017320B1 (en) | Method for training obfuscation network which conceals original data to be used for machine learning and training surrogate network which uses obfuscated data generated by obfuscation network and learning device using the same and method for testing trained obfuscation network and testing device using the same | |
US11366930B1 (en) | Method for training and testing obfuscation network capable of obfuscating data to protect personal information, and learning device and testing device using the same | |
JP7140317B2 (ja) | 原本データとマークデータとを合成してマーキング済みデータを生成するデータエンベディングネットワークを学習する方法、及びテストする方法、並びに、それを利用した学習装置 | |
US11308359B1 (en) | Methods for training universal discriminator capable of determining degrees of de-identification for images and obfuscation network capable of obfuscating images and training devices using the same | |
US11244248B1 (en) | Method for training and testing user learning network to be used for recognizing obfuscated data created by obfuscating original data to protect personal information and user learning device and testing device using the same | |
KR20230121974A (ko) | 개인 정보 보호를 위하여 원본 데이터를 변조하는 변조네트워크를 학습하는 방법 및 테스트하는 방법, 그리고, 이를 이용한 학습 장치 및 테스트 장치 | |
Tan et al. | The many-faced god: Attacking face verification system with embedding and image recovery | |
Hewage et al. | Optimizing the trade-off between classification accuracy and data privacy in the area of data stream mining | |
KR102260039B1 (ko) | 개인 정보 보호를 위하여 원본 데이터를 컨실링 처리하는 변조 네트워크를 학습하는 방법 및 테스트하는 방법, 그리고, 이를 이용한 학습 장치 및 테스트 장치 | |
KR102244190B1 (ko) | 데이터를 컨실링 처리하는 방법 및 이를 이용한 데이터 변조 장치 | |
CN112990384B (zh) | 一种基于噪声灭活的生物特征识别对抗防御方法 | |
Chawla et al. | Deep learning approach for face recognition with disguise variations | |
CN117636430A (zh) | 基于对抗语义掩膜的隐蔽性人脸攻击对抗方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220414 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230425 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230605 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7297226 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |