JP7140317B2 - 原本データとマークデータとを合成してマーキング済みデータを生成するデータエンベディングネットワークを学習する方法、及びテストする方法、並びに、それを利用した学習装置 - Google Patents
原本データとマークデータとを合成してマーキング済みデータを生成するデータエンベディングネットワークを学習する方法、及びテストする方法、並びに、それを利用した学習装置 Download PDFInfo
- Publication number
- JP7140317B2 JP7140317B2 JP2020564099A JP2020564099A JP7140317B2 JP 7140317 B2 JP7140317 B2 JP 7140317B2 JP 2020564099 A JP2020564099 A JP 2020564099A JP 2020564099 A JP2020564099 A JP 2020564099A JP 7140317 B2 JP7140317 B2 JP 7140317B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- learning
- marked
- network
- original
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 89
- 238000012360 testing method Methods 0.000 title claims description 62
- 230000002194 synthesizing effect Effects 0.000 title claims description 19
- 238000012549 training Methods 0.000 claims description 79
- 230000008569 process Effects 0.000 claims description 52
- 230000009466 transformation Effects 0.000 claims description 13
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 230000001131 transforming effect Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 description 14
- 238000010801 machine learning Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 230000004913 activation Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
- G06F21/6254—Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/10—Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
- G06F21/16—Program or content traceability, e.g. by watermarking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/10—Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
- G06F21/106—Enforcing content protection by specific content processing
- G06F21/1063—Personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/018—Audio watermarking, i.e. embedding inaudible data in the audio signal
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Technology Law (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Bioethics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Editing Of Facsimile Originals (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
110:メモリ
120:プロセッサ
200:テスト装置
210:メモリ
220:プロセッサ
Claims (21)
- 原本データとマークデータ(Mark Data)とを合成してマーキング済みデータ(Marked Data)を生成するデータエンベディングネットワーク(Data Embedding Network)を学習する方法において、
(a)原本学習データとマーク学習データとが取得されると、学習装置が、前記原本学習データと前記マーク学習データとをデータエンベディングネットワークに入力して、前記データエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成させてマーキング済み学習データを生成させる段階と、
(b)前記学習装置が、(i)前記マーキング済み学習データを少なくとも一つの学習済みパラメータを有するラーニングネットワークに入力して、前記ラーニングネットワークをもって(i-1)前記学習済みパラメータを利用して、前記マーキング済み学習データに対してネットワーク演算を適用させて(i-2)前記マーキング済み学習データに対応する第1特性情報(Characteristic Information)を生成させ、(ii)前記原本学習データを前記ラーニングネットワークに入力して、前記ラーニングネットワークをもって(ii-1)前記学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて(ii-2)前記原本学習データに対応する第2特性情報を生成させる段階と、
(c)前記学習装置が、(c1)(i)(i-1)前記第1特性情報と前記第2特性情報とを参照して取得された少なくとも一つの第1エラー、及び(i-2)前記第1特性情報を利用して生成された少なくとも一つのタスク特化出力(Task Specific Output)とこれに対応する少なくとも一つの原本正解(Ground Truth)とを参照して取得された少なくとも一つの第2エラーのうち少なくとも一部を参照して算出された少なくとも一つのデータエラーを最小化し、(ii)入力されるデータが本物であるか偽物であるかを判別する判別器(Discriminator)に入力された前記マーキング済み学習データに対応する少なくとも一つのマーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習し、(c2)前記判別器に入力された変換学習データ又は変換マーキング済み学習データにそれぞれ対応する少なくとも一つの変換データスコア又は少なくとも一つの変換マーキング済みデータスコアを最大化し、前記マーキング済みデータスコアを最小化するように、前記判別器を学習し、前記変換学習データ又は前記変換マーキング済み学習データは、それぞれ前記原本学習データ又は前記マーキング済み学習データを変換して生成される段階と、
を含む方法。 - 前記ラーニングネットワークは、少なくとも1つの第1学習済みパラメータ乃至少なくとも1つの第n学習済みパラメータをそれぞれ有する第1ラーニングネットワーク乃至第nラーニングネットワークを含み、前記nは1以上の整数(integer)であると、
前記(b)段階で、
前記学習装置は、(i)前記マーキング済み学習データを前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれに入力して、それぞれの前記第1ラーニングネットワーク乃至前記第nラーニングネットワークをもって(i-1)前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれの前記第1学習済みパラメータ乃至前記第n学習済みパラメータを利用して、前記マーキング済み学習データに対してそれぞれのネットワークに対応するネットワーク演算を適用させて(i-2)前記マーキング済み学習データに対するそれぞれの第1_1特性情報乃至第1_n特性情報を出力させ、(ii)前記原本学習データを前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれに入力して、それぞれの前記第1ラーニングネットワーク乃至前記第nラーニングネットワークをもって(ii-1)それぞれの前記第1学習済みパラメータ乃至前記第n学習済みパラメータを利用して、前記原本学習データに対してそれぞれのネットワークに対応するネットワーク演算を適用させて(ii-2)前記原本学習データに対するそれぞれの第2_1特性情報乃至第2_n特性情報を出力させ、
前記(c)段階で、
前記学習装置は、(i)(i-1)前記第1_1特性情報と前記第2_1特性情報とを参照して取得された第1_1エラー、乃至前記第1_n特性情報と前記第2_n特性情報とを参照して取得された第1_nエラー、の平均である前記第1エラー、及び(i-2)前記第1_1特性情報を利用して生成された少なくとも1つの第1タスク特化出力とこれに対応する少なくとも1つの第1原本正解とを参照して取得された第2_1エラー、乃至前記第1_n特性情報を利用して生成された少なくとも一つの第nタスク特化出力とこれに対応する少なくとも一つの第n原本正解とを参照して取得された第2_nエラー、の平均である前記第2エラーのうち少なくとも一部を参照して算出された前記データエラーを最小化し、前記判別器に入力された前記マーキング済み学習データに対応する前記マーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習し、(ii)前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する前記変換データスコア又は前記変換マーキング済みデータスコアを最大化し、前記マーキング済みデータスコアを最小化するように、前記判別器を学習する請求項1に記載の方法。 - 前記ラーニングネットワークは、少なくとも一つの第1学習済みパラメータ乃至少なくとも一つの第n学習済みパラメータを有する第1ラーニングネットワーク乃至第nラーニングネットワークを含み、前記nは1以上の整数であると、
前記(a)段階で、
前記学習装置は、前記原本学習データと前記マーク学習データとを前記データエンベディングネットワークに入力して、前記データエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成させて第1マーキング済み学習データを生成させ、
前記(b)段階で、
前記学習装置は、(i)前記第1マーキング済み学習データを前記第1ラーニングネットワークに入力して、前記第1ラーニングネットワークをもって(i-1)前記第1ラーニングネットワークの前記第1学習済みパラメータを利用して、前記第1マーキング済み学習データに対してネットワーク演算を適用させて(i-2)前記第1マーキング済み学習データに対する第1_1特性情報を出力させ、(ii)前記原本学習データを前記第1ラーニングネットワークに入力して、前記第1ラーニングネットワークをもって(ii-1)前記第1学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて(ii-2)前記原本学習データに対する第2_1特性情報を出力させ、
前記(c)段階で、
前記学習装置は、(c1)(i)(i-1)前記第1_1特性情報と前記第2_1特性情報とを参照して取得された少なくとも一つの第1_1エラー、及び(i-2)前記第1_1特性情報を利用して生成された少なくとも一つの第1タスク特化出力とこれに対応する少なくとも一つの第1原本正解とを参照して取得された少なくとも一つの第2_1エラーのうち少なくとも一部を参照して算出された少なくとも一つの第1データエラーを最小化し、(ii)前記判別器に入力された前記第1マーキング済み学習データに対応する少なくとも一つの第1マーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習して前記データエンベディングネットワークが第1学習済みデータエンベディングネットワークとなるようにし、(c2)(i)前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する少なくとも一つの第1変換データスコア又は少なくとも一つの第1変換マーキング済みデータスコアを最大化し、(ii)前記第1マーキング済みデータスコアを最小化するように、前記判別器を学習して前記判別器が第1学習済み判別器となるようにし、
前記学習装置は、整数であるkを2からnまで増加させて行き、(i)前記原本学習データと前記マーク学習データとを第k-1学習済みデータエンベディングネットワークに入力して、前記第k-1学習済みデータエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成させて第kマーキング済み学習データを生成させ、(ii)前記第kマーキング済み学習データを第kラーニングネットワークに入力して、前記第kラーニングネットワークをもって前記第kラーニングネットワークの少なくとも一つの第k学習済みパラメータを利用して、前記第kマーキング済み学習データに対してネットワーク演算を適用させて前記第kマーキング済み学習データに対応する第1_k特性情報を出力させ、前記原本学習データを前記第kラーニングネットワークに入力して、前記第kラーニングネットワークをもって前記第k学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて前記原本学習データに対応する第2_k特性情報を出力させ、(iii)(iii-1)前記第1_k特性情報と前記第2_k特性情報とを参照して取得された少なくとも1つの第1_kデータエラー、及び(iii-2)前記第1_k特性情報を利用して生成された少なくとも1つの第kタスク特化出力とこれに対応する少なくとも一つの第k原本正解とを参照して取得された少なくとも一つの第2_kエラーのうち少なくとも一部を参照して算出された少なくとも一つの第kデータエラーを最小化し、第k-1学習済み判別器に入力された前記第kマーキング済み学習データに対応する少なくとも一つの第kマーキング済みデータスコアを最大化するように、第k-1学習済みデータエンベディングネットワークを学習して前記第k-1学習済みデータエンベディングネットワークが第k学習済みデータエンベディングネットワークとなるようにし、(iv)前記第k-1学習済み判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する少なくとも一つの第k変換データスコア又は少なくとも一つの第k変換マーキング済みデータスコアを最大化し、前記第kマーキング済みデータスコアを最小化するように、前記第k-1学習済み判別器を学習して前記第kー1学習済み判別器が第k学習済み判別器となるようにする請求項1に記載の方法。 - 前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する前記変換データスコア又は前記変換マーキング済みデータスコアの最大値は、前記変換学習データ又は前記変換マーキング済み学習データが本物であるものと判別する1であり、前記判別器に入力された前記マーキング済み学習データに対応する前記マーキング済みデータスコアの最小値は、前記マーキング済み学習データが偽物であるものと判別する0である請求項1に記載の方法。
- 前記(c)段階で、
前記学習装置は、前記第1特性情報と前記第2特性情報との間の差異を参照して前記第1エラーを取得し、前記タスク特化出力と前記原本正解とを利用して生成された少なくとも1つのロスを参照して前記第2エラーを取得する請求項1に記載の方法。 - 前記学習装置は、前記第1特性情報と前記第2特性情報との間のノルム(Norm)又はコサイン類似度(Cosine Similarity)を参照して前記第1エラーを取得する請求項5に記載の方法。
- 前記(c)段階で、
前記学習装置は、前記原本学習データと前記マーキング済み学習データとの間の類似度をさらに参照して前記類似度を最小化するように前記データエンベディングネットワークを学習する請求項1に記載の方法。 - 原本データとマークデータとを合成してマーキング済みデータを生成するように学習済みデータエンベディングネットワークをテストする方法において、
(a)学習装置が、(i)原本学習データとマーク学習データとが取得されると、前記原本学習データと前記マーク学習データとをデータエンベディングネットワークに入力して、前記データエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成してマーキング済み学習データを生成させるプロセス、(ii)前記マーキング済み学習データを学習済みパラメータを有するラーニングネットワークに入力して、前記ラーニングネットワークをもって前記学習済みパラメータを利用して、前記マーキング済み学習データに対してネットワーク演算を適用させて前記マーキング済み学習データに対応する第1特性情報を生成させ、前記原本学習データを前記ラーニングネットワークに入力して、前記ラーニングネットワークをもって前記学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて前記原本学習データに対応する第2特性情報を生成させるプロセス、(iii)(iii-1)(iii-1a)前記第1特性情報と前記第2特性情報とを参照して取得された少なくとも1つの第1エラー、及び(iii-1b)前記第1特性情報を利用して生成された少なくとも1つのタスク特化出力とこれに対応する少なくとも1つの原本正解(Ground Truth)とを参照して取得された少なくとも一つの第2エラーのうち少なくとも一部を参照して生成された少なくとも一つのデータエラーを最小化し、(iii-2)入力されるデータが本物であるか偽物であるかを判別する判別器に入力された前記マーキング済み学習データに対応する少なくとも一つのマーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習するプロセス、及び(iv)前記判別器に入力された変換学習データ又は変換マーキング済み学習データにそれぞれ対応する少なくとも一つの変換データスコア又は少なくとも一つの変換マーキング済みデータスコアを最大化し、前記マーキング済みデータスコアを最小化するように、前記判別器を学習し、前記変換学習データ又は前記変換マーキング済み学習データは、前記原本学習データ又は前記マーキング済み学習データを変換したデータであるプロセスを遂行した状態で、テスト装置が、合成しようとする原本テストデータとマークテストデータとを取得する段階と、
(b)前記テスト装置が、前記原本テストデータと前記マークテストデータとを前記データエンベディングネットワークに入力して、前記データエンベディングネットワークをもって前記データエンベディングネットワークの少なくとも一つの学習済みパラメータを利用して前記原本テストデータと前記マークテストデータとを合成してマーキング済みテストデータを出力させる段階と、
を含む方法。 - 前記(a)段階で、
前記ラーニングネットワークは、少なくとも一つの第1学習済みパラメータ乃至少なくとも一つの第n学習済みパラメータを有する第1ラーニングネットワーク乃至第nラーニングネットワークを含み、前記nは1以上の整数であると、
前記学習装置が、(i)前記マーキング済み学習データを前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれに入力して、それぞれの前記第1ラーニングネットワーク乃至前記第nラーニングネットワークをもって(i-1)前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれの少なくとも1つの前記第1学習済みパラメータ乃至少なくとも1つの前記第n学習済みパラメータを利用して、前記マーキング済み学習データに対してそれぞれのネットワークに対応するネットワーク演算を適用させて(i-2)前記マーキング済み学習データに対応するそれぞれの第1_1特性情報乃至第1_n特性情報を出力させるプロセス、(ii)前記原本学習データを前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれに入力して、それぞれの前記第1ラーニングネットワーク乃至前記第nラーニングネットワークをもって(ii-1)前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれの前記第1学習済みパラメータ乃至前記第n学習済みパラメータを利用して、前記原本学習データに対してそれぞれのネットワークに対応するネットワーク演算を適用させて(ii-2)前記原本学習データに対するそれぞれの第2_1特性情報乃至第2_n特性情報を出力させるプロセス、(iii)(iii-1)(iii-1a)前記第1_1特性情報と前記第2_1特性情報とを参照して取得された少なくとも一つの第1_1エラー、乃至前記第1_n特性情報と前記第2_n特性情報とを参照して取得された少なくとも一つの第1_nエラー、の平均である前記第1エラー、及び(iii-1b)前記第1_1特性情報を利用して生成された少なくとも一つの第1タスク特化出力とこれに対応する少なくとも一つの第1原本正解とを参照して取得された第2_1エラー、乃至前記第1_n特性情報を利用して生成された少なくとも一つの第nタスク特化出力とこれに対応する少なくとも一つの第n原本正解とを参照して取得された第2_nエラー、の平均である前記第2エラーのうち少なくとも一部を参照して算出された前記データエラーを最小化し、(iii-2)前記判別器に入力された前記マーキング済み学習データに対応する前記マーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習するプロセス、及び(iv)前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する前記変換データスコア又は前記変換マーキング済みデータスコアを最大化し、前記マーキング済みデータスコアを最小化するように、前記判別器を学習するプロセスを遂行した状態である請求項8に記載の方法。 - 前記(a)段階で、
前記ラーニングネットワークは、少なくとも一つの第1学習済みパラメータ乃至少なくとも一つの第n学習済みパラメータを有する第1ラーニングネットワーク乃至第nラーニングネットワークを含み、前記nは1以上の整数であると、
前記学習装置が、(i)前記原本学習データと前記マーク学習データとを前記データエンベディングネットワークに入力して、前記データエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成して第1マーキング済み学習データを生成させるプロセス、(ii)前記第1マーキング済み学習データを前記第1ラーニングネットワークに入力して、前記第1ラーニングネットワークをもって前記第1ラーニングネットワークの前記第1学習済みパラメータを利用して、前記第1マーキング済み学習データに対してネットワーク演算を適用させて前記第1マーキング済み学習データに対応する前記第1_1特性情報を出力させ、前記原本学習データを前記第1ラーニングネットワークに入力して、前記第1ラーニングネットワークをもって前記第1ラーニングネットワークの前記第1学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて前記原本学習データに対応する第2_1特性情報を出力させるプロセス、(iii)(iii-1)前記第1_1特性情報と前記第2_1特性情報とを参照して取得された前記第1_1エラー、及び(iii-2)前記第1_1特性情報を利用して生成された第1タスク特化出力とこれに対応する第1原本正解とを参照して取得された前記第2_1エラーのうち少なくとも一部を参照して算出された第1データエラーを最小化し、前記判別器に入力された前記第1マーキング済み学習データに対応する前記第1マーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習して前記データエンベディングネットワークが第1学習済みデータエンベディングネットワークとなるようにするプロセス、(iv)前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する少なくとも1つの第1変換データスコア又は少なくとも1つの第1変換マーキング済みデータスコアを最大化し、前記第1マーキング済みデータスコアを最小化するように、前記判別器を学習して前記判別器が第1学習済み判別器となるようにするプロセス、及び(v)整数であるkを2からnまで増加させて行き、(v-1)前記原本学習データと前記マーク学習データとを前記第k-1学習済みデータエンベディングネットワークに入力して、前記第k-1学習済みデータエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成して第kマーキング済み学習データを生成させ、(v-2)前記第kマーキング済み学習データを第kラーニングネットワークに入力して、前記第kラーニングネットワークをもって前記第kラーニングネットワークの少なくとも一つの第k学習済みパラメータを利用して、前記第kマーキング済み学習データに対してネットワーク演算を適用させて前記第kマーキング済み学習データに対応する第1_k特性情報を出力させ、前記原本学習データを前記第kラーニングネットワークに入力して、前記第kラーニングネットワークをもって前記第k学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて前記原本学習データに対応する第2_k特性情報を出力させ、(v-3)(v-3-1)前記第1_k特性情報と前記第2_k特性情報とを参照して取得された少なくとも1つの第1_kエラー、及び(v-3-2)前記第1_k特性情報を利用して生成された少なくとも1つの第kタスク特化出力とこれに対応する少なくとも一つの第k原本正解とを参照して取得された少なくとも一つの第2_kエラーのうち少なくとも一部を参照して算出された少なくとも一つの第kデータエラーを最小化し、第k-1学習済み判別器に入力された前記第kマーキング済み学習データに対応する少なくとも一つの第kマーキング済みデータスコアを最大化するように、第k-1学習済みデータエンベディングネットワークを学習して前記第k-1学習済みデータエンベディングネットワークが第k学習済みデータエンベディングネットワークとなるようにし、(v-4)前記第k-1学習済み判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する少なくとも一つの第k変換データスコア又は少なくとも一つの第k変換マーキング済みデータスコアを最大化し、前記第kマーキング済みデータスコアを最小化するように、前記第k-1学習済み判別器を学習して前記第k-1学習済み判別器が第k学習済み判別器となるようにするプロセスを遂行した状態である請求項8に記載の方法。 - 前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する前記変換データスコア又は前記変換マーキング済みデータスコアの最大値は、前記変換学習データ又は前記変換マーキング済み学習データが本物であるものと判別する1であり、前記判別器に入力された前記マーキング済み学習データに対応する前記マーキング済みデータスコアの最小値は、前記マーキング済み学習データが偽物であるものと判別する0である請求項8に記載の方法。
- 前記学習装置は、前記第1特性情報と前記第2特性情報との間の差異を参照して前記第1エラーを取得し、前記タスク特化出力と前記原本正解とを利用して生成された少なくとも1つのロスを参照して前記第2エラーを取得する請求項8に記載の方法。
- 前記学習装置は、前記第1特性情報と前記第2特性情報との間のノルム(Norm)又はコサイン類似度(Cosine Similarity)を参照して前記第1エラーを取得する請求項12に記載の方法。
- 前記学習装置は、前記原本学習データと前記マーキング済み学習データとの間の類似度をさらに参照して前記類似度を最小化するように前記データエンベディングネットワークを学習する請求項8に記載の方法。
- 原本データとマークデータ(Mark Data)とを合成してマーキング済みデータ(Marked Data)を生成するデータエンベディングネットワーク(Data Embedding Network)を学習する学習装置において、
インストラクションを格納する少なくとも1つのメモリと、
(I)原本学習データとマーク学習データとが取得されると、前記原本学習データと前記マーク学習データとをデータエンベディングネットワークに入力して、前記データエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成させてマーキング済み学習データを生成させるプロセス、(II)(i)前記マーキング済み学習データを少なくとも一つの学習済みパラメータを有するラーニングネットワークに入力して、前記ラーニングネットワークをもって(i-1)前記学習済みパラメータを利用して、前記マーキング済み学習データに対してネットワーク演算を適用させて(i-2)前記マーキング済み学習データに対応する第1特性情報(Characteristic Information)を生成させ、(ii)前記原本学習データを前記ラーニングネットワークに入力して、前記ラーニングネットワークをもって(ii-1)前記学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて(ii-2)前記原本学習データに対応する第2特性情報を生成させるプロセス、及び(III)(III-1)(i)(i-1)前記第1特性情報と前記第2特性情報とを参照して取得された少なくとも1つの第1エラー、及び(i-2)前記第1特性情報を利用して生成された少なくとも1つのタスク特化出力(Task Specific Output)とこれに対応する少なくとも一つの原本正解(Ground Truth)とを参照して取得された少なくとも一つの第2エラーのうち少なくとも一部を参照して算出された少なくとも一つのデータエラーを最小化し、(ii)入力されるデータが本物であるか偽物であるかを判別する判別器(Discriminator)に入力された前記マーキング済み学習データに対応する少なくとも一つのマーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習し、(III-2)前記判別器に入力された変換学習データ又は変換マーキング済み学習データにそれぞれ対応する少なくとも一つの変換データスコア又は少なくとも一つの変換マーキング済みデータスコアを最大化し、前記マーキング済みデータスコアを最小化するように、前記判別器を学習し、前記変換学習データ又は前記変換マーキング済み学習データは、それぞれ前記原本学習データ又は前記マーキング済み学習データを変換して生成されるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも1つのプロセッサと、
を含む学習装置。 - 前記ラーニングネットワークは、少なくとも1つの第1学習済みパラメータ乃至少なくとも1つの第n学習済みパラメータをそれぞれ有する第1ラーニングネットワーク乃至第nラーニングネットワークを含み、前記nは1以上の整数であると、
前記(II)プロセスで、
前記プロセッサは、(i)前記マーキング済み学習データを前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれに入力して、それぞれの前記第1ラーニングネットワーク乃至前記第nラーニングネットワークをもって(i-1)前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれの前記第1学習済みパラメータ乃至前記第n学習済みパラメータを利用して、前記マーキング済み学習データに対してそれぞれのネットワークに対応するネットワーク演算を適用させて(i-2)前記マーキング済み学習データに対するそれぞれの第1_1特性情報乃至第1_n特性情報を出力させ、(ii)前記原本学習データを前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれに入力して、それぞれの前記第1ラーニングネットワーク乃至前記第nラーニングネットワークをもって(ii-1)それぞれの前記第1学習済みパラメータ乃至前記第n学習済みパラメータを利用して、前記原本学習データに対してそれぞれのネットワークに対応するネットワーク演算を適用させて(ii-2)前記原本学習データに対するそれぞれの第2_1特性情報乃至第2_n特性情報を出力させ、
前記(III)プロセスで、
前記プロセッサは、(i)(i-1)前記第1_1特性情報と前記第2_1特性情報とを参照して取得された第1_1エラー、乃至前記第1_n特性情報と前記第2_n特性情報とを参照して取得された第1_nエラー、の平均である前記第1エラー、及び(i-2)前記第1_1特性情報を利用して生成された少なくとも1つの第1タスク特化出力とこれに対応する少なくとも1つの第1原本正解とを参照して取得された第2_1エラー、乃至前記第1_n特性情報を利用して生成された少なくとも一つの第nタスク特化出力とこれに対応する少なくとも一つの第n原本正解とを参照して取得された第2_nエラー、の平均である前記第2エラーのうち少なくとも一部を参照して算出された前記データエラーを最小化し、前記判別器に入力された前記マーキング済み学習データに対応する前記マーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習し、(ii)前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する前記変換データスコア又は前記変換マーキング済みデータスコアを最大化し、前記マーキング済みデータスコアを最小化するように、前記判別器を学習する請求項15に記載の学習装置。 - 前記ラーニングネットワークは、少なくとも一つの第1学習済みパラメータ乃至少なくとも一つの第n学習済みパラメータを有する第1ラーニングネットワーク乃至第nラーニングネットワークを含み、前記nは1以上の整数であると、
前記(I)プロセスで、
前記プロセッサは、前記原本学習データと前記マーク学習データとを前記データエンベディングネットワークに入力して、前記データエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成させて第1マーキング済み学習データを生成させ、
前記(II)プロセスで、
前記プロセッサは、(i)前記第1マーキング済み学習データを前記第1ラーニングネットワークに入力して、前記第1ラーニングネットワークをもって(i-1)前記第1ラーニングネットワークの前記第1学習済みパラメータを利用して、前記第1マーキング済み学習データに対してネットワーク演算を適用させて(i-2)前記第1マーキング済み学習データに対する第1_1特性情報を出力させ、(ii)前記原本学習データを前記第1ラーニングネットワークに入力して、前記第1ラーニングネットワークをもって(ii-1)前記第1学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて(ii-2)前記原本学習データに対する第2_1特性情報を出力させ、
前記(III)プロセスで、
前記プロセッサは、(III-1)(i)(i-1)前記第1_1特性情報と前記第2_1特性情報とを参照して取得された少なくとも一つの第1_1エラー、及び(i-2)前記第1_1特性情報を利用して生成された少なくとも一つの第1タスク特化出力とこれに対応する少なくとも一つの第1原本正解とを参照して取得された少なくとも一つの第2_1エラーのうち少なくとも一部を参照して算出された少なくとも一つの第1データエラーを最小化し、(ii)前記判別器に入力された前記第1マーキング済み学習データに対応する少なくとも一つの第1マーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習して前記データエンベディングネットワークが第1学習済みデータエンベディングネットワークとなるようにし、(III-2)(i)前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する少なくとも一つの第1変換データスコア又は少なくとも一つの第1変換マーキング済みデータスコアを最大化し、(ii)前記第1マーキング済みデータスコアを最小化するように、前記判別器を学習して前記判別器が第1学習済み判別器となるようにし、
前記プロセッサは、整数であるkを2からnまで増加させて行き、(i)前記原本学習データと前記マーク学習データとを前記第k-1学習済みデータエンベディングネットワークに入力して、前記第k-1学習済みデータエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成させて第kマーキング済み学習データを生成させ、(ii)前記第kマーキング済み学習データを第kラーニングネットワークに入力して、前記第kラーニングネットワークをもって前記第kラーニングネットワークの少なくとも一つの第k学習済みパラメータを利用して、前記第kマーキング済み学習データに対してネットワーク演算を適用させて前記第kマーキング済み学習データに対応する第1_k特性情報を出力させ、前記原本学習データを前記第kラーニングネットワークに入力して、前記第kラーニングネットワークをもって前記第k学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて前記原本学習データに対応する第2_k特性情報を出力させ、(iii)(iii-1)前記第1_k特性情報と前記第2_k特性情報とを参照して取得された少なくとも1つの第1_kデータエラー、及び(iii-2)前記第1_k特性情報を利用して生成された少なくとも1つの第kタスク特化出力とこれに対応する少なくとも一つの第k原本正解とを参照して取得された少なくとも一つの第2_kエラーのうち少なくとも一部を参照して算出された少なくとも一つの第kデータエラーを最小化し、第k-1学習済み判別器に入力された前記第kマーキング済み学習データに対応する少なくとも一つの第kマーキング済みデータスコアを最大化するように、第k-1学習済みデータエンベディングネットワークを学習して前記第k-1学習済みデータエンベディングネットワークが第k学習済みデータエンベディングネットワークとなるようにし、(iv)前記第k-1学習済み判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する少なくとも1つの第k変換データスコア又は少なくとも一つの第k変換マーキング済みデータスコアを最大化し、前記第kマーキング済みデータスコアを最小化するように、前記第k-1学習済み判別器を学習して前記第k-1学習済み判別器が第k学習済み判別器となるようにする請求項15に記載の学習装置。 - 前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する前記変換データスコア又は前記変換マーキング済みデータスコアの最大値は、前記変換学習データ又は前記変換マーキング済み学習データが本物であるものと判別する1であり、前記判別器に入力された前記マーキング済み学習データに対応する前記マーキング済みデータスコアの最小値は、前記マーキング済み学習データが偽物であるものと判別する0である請求項15に記載の学習装置。
- 前記(III)プロセスで、
前記プロセッサは、前記第1特性情報と前記第2特性情報との間の差異を参照して前記第1エラーを取得し、前記タスク特化出力と前記原本正解とを利用して生成された少なくとも1つのロスを参照して前記第2エラーを取得する請求項15に記載の学習装置。 - 前記プロセッサは、前記第1特性情報と前記第2特性情報との間のノルム(Norm)又はコサイン類似度(Cosine Similarity)を参照して前記第1エラーを取得する請求項19に記載の学習装置。
- 前記(III)プロセスで、
前記プロセッサは、前記原本学習データと前記マーキング済み学習データとの間の類似度をさらに参照して前記類似度を最小化するように前記データエンベディングネットワークを学習する請求項15に記載の学習装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2018-0093747 | 2018-08-10 | ||
KR1020180093747A KR102107021B1 (ko) | 2018-08-10 | 2018-08-10 | 데이터를 식별 처리하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
PCT/KR2019/008944 WO2020032420A1 (en) | 2018-08-10 | 2019-07-19 | Method for training and testing data embedding network to generate marked data by integrating original data with mark data, and training device and testing device using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021521566A JP2021521566A (ja) | 2021-08-26 |
JP7140317B2 true JP7140317B2 (ja) | 2022-09-21 |
Family
ID=69406172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020564099A Active JP7140317B2 (ja) | 2018-08-10 | 2019-07-19 | 原本データとマークデータとを合成してマーキング済みデータを生成するデータエンベディングネットワークを学習する方法、及びテストする方法、並びに、それを利用した学習装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10789551B2 (ja) |
EP (1) | EP3834107A4 (ja) |
JP (1) | JP7140317B2 (ja) |
KR (1) | KR102107021B1 (ja) |
WO (2) | WO2020032348A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210216874A1 (en) * | 2020-01-10 | 2021-07-15 | Facebook Technologies, Llc | Radioactive data generation |
US11017320B1 (en) * | 2020-06-24 | 2021-05-25 | Deeping Source Inc. | Method for training obfuscation network which conceals original data to be used for machine learning and training surrogate network which uses obfuscated data generated by obfuscation network and learning device using the same and method for testing trained obfuscation network and testing device using the same |
US11366930B1 (en) * | 2021-08-23 | 2022-06-21 | Deeping Source Inc. | Method for training and testing obfuscation network capable of obfuscating data to protect personal information, and learning device and testing device using the same |
US11308359B1 (en) * | 2021-10-27 | 2022-04-19 | Deeping Source Inc. | Methods for training universal discriminator capable of determining degrees of de-identification for images and obfuscation network capable of obfuscating images and training devices using the same |
US11886955B2 (en) | 2022-02-16 | 2024-01-30 | Protopia AI, Inc. | Self-supervised data obfuscation in foundation models |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020099730A1 (en) * | 2000-05-12 | 2002-07-25 | Applied Psychology Research Limited | Automatic text classification system |
US7095872B2 (en) * | 2001-08-28 | 2006-08-22 | University Of North Carolina At Charlotte | Automated digital watermarking methods using neural networks |
JP4591211B2 (ja) * | 2005-05-31 | 2010-12-01 | 富士ゼロックス株式会社 | 画像処理装置、画像処理方法、媒体、符号読取装置、及びプログラム |
KR100950965B1 (ko) * | 2008-04-16 | 2010-04-02 | 동국대학교 산학협력단 | 배경 영상의 자동 교체 시스템 및 그 방법 |
CN101661610A (zh) * | 2009-09-17 | 2010-03-03 | 上海交通大学 | 具有主被动鉴别功能的数字图像防伪检测系统 |
KR20140147461A (ko) * | 2013-06-20 | 2014-12-30 | 삼성전자주식회사 | 고유의 컨텐츠를 삽입하는 전자 장치 및 방법 |
US9594983B2 (en) * | 2013-08-02 | 2017-03-14 | Digimarc Corporation | Learning systems and methods |
US9454713B2 (en) * | 2014-12-30 | 2016-09-27 | Ebay Inc. | Similar item detection |
KR101871065B1 (ko) * | 2016-01-27 | 2018-07-19 | 한국과학기술원 | 분할 기법을 이용한 3차원 메쉬 모델 워터마킹 방법 및 장치 |
KR101837939B1 (ko) | 2016-10-18 | 2018-03-13 | 주식회사 한글과컴퓨터 | 문서에 워터마크를 삽입하는 방법 및 그 장치와 워터마크가 삽입된 문서 |
KR20180058116A (ko) | 2016-11-23 | 2018-05-31 | 부산대학교 산학협력단 | 가정용 에너지 관리 시스템에서의 수용가의 가전기기 자동 설정 방법 |
JP6567488B2 (ja) | 2016-12-22 | 2019-08-28 | 日本電信電話株式会社 | 学習データ生成装置、開発データ生成装置、モデル学習装置、それらの方法、及びプログラム |
JP6727340B2 (ja) * | 2017-01-12 | 2020-07-22 | Kddi株式会社 | 情報処理装置、方法及びコンピュータ可読記憶媒体 |
KR101861520B1 (ko) | 2017-03-15 | 2018-05-28 | 광주과학기술원 | 얼굴 비식별화 방법 |
KR20180130925A (ko) * | 2017-05-30 | 2018-12-10 | 국방과학연구소 | 머신 러닝을 위한 학습 이미지를 자동 생성하는 인공 지능 장치 및 그의 제어 방법 |
US20190286938A1 (en) * | 2018-03-13 | 2019-09-19 | Recogni Inc. | Real-to-synthetic image domain transfer |
-
2018
- 2018-08-10 KR KR1020180093747A patent/KR102107021B1/ko active IP Right Grant
-
2019
- 2019-05-03 WO PCT/KR2019/005367 patent/WO2020032348A1/ko active Application Filing
- 2019-07-17 US US16/513,720 patent/US10789551B2/en active Active
- 2019-07-19 JP JP2020564099A patent/JP7140317B2/ja active Active
- 2019-07-19 EP EP19846855.5A patent/EP3834107A4/en active Pending
- 2019-07-19 WO PCT/KR2019/008944 patent/WO2020032420A1/en unknown
Non-Patent Citations (1)
Title |
---|
Jiren Zhu, et al.,"HiDDeN: Hiding Data With Deep Networks",arXiv:1807.09937v1,version v1,[online], arXiv (Cornell University),2018年07月26日,Pages 1-22,[令和4年1月11日検索], インターネット, <URL: https://arxiv.org/abs/1807.09937v1>. |
Also Published As
Publication number | Publication date |
---|---|
WO2020032420A1 (en) | 2020-02-13 |
US10789551B2 (en) | 2020-09-29 |
JP2021521566A (ja) | 2021-08-26 |
KR102107021B1 (ko) | 2020-05-07 |
US20200050962A1 (en) | 2020-02-13 |
CN112313645A (zh) | 2021-02-02 |
KR20200018031A (ko) | 2020-02-19 |
EP3834107A1 (en) | 2021-06-16 |
WO2020032348A1 (ko) | 2020-02-13 |
EP3834107A4 (en) | 2022-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7140317B2 (ja) | 原本データとマークデータとを合成してマーキング済みデータを生成するデータエンベディングネットワークを学習する方法、及びテストする方法、並びに、それを利用した学習装置 | |
JP7040712B2 (ja) | 個人情報保護のために原本データをコンシーリング処理する変調ネットワークを学習する方法及びテストする方法、そして、これを利用した学習装置及びテスト装置 | |
JP7297226B2 (ja) | 個人情報を保護するために原本データをコンシーリング処理して生成された変造データを認識するために使われる使用者ラーニングネットワークを学習する方法及びテストする方法、そしてこれを利用した学習装置及びテスト装置 | |
JP7362165B2 (ja) | プライバシーのためにデータをコンシーリング処理することができる変造ネットワークに対応される適応ネットワークを学習する方法及びテストする方法、そしてこれを利用した学習装置及びテスト装置{method for training and testing adaption network corresponding to obfuscation network capable of processing data to be concealed for privacy、and training device and testing device using the same} | |
Kanwal et al. | Detection of digital image forgery using fast fourier transform and local features | |
Singh et al. | Steganalysis of digital images using deep fractal network | |
Deeba et al. | Digital watermarking using deep neural network | |
Bhagtani et al. | An overview of recent work in media forensics: Methods and threats | |
KR20220052838A (ko) | 개인 정보 보호를 위하여 원본 데이터를 변조하는 변조 네트워크를 학습하는 방법 및 테스팅하는 방법, 그리고, 이를 이용한 학습 장치 및 테스팅 장치 | |
WO2023093346A1 (zh) | 基于外源特征进行模型所有权验证的方法和装置 | |
CN113435264A (zh) | 基于寻找黑盒替代模型的人脸识别对抗攻击方法及装置 | |
Ahmad et al. | A novel image tamper detection approach by blending forensic tools and optimized CNN: Sealion customized firefly algorithm | |
Biswas et al. | Deepfake detection using 3d-xception net with discrete fourier transformation | |
Qin et al. | CADW: CGAN-based attack on deep robust image watermarking | |
KR102247769B1 (ko) | 원본 데이터와 마크 데이터를 합성하여 마킹된 데이터를 생성하는 데이터 임베딩 네트워크를 학습하는 방법 및 테스트하는 방법, 그리고 이를 이용한 학습 장치 및 테스트 장치 | |
CN112313645B (zh) | 数据嵌入网络的学习方法和装置及其测试方法和装置 | |
Usmani et al. | Efficient deepfake detection using shallow vision transformer | |
Jabbar et al. | Digital watermarking by utilizing the properties of self-organization map based on least significant bit and most significant bit | |
Akram et al. | Enhanced Steganalysis for Color Images Using Curvelet Features and Support VectorMachine. | |
Sharma et al. | Towards secured image steganography based on content-adaptive adversarial perturbation | |
Rao et al. | ResTran: Long distance relationship on image forgery detection | |
Rehman et al. | Investigation and Morphing Attack Detection Techniques in Multimedia: A Detail Review | |
El-Emary et al. | On the application of genetic algorithms in finger prints registration | |
CN116244458B (zh) | 生成器训练、样本对生成、检索模型训练及商标检索方法 | |
Gahlot | DETECTION OF ATTRIBUTES MANIPULATION IN DEEP FAKE IMAGES USING HYBRIDLEARNING TECHNIQUE TO CLASSIFY INDIGENOUS AND FORGED IMAGES |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220421 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220802 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220823 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7140317 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |