JP7140317B2 - 原本データとマークデータとを合成してマーキング済みデータを生成するデータエンベディングネットワークを学習する方法、及びテストする方法、並びに、それを利用した学習装置 - Google Patents

原本データとマークデータとを合成してマーキング済みデータを生成するデータエンベディングネットワークを学習する方法、及びテストする方法、並びに、それを利用した学習装置 Download PDF

Info

Publication number
JP7140317B2
JP7140317B2 JP2020564099A JP2020564099A JP7140317B2 JP 7140317 B2 JP7140317 B2 JP 7140317B2 JP 2020564099 A JP2020564099 A JP 2020564099A JP 2020564099 A JP2020564099 A JP 2020564099A JP 7140317 B2 JP7140317 B2 JP 7140317B2
Authority
JP
Japan
Prior art keywords
data
learning
marked
network
original
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020564099A
Other languages
English (en)
Other versions
JP2021521566A (ja
Inventor
フン キム、テ
Original Assignee
ディーピング ソース インコーポレイテッド.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ディーピング ソース インコーポレイテッド. filed Critical ディーピング ソース インコーポレイテッド.
Publication of JP2021521566A publication Critical patent/JP2021521566A/ja
Application granted granted Critical
Publication of JP7140317B2 publication Critical patent/JP7140317B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • G06F21/6254Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/10Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
    • G06F21/16Program or content traceability, e.g. by watermarking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/10Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
    • G06F21/106Enforcing content protection by specific content processing
    • G06F21/1063Personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/018Audio watermarking, i.e. embedding inaudible data in the audio signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Technology Law (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Bioethics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、原本データとマークデータとを合成してマーキング済みデータを生成するデータエンベディングネットワーク(Data Embedding Network)を学習する方法、及びそれを利用した学習装置、並びに、原本データとマークデータとを合成してマーキング済みデータを生成するように学習済みデータエンベディングネットワークをテストする方法、及びそれを利用したテスト装置に関する。
ビッグデータ(Big Data)とは、既存の企業環境や公共機関で使用される定型化されたデータはもちろん、電子商取引データ、メタデータ、ウェブログデータ、ワイヤレス識別(RFID:Radio Frequency Identification)データ、センサネットワークデータ、ソーシャルネットワークデータ、インターネットテキストと文書に関するデータ、インターネット検索インデックスデータなど、従来活用できていなかった非定型化又は半定型化されたデータをすべて含むデータであって、このようなデータは一般的に通常のソフトウェアツール及びコンピュータシステムでは扱いにくいレベルのデータ量を有するようになるという意味でビッグデータと称されている。
また、このようなビッグデータは、それ自体では意味がないことがあるが、パターン等に対する機械学習を通じて様々な分野で新たなデータを作り出したり、判断又は予測をするのに有用に使用され得る。
近年、人工知能技術への関心が増大するに伴い、その基盤となるビッグデータの取引又は共有が活性化している。
しかし、データの特性上(例えば、データの量が膨大で誰から提供されたデータであるのかが特定されにくい特性)、一度第三者の手に渡るようになると複製又はコピーが容易であるだけでなく、権利のない者の手に無断で渡っても、それを摘発することが容易ではなかった。これを補完するためにウォーターマーク(Watermark)のような所定の個人識別技術が登場した。
これに関する従来技術の一例として、韓国公開特許公報第10-2018-0058116号に開示された技術を例に挙げることができるが、これによると、第1オーディオ信号をMCLT変換する段階、前記MCLT変換された第1オーディオ信号にウォーターマークのビット列を挿入する段階、前記ビット列が挿入された第1オーディオ信号をIMDCT変換する段階、及び前記IMDCT変換された信号を隣のフレーム信号とスーパーインポーズ(Superimposing)することにより、第1オーディオ信号にウォーターマークを挿入して取得された第2オーディオ信号を生成する段階を含むオーディオウォーターマークエンベディング(Embedding)技術が提供される。
また、これに関する他の従来技術の一例として、韓国登録特許公報第10-1837939号に開示された技術を例に挙げるが、これによると、予め設定された色相が適用される文書を複数の区域に分割する第1段階、前記複数の区域に分割された文書に互いに重ならないようにウォーターマークを選択して挿入する第2段階、及び前記予め設定された色相が適用された文書の色相と一致するようにウォーターマーク文書を補正し、ウォーターマークの秘匿程度(Hidden Degree)に応じて色相を補正する第3段階からなることを特徴とする、文書にウォーターマークをエンベディングする技術が提供される。
しかし、上記のような従来技術をはじめとして、これまでに紹介された技術によると、識別処理プロセスは誰のデータであるのか又は誰から受け取ったデータであるのかを容易に識別できるようにし、無断配布されるのを防止することができるものの、識別処理プロセスで原本データの変形又は損傷が引き起こされるため、機械学習、ディープラーニング又は強化学習の際に誤認識(Misrecognized)されたり使用しにくい問題があった。
よって、本発明者らは、原本データとマークデータとを合成して原本データと異なるように認識されるマーキング済みデータを生成し、学習モデルに原本データが入力されるに伴って出力される結果と、当該学習モデルにマーキング済みデータが入力されるに伴って出力される結果とが互いに同一又は類似し得るようにさせる技術を提案する。
本発明は、前述した従来技術の問題点をすべて解決することをその目的とする。
また、本発明は、データに対してデジタルウォーターマーク処理のような作業を行って、データの出所を容易に把握できるようにすることを他の目的とする。
そして、本発明は、原本データにマークデータを挿入して取得された識別処理済みデータに対して、機械学習演算を適用して生成された結果を、原本データに機械学習演算を適用して生成された結果と同一又は類似させることをまた他の目的とする。
また、本発明は、人にとっては原本データと識別処理済みデータとが互いに異なって認識されるものの、コンピュータには互いに同一又は類似するように認識される結果を得ることをまた他の目的とする。
また、本発明は、ビッグデータの取引市場においてデータの提供者が安心してデータを取引又は共有できるように支援することをまた他の目的とする。
前記の目的を達成するための本発明の代表的な構成は、以下の通りである。
本発明の一態様によると、原本データとマークデータ(Mark Data)とを合成してマーキング済みデータ(Marked Data)を生成するデータエンベディングネットワーク(Data Embedding Network)を学習する方法において、(a)原本学習データとマーク学習データとが取得されると、学習装置が、前記原本学習データと前記マーク学習データとをデータエンベディングネットワークに入力して、前記データエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成させてマーキング済み学習データを生成させる段階と、(b)前記学習装置が、(i)前記マーキング済み学習データを少なくとも一つの学習済みパラメータを有するラーニングネットワークに入力して、前記ラーニングネットワークをもって(i-1)前記学習済みパラメータを利用して、前記マーキング済み学習データに対してネットワーク演算を適用させて(i-2)前記マーキング済み学習データに対応する第1特性情報(Characteristic Information)を生成させ、(ii)前記原本学習データを前記ラーニングネットワークに入力して、前記ラーニングネットワークをもって(ii-1)前記学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて(ii-2)前記原本学習データに対応する第2特性情報を生成させる段階と、(c)前記学習装置が、(c1)(i)(i-1)前記第1特性情報と前記第2特性情報とを参照して取得された少なくとも一つの第1エラー、及び(i-2)前記第1特性情報を利用して生成された少なくとも一つのタスク特化出力(Task Specific Output)とこれに対応する少なくとも一つの原本正解(Ground Truth)とを参照して取得された少なくとも一つの第2エラーのうち少なくとも一部を参照して算出された少なくとも一つのデータエラーを最小化し、(ii)入力されるデータが本物であるか偽物であるかを判別する判別器(Discriminator)に入力された前記マーキング済み学習データに対応する少なくとも一つのマーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習し、(c2)前記判別器に入力された変換学習データ又は変換マーキング済み学習データにそれぞれ対応する少なくとも一つの変換データスコア又は少なくとも一つの変換マーキング済みデータスコアを最大化し、前記マーキング済みデータスコアを最小化するように、前記判別器を学習し、前記変換学習データ又は前記変換マーキング済み学習データは、それぞれ前記原本学習データ又は前記マーキング済み学習データを変換して生成される段階と、を含む。
一実施例において、前記ラーニングネットワークは、少なくとも1つの第1学習済みパラメータ乃至少なくとも1つの第n学習済みパラメータをそれぞれ有する第1ラーニングネットワーク乃至第nラーニングネットワークを含み、前記nは1以上の整数(integer)であると、前記(b)段階で、前記学習装置は、(i)前記マーキング済み学習データを前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれに入力して、それぞれの前記第1ラーニングネットワーク乃至前記第nラーニングネットワークをもって(i-1)前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれの前記第1学習済みパラメータ乃至前記第n学習済みパラメータを利用して、前記マーキング済み学習データに対してそれぞれのネットワークに対応するネットワーク演算を適用させて(i-2)前記マーキング済み学習データに対するそれぞれの第1_1特性情報乃至第1_n特性情報を出力させ、(ii)前記原本学習データを前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれに入力して、それぞれの前記第1ラーニングネットワーク乃至前記第nラーニングネットワークをもって(ii-1)それぞれの前記第1学習済みパラメータ乃至前記第n学習済みパラメータを利用して、前記原本学習データに対してそれぞれのネットワークに対応するネットワーク演算を適用させて(ii-2)前記原本学習データに対するそれぞれの第2_1特性情報乃至第2_n特性情報を出力させ、前記(c)段階で、前記学習装置は、(i)(i-1)前記第1_1特性情報と前記第2_1特性情報とを参照して取得された第1_1エラー、乃至前記第1_n特性情報と前記第2_n特性情報とを参照して取得された第1_nエラー、の平均である前記第1エラー、及び(i-2)前記第1_1特性情報を利用して生成された少なくとも1つの第1タスク特化出力とこれに対応する少なくとも1つの第1原本正解とを参照して取得された第2_1エラー、乃至前記第1_n特性情報を利用して生成された少なくとも一つの第nタスク特化出力とこれに対応する少なくとも一つの第n原本正解とを参照して取得された第2_nエラー、の平均である前記第2エラーのうち少なくとも一部を参照して算出された前記データエラーを最小化し、前記判別器に入力された前記マーキング済み学習データに対応する前記マーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習し、(ii)前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する前記変換データスコア又は前記変換マーキング済みデータスコアを最大化し、前記マーキング済みデータスコアを最小化するように、前記判別器を学習する。
一実施例において、前記ラーニングネットワークは、少なくとも一つの第1学習済みパラメータ乃至少なくとも一つの第n学習済みパラメータを有する第1ラーニングネットワーク乃至第nラーニングネットワークを含み、前記nは1以上の整数であると、前記(a)段階で、前記学習装置は、前記原本学習データと前記マーク学習データとを前記データエンベディングネットワークに入力して、前記データエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成させて第1マーキング済み学習データを生成させ、前記(b)段階で、前記学習装置は、(i)前記第1マーキング済み学習データを前記第1ラーニングネットワークに入力して、前記第1ラーニングネットワークをもって(i-1)前記第1ラーニングネットワークの前記第1学習済みパラメータを利用して、前記第1マーキング済み学習データに対してネットワーク演算を適用させて(i-2)前記第1マーキング済み学習データに対する第1_1特性情報を出力させ、(ii)前記原本学習データを前記第1ラーニングネットワークに入力して、前記第1ラーニングネットワークをもって(ii-1)前記第1学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて(ii-2)前記原本学習データに対する第2_1特性情報を出力させ、前記(c)段階で、前記学習装置は、(c1)(i)(i-1)前記第1_1特性情報と前記第2_1特性情報とを参照して取得された少なくとも一つの第1_1エラー、及び(i-2)前記第1_1特性情報を利用して生成された少なくとも一つの第1タスク特化出力とこれに対応する少なくとも一つの第1原本正解とを参照して取得された少なくとも一つの第2_1エラーのうち少なくとも一部を参照して算出された少なくとも一つの第1データエラーを最小化し、(ii)前記判別器に入力された前記第1マーキング済み学習データに対応する少なくとも一つの第1マーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習して前記データエンベディングネットワークが第1学習済みデータエンベディングネットワークとなるようにし、(c2)(i)前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する少なくとも一つの第1変換データスコア又は少なくとも一つの第1変換マーキング済みデータスコアを最大化し、(ii)前記第1マーキング済みデータスコアを最小化するように、前記判別器を学習して前記判別器が第1学習済み判別器となるようにし、前記学習装置は、整数であるkを2からnまで増加させて行き、(i)前記原本学習データと前記マーク学習データとを前記第k-1学習済みデータエンベディングネットワークに入力して、前記第k-1学習済みデータエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成させて第kマーキング済み学習データを生成させ、(ii)前記第kマーキング済み学習データを第kラーニングネットワークに入力して、前記第kラーニングネットワークをもって前記第kラーニングネットワークの少なくとも一つの第k学習済みパラメータを利用して、前記第kマーキング済み学習データに対してネットワーク演算を適用させて前記第kマーキング済み学習データに対応する第1_k特性情報を出力させ、前記原本学習データを前記第kラーニングネットワークに入力して、前記第kラーニングネットワークをもって前記第k学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて前記原本学習データに対応する第2_k特性情報を出力させ、(iii)(iii-1)前記第1_k特性情報と前記第2_k特性情報とを参照して取得された少なくとも1つの第1_kデータエラー、及び(iii-2)前記第1_k特性情報を利用して生成された少なくとも1つの第kタスク特化出力とこれに対応する少なくとも一つの第k原本正解とを参照して取得された少なくとも一つの第2_kエラーのうち少なくとも一部を参照して算出された少なくとも一つの第kデータエラーを最小化し、第k-1学習済み判別器に入力された前記第kマーキング済み学習データに対応する少なくとも一つの第kマーキング済みデータスコアを最大化するように、第k-1学習済みデータエンベディングネットワークを学習して前記第k-1学習済みデータエンベディングネットワークが第k学習済みデータエンベディングネットワークとなるようにし、(iv)前記第k-1学習済み判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する少なくとも一つの第k変換データスコア又は少なくとも一つの第k変換マーキング済みデータスコアを最大化し、前記第kマーキング済みデータスコアを最小化するように、前記第k-1学習済み判別器を学習して前記第kー1学習済み判別器が第k学習済み判別器となるようにする。
一実施例において、前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する前記変換データスコア又は前記変換マーキング済みデータスコアの最大値は、前記変換学習データ又は前記変換マーキング済み学習データが本物であるものと判別する1であり、前記判別器に入力された前記マーキング済み学習データに対応する前記マーキング済みデータスコアの最小値は、前記マーキング済み学習データが偽物であるものと判別する0である。
一実施例において、前記(c)段階で、前記学習装置は、前記第1特性情報と前記第2特性情報との間の差異を参照して前記第1エラーを取得し、前記タスク特化出力と前記原本正解とを利用して生成された少なくとも1つのロスを参照して前記第2エラーを取得する。
一実施例において、前記学習装置は、前記第1特性情報と前記第2特性情報との間のノルム(Norm)又はコサイン類似度(Cosine Similarity)を参照して前記第1エラーを取得する。
一実施例において、前記(c)段階で、前記学習装置は、前記原本学習データと前記マーキング済み学習データとの間の類似度をさらに参照して前記類似度を最小化するように前記データエンベディングネットワークを学習する。
本発明の他の態様によると、原本データとマークデータとを合成してマーキング済みデータを生成するように学習済みデータエンベディングネットワークをテストする方法において、(a)学習装置が、(i)原本学習データとマーク学習データとが取得されると、前記原本学習データと前記マーク学習データとをデータエンベディングネットワークに入力して、前記データエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成してマーキング済み学習データを生成させるプロセス、(ii)前記マーキング済み学習データを学習済みパラメータを有するラーニングネットワークに入力して、前記ラーニングネットワークをもって前記学習済みパラメータを利用して、前記マーキング済み学習データに対してネットワーク演算を適用させて前記マーキング済み学習データに対応する第1特性情報を生成させ、前記原本学習データを前記ラーニングネットワークに入力して、前記ラーニングネットワークをもって前記学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて前記原本学習データに対応する第2特性情報を生成させるプロセス、(iii)(iii-1)前記第1特性情報と前記第2特性情報とを参照して取得された少なくとも1つの第1エラー、及び(iii-2)前記第1特性情報を利用して生成された少なくとも1つのタスク特化出力とこれに対応する少なくとも1つの原本正解(Ground Truth)とを参照して取得された少なくとも一つの第2エラーのうち少なくとも一部を参照して生成された少なくとも一つのデータエラーを最小化し、入力されるデータが本物であるか偽物であるかを判別する判別器に入力された前記マーキング済み学習データに対応する少なくとも一つのマーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習するプロセス、及び(iv)前記判別器に入力された変換学習データ又は変換マーキング済み学習データにそれぞれ対応する少なくとも一つの変換データスコア又は少なくとも一つの変換マーキング済みデータスコアを最大化し、前記マーキング済みデータスコアを最小化するように、前記判別器を学習し、前記変換学習データ又は前記変換マーキング済み学習データは、前記原本学習データ又は前記マーキング済み学習データを変換したデータであるプロセスを遂行した状態で、テスト装置が、合成しようとする原本テストデータとマークテストデータとを取得する段階と、(b)前記テスト装置が、前記原本テストデータと前記マークテストデータとを前記データエンベディングネットワークに入力して、前記データエンベディングネットワークをもって前記データエンベディングネットワークの少なくとも一つの学習済みパラメータを利用して前記原本テストデータと前記マークテストデータとを合成してマーキング済みテストデータを出力させる段階と、を含む。
一実施例において、前記(a)段階で、前記ラーニングネットワークは、少なくとも一つの第1学習済みパラメータ乃至少なくとも一つの第n学習済みパラメータを有する第1ラーニングネットワーク乃至第nラーニングネットワークを含み、前記nは1以上の整数であると、前記学習装置が、(i)前記マーキング済み学習データを前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれに入力して、それぞれの前記第1ラーニングネットワーク乃至前記第nラーニングネットワークをもって(i-1)前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれの少なくとも1つの前記第1学習済みパラメータ乃至少なくとも1つの前記第n学習済みパラメータを利用して、前記マーキング済み学習データに対してそれぞれのネットワークに対応するネットワーク演算を適用させて(i-2)前記マーキング済み学習データに対応するそれぞれの第1_1特性情報乃至第1_n特性情報を出力させるプロセス、(ii)前記原本学習データを前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれに入力して、それぞれの前記第1ラーニングネットワーク乃至前記第nラーニングネットワークをもって(ii-1)前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれの前記第1学習済みパラメータ乃至前記第n学習済みパラメータを利用して、前記原本学習データに対してそれぞれのネットワークに対応するネットワーク演算を適用させて(ii-2)前記原本学習データに対するそれぞれの第2_1特性情報乃至第2_n特性情報を出力させるプロセス、(iii)(iii-1)(iii-1a)前記第1_1特性情報と前記第2_1特性情報とを参照して取得された少なくとも一つの第1_1エラー、乃至前記第1_n特性情報と前記第2_n特性情報とを参照して取得された少なくとも一つの第1_nエラー、の平均である前記第1エラー、及び(iii-1b)前記第1_1特性情報を利用して生成された少なくとも一つの第1タスク特化出力とこれに対応する少なくとも一つの第1原本正解とを参照して取得された第2_1エラー、乃至前記第1_n特性情報を利用して生成された少なくとも一つの第nタスク特化出力とこれに対応する少なくとも一つの第n原本正解とを参照して取得された第2_nエラー、の平均である前記第2エラーのうち少なくとも一部を参照して算出された前記データエラーを最小化し、(iii-2)前記判別器に入力された前記マーキング済み学習データに対応する前記マーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習するプロセス、及び(iv)前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する前記変換データスコア又は前記変換マーキング済みデータスコアを最大化し、前記マーキング済みデータスコアを最小化するように、前記判別器を学習するプロセスを遂行した状態である。
一実施例において、前記(a)段階で、前記ラーニングネットワークは、少なくとも一つの第1学習済みパラメータ乃至少なくとも一つの第n学習済みパラメータを有する第1ラーニングネットワーク乃至第nラーニングネットワークを含み、前記nは1以上の整数であると、前記学習装置が、(i)前記原本学習データと前記マーク学習データとを前記データエンベディングネットワークに入力して、前記データエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成して第1マーキング済み学習データを生成させるプロセス、(ii)前記第1マーキング済み学習データを前記第1ラーニングネットワークに入力して、前記第1ラーニングネットワークをもって前記第1ラーニングネットワークの前記第1学習済みパラメータを利用して、前記第1マーキング済み学習データに対してネットワーク演算を適用させて前記第1マーキング済み学習データに対応する前記第1_1特性情報を出力させ、前記原本学習データを前記第1ラーニングネットワークに入力して、前記第1ラーニングネットワークをもって前記第1ラーニングネットワークの前記第1学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて前記原本学習データに対応する前記第2_1特性情報を出力させるプロセス、(iii)(iii-1)前記第1_1特性情報と前記第2_1特性情報とを参照して取得された前記第1_1エラー、及び(iii-2)前記第1_1特性情報を利用して生成された前記第1タスク特化出力とこれに対応する前記第1原本正解とを参照して取得された前記第2_1エラーのうち少なくとも一部を参照して算出された前記第1データエラーを最小化し、前記判別器に入力された前記第1マーキング済み学習データに対応する前記第1マーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習して前記データエンベディングネットワークが第1学習済みデータエンベディングネットワークとなるようにするプロセス、(iv)前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する少なくとも1つの第1変換データスコア又は少なくとも1つの第1変換マーキング済みデータスコアを最大化し、前記第1マーキング済みデータスコアを最小化するように、前記判別器を学習して前記判別器が第1学習済み判別器となるようにするプロセス、及び(v)整数であるkを2からnまで増加させて行き、(v-1)前記原本学習データと前記マーク学習データとを前記第k-1学習済みデータエンベディングネットワークに入力して、前記第k-1学習済みデータエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成して第kマーキング済み学習データを生成させ、(v-2)前記第kマーキング済み学習データを第kラーニングネットワークに入力して、前記第kラーニングネットワークをもって前記第kラーニングネットワークの少なくとも一つの第k学習済みパラメータを利用して、前記第kマーキング済み学習データに対してネットワーク演算を適用させて前記第kマーキング済み学習データに対応する第1_k特性情報を出力させ、前記原本学習データを前記第kラーニングネットワークに入力して、前記第kラーニングネットワークをもって前記第k学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて前記原本学習データに対応する第2_k特性情報を出力させ、(v-3)(v-3-1)前記第1_k特性情報と前記第2_k特性情報とを参照して取得された少なくとも1つの第1_kエラー、及び(v-3-2)前記第1_k特性情報を利用して生成された少なくとも1つの第kタスク特化出力とこれに対応する少なくとも一つの第k原本正解とを参照して取得された少なくとも一つの第2_kエラーのうち少なくとも一部を参照して算出された少なくとも一つの第kデータエラーを最小化し、第k-1学習済み判別器に入力された前記第kマーキング済み学習データに対応する少なくとも一つの第kマーキング済みデータスコアを最大化するように、第k-1学習済みデータエンベディングネットワークを学習して前記第k-1学習済みデータエンベディングネットワークが第k学習済みデータエンベディングネットワークとなるようにし、(v-4)前記第k-1学習済み判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する少なくとも一つの第k変換データスコア又は少なくとも一つの第k変換マーキング済みデータスコアを最大化し、前記第kマーキング済みデータスコアを最小化するように、前記第k-1学習済み判別器を学習して前記第k-1学習済み判別器が第k学習済み判別器となるようにするプロセスを遂行した状態である。
一実施例において、前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する前記変換データスコア又は前記変換マーキング済みデータスコアの最大値は、前記変換学習データ又は前記変換マーキング済み学習データが本物であるものと判別する1であり、前記判別器に入力された前記マーキング済み学習データに対応する前記マーキング済みデータスコアの最小値は、前記マーキング済み学習データが偽物であるものと判別する0である。
一実施例において、前記学習装置は、前記第1特性情報と前記第2特性情報との間の差異を参照して前記第1エラーを取得し、前記タスク特化出力と前記原本正解とを利用して生成された少なくとも1つのロスを参照して前記第2エラーを取得する。
一実施例において、前記学習装置は、前記第1特性情報と前記第2特性情報との間のノルム(Norm)又はコサイン類似度(Cosine Similarity)を参照して前記第1エラーを取得する。
一実施例において、前記学習装置は、前記原本学習データと前記マーキング済み学習データとの間の類似度をさらに参照して前記類似度を最小化するように前記データエンベディングネットワークを学習する。
本発明のまた他の態様によると、原本データとマークデータ(Mark Data)とを合成してマーキング済みデータ(Marked Data)を生成するデータエンベディングネットワーク(Data Embedding Network)を学習する学習装置において、インストラクションを格納する少なくとも1つのメモリと、(I)原本学習データとマーク学習データとが取得されると、前記原本学習データと前記マーク学習データとをデータエンベディングネットワークに入力して、前記データエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成させてマーキング済み学習データを生成させるプロセス、(II)(i)前記マーキング済み学習データを少なくとも一つの学習済みパラメータを有するラーニングネットワークに入力して、前記ラーニングネットワークをもって(i-1)前記学習済みパラメータを利用して、前記マーキング済み学習データに対してネットワーク演算を適用させて(i-2)前記マーキング済み学習データに対応する第1特性情報(Characteristic Information)を生成させ、(ii)前記原本学習データを前記ラーニングネットワークに入力して、前記ラーニングネットワークをもって(ii-1)前記学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて(ii-2)前記原本学習データに対応する第2特性情報を生成させるプロセス、及び(III)(III-1)(i)(i-1)前記第1特性情報と前記第2特性情報とを参照して取得された少なくとも1つの第1エラー、及び(i-2)前記第1特性情報を利用して生成された少なくとも1つのタスク特化出力(Task Specific Output)とこれに対応する少なくとも一つの原本正解(Ground Truth)とを参照して取得された少なくとも一つの第2エラーのうち少なくとも一部を参照して算出された少なくとも一つのデータエラーを最小化し、(ii)入力されるデータが本物であるか偽物であるかを判別する判別器(Discriminator)に入力された前記マーキング済み学習データに対応する少なくとも一つのマーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習し、(III-2)前記判別器に入力された変換学習データ又は変換マーキング済み学習データにそれぞれ対応する少なくとも一つの変換データスコア又は少なくとも一つの変換マーキング済みデータスコアを最大化し、前記マーキング済みデータスコアを最小化するように、前記判別器を学習し、前記変換学習データ又は前記変換マーキング済み学習データは、それぞれ前記原本学習データ又は前記マーキング済み学習データを変換して生成されるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも1つのプロセッサと、を含む。
一実施例において、前記ラーニングネットワークは、少なくとも1つの第1学習済みパラメータ乃至少なくとも1つの第n学習済みパラメータをそれぞれ有する第1ラーニングネットワーク乃至第nラーニングネットワークを含み、前記nは1以上の整数であると、前記(II)プロセスで、前記プロセッサは、(i)前記マーキング済み学習データを前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれに入力して、それぞれの前記第1ラーニングネットワーク乃至前記第nラーニングネットワークをもって(i-1)前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれの前記第1学習済みパラメータ乃至前記第n学習済みパラメータを利用して、前記マーキング済み学習データに対してそれぞれのネットワークに対応するネットワーク演算を適用させて(i-2)前記マーキング済み学習データに対するそれぞれの第1_1特性情報乃至第1_n特性情報を出力させ、(ii)前記原本学習データを前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれに入力して、それぞれの前記第1ラーニングネットワーク乃至前記第nラーニングネットワークをもって(ii-1)それぞれの前記第1学習済みパラメータ乃至前記第n学習済みパラメータを利用して、前記原本学習データに対してそれぞれのネットワークに対応するネットワーク演算を適用させて(ii-2)前記原本学習データに対するそれぞれの第2_1特性情報乃至第2_n特性情報を出力させ、前記(III)プロセスで、前記プロセッサは、(i)(i-1)前記第1_1特性情報と前記第2_1特性情報とを参照して取得された第1_1エラー、乃至前記第1_n特性情報と前記第2_n特性情報とを参照して取得された第1_nエラー、の平均である前記第1エラー、及び(i-2)前記第1_1特性情報を利用して生成された少なくとも1つの第1タスク特化出力とこれに対応する少なくとも1つの第1原本正解とを参照して取得された第2_1エラー、乃至前記第1_n特性情報を利用して生成された少なくとも一つの第nタスク特化出力とこれに対応する少なくとも一つの第n原本正解とを参照して取得された第2_nエラー、の平均である前記第2エラーのうち少なくとも一部を参照して算出された前記データエラーを最小化し、前記判別器に入力された前記マーキング済み学習データに対応する前記マーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習し、(ii)前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する前記変換データスコア又は前記変換マーキング済みデータスコアを最大化し、前記マーキング済みデータスコアを最小化するように、前記判別器を学習する。
一実施例において、前記ラーニングネットワークは、少なくとも一つの第1学習済みパラメータ乃至少なくとも一つの第n学習済みパラメータを有する第1ラーニングネットワーク乃至第nラーニングネットワークを含み、前記nは1以上の整数であると、前記(I)プロセスで、前記プロセッサは、前記原本学習データと前記マーク学習データとを前記データエンベディングネットワークに入力して、前記データエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成させて第1マーキング済み学習データを生成させ、前記(II)プロセスで、前記プロセッサは、(i)前記第1マーキング済み学習データを前記第1ラーニングネットワークに入力して、前記第1ラーニングネットワークをもって(i-1)前記第1ラーニングネットワークの前記第1学習済みパラメータを利用して、前記第1マーキング済み学習データに対してネットワーク演算を適用させて(i-2)前記第1マーキング済み学習データに対する第1_1特性情報を出力させ、(ii)前記原本学習データを前記第1ラーニングネットワークに入力して、前記第1ラーニングネットワークをもって(ii-1)前記第1学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて(ii-2)前記原本学習データに対する第2_1特性情報を出力させ、前記(III)プロセスで、前記プロセッサは、(III-1)(i)(i-1)前記第1_1特性情報と前記第2_1特性情報とを参照して取得された少なくとも一つの第1_1エラー、及び(i-2)前記第1_1特性情報を利用して生成された少なくとも一つの第1タスク特化出力とこれに対応する少なくとも一つの第1原本正解とを参照して取得された少なくとも一つの第2_1エラーのうち少なくとも一部を参照して算出された少なくとも一つの第1データエラーを最小化し、(ii)前記判別器に入力された前記第1マーキング済み学習データに対応する少なくとも一つの第1マーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習して前記データエンベディングネットワークが第1学習済みデータエンベディングネットワークとなるようにし、(III-2)(i)前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する少なくとも一つの第1変換データスコア又は少なくとも一つの第1変換マーキング済みデータスコアを最大化し、(ii)前記第1マーキング済みデータスコアを最小化するように、前記判別器を学習して前記判別器が第1学習済み判別器となるようにし、前記プロセッサは、整数であるkを2からnまで増加させて行き、(i)前記原本学習データと前記マーク学習データとを前記第k-1学習済みデータエンベディングネットワークに入力して、前記第k-1学習済みデータエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成させて第kマーキング済み学習データを生成させ、(ii)前記第kマーキング済み学習データを第kラーニングネットワークに入力して、前記第kラーニングネットワークをもって前記第kラーニングネットワークの少なくとも一つの第k学習済みパラメータを利用して、前記第kマーキング済み学習データに対してネットワーク演算を適用させて前記第kマーキング済み学習データに対応する第1_k特性情報を出力させ、前記原本学習データを前記第kラーニングネットワークに入力して、前記第kラーニングネットワークをもって前記第k学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて前記原本学習データに対応する第2_k特性情報を出力させ、(iii)(iii-1)前記第1_k特性情報と前記第2_k特性情報とを参照して取得された少なくとも1つの第1_kデータエラー、及び(iii-2)前記第1_k特性情報を利用して生成された少なくとも1つの第kタスク特化出力とこれに対応する少なくとも一つの第k原本正解とを参照して取得された少なくとも一つの第2_kエラーのうち少なくとも一部を参照して算出された少なくとも一つの第kデータエラーを最小化し、第k-1学習済み判別器に入力された前記第kマーキング済み学習データに対応する少なくとも一つの第kマーキング済みデータスコアを最大化するように、第k-1学習済みデータエンベディングネットワークを学習して前記第k-1学習済みデータエンベディングネットワークが第k学習済みデータエンベディングネットワークとなるようにし、(iv)前記第k-1学習済み判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する少なくとも1つの第k変換データスコア又は少なくとも一つの第k変換マーキング済みデータスコアを最大化し、前記第kマーキング済みデータスコアを最小化するように、前記第k-1学習済み判別器を学習して前記第k-1学習済み判別器が第k学習済み判別器となるようにする。
一実施例において、前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する前記変換データスコア又は前記変換マーキング済みデータスコアの最大値は、前記変換学習データ又は前記変換マーキング済み学習データが本物であるものと判別する1であり、前記判別器に入力された前記マーキング済み学習データに対応する前記マーキング済みデータスコアの最小値は、前記マーキング済み学習データが偽物であるものと判別する0である。
一実施例において、前記(III)プロセスで、前記プロセッサは、前記第1特性情報と前記第2特性情報との間の差異を参照して前記第1エラーを取得し、前記タスク特化出力と前記原本正解とを利用して生成された少なくとも1つのロスを参照して前記第2エラーを取得する。
一実施例において、前記プロセッサは、前記第1特性情報と前記第2特性情報との間のノルム(Norm)又はコサイン類似度(Cosine Similarity)を参照して前記第1エラーを取得する。
一実施例において、前記(III)プロセスで、前記プロセッサは、前記原本学習データと前記マーキング済み学習データとの間の類似度をさらに参照して前記類似度を最小化するように前記データエンベディングネットワークを学習する。
本発明のまた他の態様によると、原本データとマークデータとを合成してマーキング済みデータを生成するように学習済みデータエンベディングネットワークをテストするテスト装置において、インストラクションを格納する少なくとも1つのメモリと、学習装置が、(i)原本学習データとマーク学習データとが取得されると、前記原本学習データと前記マーク学習データとをデータエンベディングネットワークに入力して、前記データエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成してマーキング済み学習データを生成させるプロセス、(ii)前記マーキング済み学習データを学習済みパラメータを有するラーニングネットワークに入力して、前記ラーニングネットワークをもって前記学習済みパラメータを利用して、前記マーキング済み学習データに対してネットワーク演算を適用させて前記マーキング済み学習データに対応する第1特性情報を生成させ、前記原本学習データを前記ラーニングネットワークに入力して、前記ラーニングネットワークをもって前記学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて前記原本学習データに対応する第2特性情報を生成させるプロセス、(iii)(iii-1)前記第1特性情報と前記第2特性情報とを参照して取得された少なくとも1つの第1エラー、及び(iii-2)前記第1特性情報を利用して生成された少なくとも1つのタスク特化出力とこれに対応する少なくとも1つの原本正解(Ground Truth)とを参照して取得された少なくとも1つの第2エラーのうち少なくとも一部を参照して生成された少なくとも一つのデータエラーを最小化し、入力されるデータが本物であるか偽物であるかを判別する判別器に入力された前記マーキング済み学習データに対応する少なくとも一つのマーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習するプロセス、及び(iv)前記判別器に入力された変換学習データ又は変換マーキング済み学習データにそれぞれ対応する少なくとも一つの変換データスコア又は少なくとも一つの変換マーキング済みデータスコアを最大化し、前記マーキング済みデータスコアを最小化するように、前記判別器を学習し、前記変換学習データ又は前記変換マーキング済み学習データは、前記原本学習データ又は前記マーキング済み学習データを変換したデータであるプロセスを遂行した状態で、(I)合成しようとする原本テストデータとマークテストデータとを取得するプロセス、及び(II)前記原本テストデータと前記マークテストデータとを前記データエンベディングネットワークに入力して、前記データエンベディングネットワークをもって前記データエンベディングネットワークの少なくとも1つの学習済みパラメータを利用して、前記原本テストデータと前記マークテストデータとを合成してマーキング済みテストデータを出力させるプロセスを遂行するか、他の装置をもって遂行するよう支援するための前記インストラクションを実行するように構成された少なくとも1つのプロセッサと、を含む。
一実施例において、前記(I)プロセスで、前記ラーニングネットワークは、少なくとも一つの第1学習済みパラメータ乃至少なくとも一つの第n学習済みパラメータを有する第1ラーニングネットワーク乃至第nラーニングネットワークを含み、前記nは1以上の整数であると、前記学習装置が、(i)前記マーキング済み学習データを前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれに入力して、それぞれの前記第1ラーニングネットワーク乃至前記第nラーニングネットワークをもって(i-1)前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれの少なくとも1つの前記第1学習済みパラメータ乃至少なくとも1つの前記第n学習済みパラメータを利用して、前記マーキング済み学習データに対してそれぞれのネットワークに対応するネットワーク演算を適用させて(i-2)前記マーキング済み学習データに対応するそれぞれの第1_1特性情報乃至第1_n特性情報を出力させるプロセス、(ii)前記原本学習データを前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれに入力して、それぞれの前記第1ラーニングネットワーク乃至前記第nラーニングネットワークをもって(ii-1)前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれの前記第1学習済みパラメータ乃至前記第n学習済みパラメータを利用して、前記原本学習データに対してそれぞれのネットワークに対応するネットワーク演算を適用させて(ii-2)前記原本学習データに対するそれぞれの第2_1特性情報乃至第2_n特性情報を出力させるプロセス、(iii)(iii-1)(iii-1a)前記第1_1特性情報と前記第2_1特性情報とを参照して取得された少なくとも一つの第1_1エラー、乃至前記第1_n特性情報と前記第2_n特性情報とを参照して取得された少なくとも一つの第1_nエラー、の平均である前記第1エラー、及び(iii-1b)前記第1_1特性情報を利用して生成された少なくとも一つの第1タスク特化出力とこれに対応する少なくとも一つの第1原本正解とを参照して取得された第2_1エラー、乃至前記第1_n特性情報を利用して生成された少なくとも一つの第nタスク特化出力とこれに対応する少なくとも一つの第n原本正解とを参照して取得された第2_nエラー、の平均である前記第2エラーのうち少なくとも一部を参照して算出された前記データエラーを最小化し、(iii-2)前記判別器に入力された前記マーキング済み学習データに対応する前記マーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習するプロセス、及び(iv)前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する前記変換データスコア又は前記変換マーキング済みデータスコアを最大化し、前記マーキング済みデータスコアを最小化するように、前記判別器を学習するプロセスを遂行した状態である。
一実施例において、前記(I)プロセスで、前記ラーニングネットワークは、少なくとも一つの第1学習済みパラメータ乃至少なくとも一つの第n学習済みパラメータを有する第1ラーニングネットワーク乃至第nラーニングネットワークを含み、前記nは1以上の整数であると、前記学習装置が、(i)前記原本学習データと前記マーク学習データとを前記データエンベディングネットワークに入力して、前記データエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成して第1マーキング済み学習データを生成させるプロセス、(ii)前記第1マーキング済み学習データを前記第1ラーニングネットワークに入力して、前記第1ラーニングネットワークをもって前記第1ラーニングネットワークの前記第1学習済みパラメータを利用して、前記第1マーキング済み学習データに対してネットワーク演算を適用させて前記第1マーキング済み学習データに対応する前記第1_1特性情報を出力させ、前記原本学習データを前記第1ラーニングネットワークに入力して、前記第1ラーニングネットワークをもって前記第1ラーニングネットワークの前記第1学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて前記原本学習データに対応する前記第2_1特性情報を出力させるプロセス、(iii)(iii-1)前記第1_1特性情報と前記第2_1特性情報とを参照して取得された前記第1_1エラー、及び(iii-2)前記第1_1特性情報を利用して生成された前記第1タスク特化出力とこれに対応する前記第1原本正解とを参照して取得された前記第2_1エラーのうち少なくとも一部を参照して算出された前記第1データエラーを最小化し、前記判別器に入力された前記第1マーキング済み学習データに対応する前記第1マーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習して前記データエンベディングネットワークが第1学習済みデータエンベディングネットワークとなるようにするプロセス、(iv)前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する少なくとも一つの第1変換データスコア又は第1変換マーキング済みデータスコアを最大化し、前記第1マーキング済みデータスコアを最小化するように、前記判別器を学習して前記判別器が第1学習済み判別器となるようにするプロセス、及び(v)整数であるkを2からnまで増加させて行き、(v-1)前記原本学習データと前記マーク学習データとを前記第k-1学習済みデータエンベディングネットワークに入力して、前記第k-1学習済みデータエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成して第kマーキング済み学習データを生成させ、(v-2)前記第kマーキング済み学習データを第kラーニングネットワークに入力して、前記第kラーニングネットワークをもって前記第kラーニングネットワークの少なくとも一つの第k学習済みパラメータを利用して、前記第kマーキング済み学習データに対してネットワーク演算を適用させて前記第kマーキング済み学習データに対応する第1_k特性情報を出力させ、前記原本学習データを前記第kラーニングネットワークに入力して、前記第kラーニングネットワークをもって前記第k学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて前記原本学習データに対応する第2_k特性情報を出力させ、(v-3)(v-3-1)前記第1_k特性情報と前記第2_k特性情報とを参照して取得された少なくとも1つの第1_kエラー、及び(v-3-2)前記第1_k特性情報を利用して生成された少なくとも1つの第kタスク特化出力とこれに対応する少なくとも一つの第k原本正解とを参照して取得された少なくとも一つの第2_kエラーのうち少なくとも一部を参照して算出された少なくとも一つの第kデータエラーを最小化し、第k-1学習済み判別器に入力された前記第kマーキング済み学習データに対応する少なくとも一つの第kマーキング済みデータスコアを最大化するように、第k-1学習済みデータエンベディングネットワークを学習して前記第k-1学習済みデータエンベディングネットワークが第k学習済みデータエンベディングネットワークとなるようにし、(v-4)前記第k-1学習済み判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する少なくとも一つの第k変換データスコア又は少なくとも一つの第k変換マーキング済みデータスコアを最大化し、前記第kマーキング済みデータスコアを最小化するように、前記第k-1学習済み判別器を学習して前記第k-1学習済み判別器が第k学習済み判別器となるようにするプロセスを遂行した状態である。
一実施例において、前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する前記変換データスコア又は前記変換マーキング済みデータスコアの最大値は、前記変換学習データ又は前記変換マーキング済み学習データが本物であるものと判別する1であり、前記判別器に入力された前記マーキング済み学習データに対応する前記マーキング済みデータスコアの最小値は、前記マーキング済み学習データが偽物であるものと判別する0である。
一実施例において、前記学習装置は、前記第1特性情報と前記第2特性情報との間の差異を参照して前記第1エラーを取得し、前記タスク特化出力と前記原本正解とを利用して生成された少なくとも1つのロスを参照して前記第2エラーを取得する。
一実施例において、前記学習装置は、前記第1特性情報と前記第2特性情報との間のノルム(Norm)又はコサイン類似度(Cosine Similarity)を参照して前記第1エラーを取得する。
一実施例において、前記学習装置は、前記原本学習データと前記マーキング済み学習データとの間の類似度をさらに参照して前記類似度を最小化するように前記データエンベディングネットワークを学習する。
その他にも、本発明の方法を実行するためのコンピュータプログラムを格納するためのコンピュータ読取り可能な記録媒体がさらに提供される。
本発明は、データを処理(例えば、デジタルウォーターマーク処理)することにより、データの出所を容易に識別することができる効果がある。
また、本発明は、原本データにマークデータを入力して取得された処理済みデータに対して機械学習演算を適用して生成された第1の結果を取得することができ、前記第1の結果は、原本データに機械学習演算を適用して生成された第2の結果と同一又は類似した他の効果がある。
また、本発明は、人にとっては原本データと識別処理済みデータとが互いに異なるように認識されるものの、コンピュータには原本データと識別処理済みデータとが互いに同一又は類似して認識され得るまた他の効果がある。
また、本発明は、ビッグデータの取引市場において、データの提供者が安心してデータを取引又は共有することができるように支援し得るまた他の効果がある。
本発明の一実施例において、原本データとマークデータとを合成してマーキング済みデータを生成するデータエンベディングネットワークを学習する学習装置を簡略に示したものである。 本発明の一実施例において、原本データとマークデータとを合成してマーキング済みデータを生成するデータエンベディングネットワークを学習する方法を簡略に示したものである。 本発明の一実施例において、原本データとマークデータとを合成してマーキング済みデータを生成するデータエンベディングネットワークを学習する他の方法を簡略に示したものである。 本発明の一実施例において、学習済みデータエンベディングネットワークをテストするテスト装置を簡略に示したものである。 本発明の一実施例において、学習済みデータエンベディングネットワークをテストする方法を簡略に示したものである。
本発明の実施例の説明に利用されるために添付された図面は、本発明の実施例のうち単に一部であるだけであり、本発明の属する技術分野において通常の知識を有する者(以下、「通常の技術者」)にとっては、発明的作業が行われることなく、これらの図面に基づいて他の図面が得られ得る。
後述する本発明に関する詳細な説明は、本発明が実施され得る特定の実施例を例示として示す添付図面を参照する。これらの実施例は、当業者が本発明を実施し得るように十分詳細に説明される。本発明の多様な実施例は互いに異なるものの、相互に排他的である必要はないことが理解されるべきである。例えば、ここに記載されている特定の機能、構造及び特性は、本発明の精神と範囲を逸脱せず、かつ一つの実施例から他の実施例に変更されて具現され得る。また、それぞれの実施例内の個別の構成要素の位置又は配置は、本発明の精神と範囲を逸脱せず、かつ変更され得ることが理解されるべきである。したがって、後述する詳細な説明は、限定的な意味として受け取ろうとするものではなく、本発明の範囲は、特許請求の範囲の請求項が請求する範囲及びそれに均等なすべての範囲を包括するものと受け取られるべきである。図面において類似の参照符号は、様々な側面にわたって同一であるか、類似した構成要素を示す。
以下では、本発明の詳細な説明と請求項に含まれる「含む」とは、用語と当該用語の多様な表現は、他の技術的特徴、追加、構成要素又は段階を排除することを意味するものではない。本発明の他の目的、恩恵及び特徴は、部分的には明細書から、及び部分的には本発明の履行から、技術分野における通常の知識を有する者に明らかにされるであろう。以下の各例示と図面は例示として示されているが、本発明はこれに制限されるわけではない。
本発明の属する技術分野において、通常の知識を有する者が本発明を容易に実施し得るようにするために、本発明の様々な好ましい実施例について添付された図面を参照して詳細に説明する。
図1は、本発明の一実施例において、原本データとマークデータとを合成してマーキング済みデータを生成するデータエンベディングネットワークを学習する学習装置を簡略に示したものである。
図1を参照すると、本発明の一実施例による学習装置100は、ラーニングネットワーク100が原本学習データを利用して算出された結果と同一又は類似した結果をマーキング済み学習データを入力して算出するように、原本学習データとマーク学習データとを利用してマーキング済み学習データを生成するデータエンベディングネットワークを学習するためのインストラクションが格納されたメモリ110と、メモリ110に格納されたインストラクションにしたがってデータエンベディングネットワークを学習するプロセスを遂行するプロセッサ120とを含むことができる。この場合、マーキング済みデータ、マーキング済み学習データ、マーキング済みテストデータ等は、マークデータをウォーターマーク(Watermark)として利用してデジタル方式でウォーターマーク処理済みのデータを意味し得る。
具体的に、学習装置100は、少なくとも一つのコンピューティング装置(例えば、コンピュータプロセッサ、メモリ、ストレージ、入力装置、出力装置、又は、その他既存のコンピューティング装置の構成要素;ルータ、スイッチなどのような電子通信装置;ネットワーク接続ストレージ(NAS)及びストレージ領域ネットワーク(SAN)のような電子情報ストレージシステム)と少なくとも一つのコンピュータソフトウェア(すなわち、コンピューティング装置をもって特定の方式で機能させるインストラクション)との組み合わせを利用して所望のシステム性能を一般的に達成するものであり得る。
また、このような装置のプロセッサは、MPU(Micro Processing Unit)又はCPU(Central Processing Unit)、キャッシュメモリ(Cache Memory)、データバス(Data Bus)などのハードウェア構成を含むことができる。また、コンピューティング装置は、オペレーティングシステム、特定の目的を遂行するアプリケーションのソフトウェア構成をさらに含むこともできる。
コンピューティング装置が、本発明を実施するためのプロセッサ、メモリ、ミディアム又は他のコンピューティング要素の任意の組み合わせを含む統合装置を排除するものではない。
一方、学習装置100は、原本学習データとマーク学習データとが取得されると、メモリ110に格納されたインストラクションにしたがって学習装置100のプロセッサ120が、原本学習データとマーク学習データとをデータエンベディングネットワークに入力して、データエンベディングネットワークをもって原本学習データとマーク学習データとを合成してマーキング済み学習データを生成させる。そして、学習装置100は、(i)マーキング済み学習データを少なくとも1つの学習済みパラメータを有するラーニングネットワークに入力して、ラーニングネットワークをもって(i-1)学習済みパラメータを利用して、マーキング済み学習データに対してネットワーク演算を適用させて(i-2)マーキング済み学習データに対応する第1特性情報(Characteristic Information)を生成させ、(ii)原本学習データをラーニングネットワークに入力して、ラーニングネットワークをもって(ii-1)学習済みパラメータを利用して、原本学習データに対してネットワーク演算を適用させて(ii-2)原本学習データに対応する第2特性情報を生成させるプロセスを遂行するか、他の装置をもって遂行するように支援することができる。以後、学習装置100は、(I)(i)(i-1)第1特性情報と第2特性情報とを参照して取得された少なくとも1つの第1エラー、及び(i-2)第1特性情報を利用して生成された少なくとも1つのタスク特化出力(Task Specific Output)とこれに対応する少なくとも1つの原本正解(Ground Truth)とを参照して取得された少なくとも1つの第2エラーのうち少なくとも一部を参照して算出された少なくとも一つのデータエラーを最小化し、(ii)入力されるデータが本物であるか偽物であるかを判別する判別器(Discriminator)に入力されたマーキング済み学習データに対応する少なくとも一つのマーキング済みデータスコアを最大化するように、データエンベディングネットワークを学習し、(II)判別器に入力された変換学習データ又は変換マーキング済み学習データにそれぞれ対応する少なくとも一つの変換データスコア又は少なくとも一つの変換マーキング済みデータスコアを最大化し、マーキング済みデータスコアを最小化するように、判別器を学習することができる。
このように構成された本発明の一実施例による学習装置100を利用して、原本学習データとマーク学習データとを合成してマーキング済み学習データを生成するデータエンベディングネットワークを学習する方法を、図2と図3を参照して説明すると以下のとおりである。
図2は、本発明の一実施例において、原本学習データとマーク学習データとを合成してマーキング済み学習データを生成するデータエンベディングネットワークを学習する方法を簡略に示したものである。本発明において、ウォーターマーク(すなわち、マーク学習データw)がマーキング済み学習データx’内で背景にのみ図示されるが、本発明の範囲はそれに制限されず、ウォーターマークは全景やマーキング済み学習データx’内のどこにでも存在し得る。
先ず、原本学習データxとマーク学習データwとが取得されると、学習装置100は、原本学習データxとマーク学習データwとをデータエンベディングネットワークGに入力して、データエンベディングネットワークGをもって原本学習データxとマーク学習データwとを合成させてマーキング済み学習データ(x’すなわち、G(x,w))を生成させる。この際、原本学習データxは、テキスト、イメージ、動画、音など様々な形態のデータを含むことができる。
そして、マーク学習データwは、人によって視覚、聴覚、及び触覚のうち少なくとも一つの感覚により認識され得るウォーターマーク、フォレンジックウォーターマーク(Forensic Watermark)などのデジタルウォーターマークを含むことができる。そして、デジタルウォーターマークは、原本データに対する著作権証明及び保護のためのロバストウォーターマーク(Robust Watermark)、原本データの保護及び証明のためのフラジャイルウォーターマーク(Fragile Watermark)、指紋のような固有情報を含むフィンガープリント(Fingerprint)、情報を秘匿したり他の形態に偽装するステガノグラフィー(Steganography)を含み得るが、これに限定されず、オーディオウォーターマークなど原本データに結合され得るすべての種類のウォーターマークを含むことができる。
また、マークデータwは、原本データに係る権利者に関する情報を含むことができ、一例として、原本データの製作者、配布者又は受領者に関する情報、制作日時、配布日時又は受領日時に関する情報、原本データに付与された権利に関する情報などが含まれ得る。
一方、マーキング済み学習データx’からマーク学習データwを分離して原本学習データが抽出されることを防止するために、原本学習データxとマーク学習データwとを合成する際にデータエンベディングネットワークGはエンベディング関数G(x,w)を利用して、所定の変形(Perturbation)を追加することができる。
すなわち、データエンベディングネットワークGは、イメージ、音等の原本学習データの類型や、ピクセル、周波数等の原本データの特性を参照して合成時に加わる変形の種類又はその変形の程度を決定することができる。
例えば、原本学習データxがイメージデータである場合、データエンベディングネットワークGは、変形を加えるピクセル基盤の混合因子(Blending Factor)及びサブピクセルレベルの空間歪曲(Spatial Distortion)の程度を決定し、決定された空間歪曲の程度に応じてマーク学習データwを変形させて、それを原本学習データxに合成することができる。
また、データエンベディングネットワークGは、原本学習データxから抽出される所定の暗号ハッシュ値(Cryptography Hash Value)に基づいてマーク学習データwに追加されるランダム変形を決定し、決定されたランダム変形にしたがってマーク学習データwを変形して、これを原本学習データxに合成することができる。
そして、マーキング済み学習データx’は、人にとっては原本学習データxと異なって認識されるものの、ラーニングネットワークでは原本学習データxと同一又は類似するものと認識され得る。
次に、学習装置100は、(i)マーキング済み学習データx’を少なくとも一つの学習済みパラメータを有するラーニングネットワークFに入力して、ラーニングネットワークFをもって(i-1)学習済みパラメータを利用して、マーキング済み学習データx’に対してネットワーク演算を適用させて(i-2)マーキング済み学習データx’に対応する第1特性情報F(x’)を生成させるプロセス、及び(ii)原本学習データxをラーニングネットワークFに入力して、ラーニングネットワークFをもって(ii-1)学習済みパラメータを利用して原本学習データxに対してネットワーク演算を適用させて(ii-2)原本学習データxに対応する第2特性情報F(x)を生成させるプロセスを遂行するか、他の装置をもって遂行するように支援することができる。
この際、ラーニングネットワークFは、マシンラーニングネットワークを含むことができるが、これに限定されず、学習済みパラメータにしたがって入力されるマーキング済み学習データx’に対してネットワーク演算を適用して第1特性情報F(x’)を出力し、原本学習データxに対してネットワーク演算を適用して第2特性情報F(x)を出力させる全てのラーニングネットワークを含むことができる。そして、マシンラーニングネットワークは、K-近傍法(K-Nearest Neighbors)、線形回帰(Linear Regression)、ロジスティック回帰(Logistic Regression)、サポートベクトルマシン(SVM,Support Vector Machine)、デシジョンツリー(Decision Tree)とランダムフォレスト(Random Forest)、ニューラルネットワーク(Neural Network)、クラスタリング(Clustering)、視覚化(Visualization)と次元縮小(Dimensionality Reduction)、関連規則学習(Association Rule Learning)、深層信頼ネットワーク(Deep Belief Network)、強化学習(Reinforcement Learning)、及びディープラーニングアルゴリズム(Deep Learning Algorithm)のうち少なくとも一つを含むことができるが、マシンラーニングネットワークはこれに限定されず、多様なラーニングアルゴリズムを含むことができる。
そして、第1特性情報F(x’)と第2特性情報F(x)とはそれぞれマーキング済み学習データx’と原本学習データxとに対する特徴(Feature)又はロジット(Logit)であり得る。また、第1特性情報F(x’)と第2特性情報F(x)とは、それぞれマーキング済み学習データx’と原本学習データx内の所定の特徴と関連する特徴値、又は所定の特徴と関連するベクトル(Vector)、行列(Matrix)及び座標(Coordinate)のうち少なくとも一つに関する値を含むロジットであり得る。例えば、学習データxが顔のイメージデータである場合に、上記の結果は顔認識のためのクラス、顔の特徴、一例として、笑顔に関する状態、顔の特徴点(Landmark Point、例えば、目の両端点)に関する座標であり得る。
次に、学習装置100は、(I)(i)(i-1)第1特性情報F(x’)と第2特性情報F(x)とを参照して取得された少なくとも1つの第1エラー、及び(i-2)第1特性情報F(x’)を利用して生成された少なくとも1つのタスク特化出力(Task Specific Output)とこれに対応する少なくとも1つの原本正解(Ground Truth)とを参照して取得された少なくとも1つの第2エラーのうち少なくとも一部を参照して算出された少なくとも一つのデータエラーを最小化し、(ii)入力されるデータが本物であるか偽物であるかを判別する判別器Dに入力されたマーキング済み学習データx’に対応する少なくとも一つのマーキング済みデータスコアを最大化するように、データエンベディングネットワークを学習し、(II)判別器Dに入力された変換学習データ又は変換マーキング済み学習データにそれぞれ対応する少なくとも一つの変換データスコア又は少なくとも一つの変換マーキング済みデータスコアを最大化し、マーキング済みデータスコアを最小化するように、判別器を学習することができる。この際、変換学習データ又は変換マーキング済み学習データは、ランダムノイズ生成ネットワーク(図示せず)を通じて生成された少なくとも一つのランダムノイズをそれぞれ原本学習データx又はマーキング済み学習データx’に追加して生成され得る。一例として、ランダムノイズ生成ネットワークをもって正規分布N(0,σ)によるランダムノイズを生成させ、生成されたノイズを原本学習データx又はマーキング済み学習データx’に追加して変換学習データ又は変換マーキング済み学習データを生成することができる。また、変換学習データ又は変換マーキング済み学習データは、ランダムノイズ以外にも、原本学習データx又はマーキング済み学習データx’をブラー(Blur)処理するか原本学習データx又はマーキング済み学習データx’の解像度を変更して生成することができるが、これに限定されず、原本学習データ又はマーキング済み学習データを変換する多様な方法が適用され得る。
すなわち、学習装置100は、データエンベディングネットワークGを学習するにおいて、第1エラーを利用してラーニングネットワークFでは原本学習データxと同一又は類似して認識されるように、原本学習データxとマーク学習データwとを合成してマーキング済み学習データx’を出力するように学習し、マーキング済みデータスコアを利用して原本学習データxとは異なるものの原本学習データxとの区別を難しくしたマーキング済み学習データx’を出力するように学習させることができる。
この場合、学習装置100は、第1特性情報F(x’)と第2特性情報F(x)との間の差を利用して第1エラーを取得し、タスク特化出力とこれに対応する原本正解とを利用して算出された少なくとも一つのロスによって第2エラーを取得することができる。
一例として、学習装置100は、第1特性情報F(x’)と第2特性情報F(x)とのノルム(Norm)又はコサイン類似度(Cosine Similarity)を参照して第1エラーを取得することができるが、これに限定されず、第1特性情報F(x’)と第2特性情報F(x)との間の差異を算出し得る多様なアルゴリズムを適用することができる。
そして、タスク特化出力は、ラーニングネットワークFが遂行しようとするタスクに対する出力であって、クラス分類のためのクラスに対する確率、位置検出のためのリグレッションによる座標値など、ラーニングネットワークFの学習済みのタスクによる多様な結果値を有することができ、ラーニングネットワークFから出力される特性情報に対して活性化ユニット(Activation Unit)の活性化関数(Activation Function)が適用されて、ラーニングネットワークFで遂行しようとするタスクによるタスク特化出力を生成することができる。この際、活性化関数としては、シグモイド(Sigmoid)関数、線形(Linear)関数、ソフトマックス(Softmax)関数、ReLU(Rlinear)関数、二乗(Square)関数、SQRT関数、Srlinear関数、ABS関数、TANH関数、Brlinear関数などが使用され得るが、これに限定されない。
一例として、ラーニングネットワークFがクラス分類のためのタスクを遂行する場合、学習装置100は、ラーニングネットワークFから出力される第1特性情報をクラスごとにマッピングして、マーキング済み学習データに対するクラスごとの確率を生成することができる。
この際、クラスごとの確率は、設定されたクラスごとにラーニングネットワークFから出力される第1特性情報F(x’)が正解である確率を示すことができる。例えば、学習データが顔のイメージデータである場合に、顔が笑顔の状態である確率は0.75、笑顔でない状態である確率は0.25等のように出力され得る。この際、ラーニングネットワークFから出力される第1特性情報F(x’)をクラスごとにマッピングするのにソフトマックスアルゴリズムを使用することができるが、これに限定されず、第1特性情報F(x’)をクラスごとにマッピングする様々なアルゴリズムが利用され得る。
また、判別器Dに入力された変換学習データ又は変換マーキング済み学習データにそれぞれ対応する変換データスコア又は変換マーキング済みデータスコアの最大値は、変換学習データ又は変換マーキング済み学習データが本物であるものと判別する1であり、判別器Dに入力されたマーキング済み学習データに対応するマーキング済みデータスコアの最小値は、マーキング済み学習データx’が偽物であるものと判別する0であり得る。すなわち、判別器Dは、マーキング済み学習データx’を変換学習データ又は変換マーキング済み学習データとして認識するように学習され得る。
そして、学習装置100が第1エラーを最小化して第2エラーを最大化するように、データエンベディングネットワークGを学習すると、学習装置100はラーニングネットワークFの学習済みパラメータを固定してアップデートせず、データエンベディングネットワークGに対してのみ学習を進めることができる。
これに加えて、学習装置100は、原本学習データxとマーキング済み学習データx’との間の類似度をさらに参照して類似度を最小化するように、データエンベディングネットワークGを学習することができる。すなわち、原本学習データxとマーキング済み学習データx’との間の差異を参照して類似度を算出し、類似度を最小化するようにデータエンベディングネットワークGを学習することにより、データエンベディングネットワークGは原本学習データとはかなり差異のあるマーキング済み学習データを出力することが可能となる。
前記の学習方法により、データエンベディングネットワークGは、ラーニングネットワークFの出力を参照して取得されたデータエラーを最小化し、判別器Dのマーキング済みデータスコアを最大化又は/及び原本学習データxとマーキング済み学習データx’との類似度を最小化するように学習されることにより、原本学習データxとマーク学習データwとを利用してマーキング済み学習データが生成されると、マーキング済み学習データx’は原本学習データxとは差異が大きく表れるが、ラーニングネットワークFでは、原本学習データxを利用して算出された結果と同一又は類似した結果が出るようにマーキング済み学習データx’を利用して算出された結果を出力することができる。すなわち、人又は他のコンピューティング装置にはマーキング済み学習データx’からマーク学習データwが区分されて認識されるものの、ラーニングネットワークFではマーク学習データwによる何らの影響もなしに原本学習データxを認識することが可能となる。
図3は、本発明の一実施例において、原本学習データとマーク学習データとを利用してマーキング済み学習データを生成するデータエンベディングネットワークを学習する他の方法を簡略に示したものであって、すなわち、ラーニングネットワークFが学習済みパラメータを有する多数のラーニングネットワークF1、F2、…,Fnで構成されたものである。この場合、多数のランニングネットワークF1、F2、…、Fnそれぞれは、互いに異なるタスクを遂行するように学習済みの状態であり得る。下記の説明においては、前記図2の説明で容易に理解可能な部分については詳細な説明を省略することにする。
先ず、原本学習データxとマーク学習データwとが取得されると、学習装置100は、原本学習データxとマーク学習データwとをデータエンベディングネットワークGに入力して、データエンベディングネットワークGをもって原本学習データxとマーク学習データwとを合成させて、マーキング済み学習データ(x’すなわち、G(x,w))を生成させる。
次に、学習装置100は、マーキング済み学習データx’を第1ラーニングネットワークF1乃至第nラーニングネットワークFnそれぞれに入力して、それぞれの第1ラーニングネットワークF1乃至第nラーニングネットワークFnをもって第1ラーニングネットワークF1乃至第nラーニングネットワークFnそれぞれの第1学習済みパラメータ乃至第n学習済みパラメータを利用して、マーキング済み学習データx’に対してそれぞれのネットワークに対応するネットワーク演算を適用させてマーキング済み学習データx’に対応するそれぞれの第1_1特性情報F1(x’)乃至第1_n特性情報Fn(x’)を生成させる。また、学習装置100は、原本学習データxを第1ラーニングネットワークF1乃至第nラーニングネットワークFnそれぞれに入力して、それぞれの第1ラーニングネットワークF1乃至第nラーニングネットワークFnをもって第1ラーニングネットワークF1乃至第nラーニングネットワークFnそれぞれの第1学習済みパラメータ乃至第n学習済みパラメータを利用して、原本学習データxに対してそれぞれのネットワークに対応するネットワーク演算を適用させて原本学習データxに対応するそれぞれの第2_1特性情報F1(x)乃至第2_n特性情報Fn(x)を生成させることができる。
次に、学習装置100は、(i)(i-1)第1_1特性情報F1(x’)と第2_1特性情報F1(x)とを参照して取得された第1_1エラー、乃至第1_n特性情報Fn(x’)と第2_n特性情報Fn(x)とを参照して取得された第1_nエラー、の平均である第1エラー、及び(i-2)第1_1特性情報F1(x’)を利用して生成された少なくとも1つの第1タスク特化出力とこれに対応する少なくとも一つの第1原本正解とを参照して取得された第2_1エラー、乃至前記第1_n特性情報を利用して生成された少なくとも1つの第nタスク特化出力とこれに対応する少なくとも一つの第n原本正解とを参照して取得された第2_nエラー、の平均である第2エラーのうち少なくとも一部を参照して算出されたデータエラーを最小化し、(ii)入力されるデータが本物であるか偽物であるかを判別する判別器Dに入力されたマーキング済み学習データx’に対応するマーキング済みデータスコアを最大化するように、データエンベディングネットワークGを学習することができる。そして、学習装置100は、判別器Dに入力された変換学習データ又は変換マーキング済み学習データに対応する変換データスコア又は変換マーキング済みデータスコアを最大化し、マーキング済みデータスコアを最小化するように、判別器Dを学習することができる。
すなわち、学習装置100は、第1_1特性情報F1(x’)と第2_1特性情報F1(x)とを参照して算出された第1_1エラーを取得し、第1_2特性情報F2(x’)と第2_2特性情報F2(x)とを参照して算出された第1_2エラーを取得し、同様に第1_n特性情報Fn(x’)と第2_n特性情報Fn(x)とを参照して算出された第1_nエラーを取得して、取得された第1_1エラー乃至取得された第1_nエラーの平均である第1エラーを取得することができる。そして、学習装置100は、第1_1特性情報F1(x’)を利用して生成された第1タスク特化出力とこれに対応する第1原本正解とを参照して算出された第2_1エラーを取得し、第1_2特性情報F2(x’)を利用して生成された少なくとも1つの第2タスク特化出力とこれに対応する少なくとも1つの第2原本正解とを参照して算出された第2_2エラーを取得し、同様に第1_n特性情報Fn(x’)を利用して生成された少なくとも1つの第nタスク特化出力とこれに対応する少なくとも1つの第n原本正解とを参照して算出された第2_nエラーを取得して、取得された第2_1エラー乃至取得された第2_nエラーの平均である第2エラーを取得する。そして、学習装置100は、(I)第1エラーと第2エラーとのうち少なくとも一部を参照して算出された少なくとも一つのデータエラーを最小化し、判別器Dに入力されたマーキング済み学習データx’に対応する少なくとも一つのマーキング済みデータスコアを最大化するように、データエンベディングネットワークGを学習し、(II)判別器Dに入力された変換学習データ又は変換マーキング済み学習データに対応する少なくとも一つの変換データスコア又は少なくとも一つの変換マーキング済みデータスコアを最大化し、マーキング済みデータスコアを最小化するように、判別器Dを学習することができる。
この際、データエラーは、第1エラー、第2エラー、及び第1エラーと第2エラーとの和のうちいずれかであり得るが、本発明がこれに限定されるわけではない。
一方、前記では、(i)(i-1)第1_1特性情報F1(x’)と第2_1特性情報F1(x)とを参照して取得された第1_1エラー、乃至第1_n特性情報Fn(x’)と第2_n特性情報Fn(x)とを参照して取得された第1_nエラー、の平均である第1エラー、及び(i-2)第1_1特性情報F1(x’)を利用して生成された第1タスク特化出力とこれに対応する第1原本正解とを参照して取得された第2_1エラー、乃至第1_n特性情報Fn(x’)を利用して生成された第nタスク特化出力とこれに対応する第n原本正解とを参照して取得された第2_nエラー、の平均である第2エラーのうち少なくとも一部を参照して算出されたデータエラーを最小化し、(ii)判別器に入力されたマーキング済み学習データx’に対応するマーキング済みデータスコアを最大化するように、データエンベディングネットワークGを学習することができる。しかし、別の例として、第1_1エラーと第2_1エラーとのうち少なくとも一部を参照して算出された少なくとも一つの第1データエラー、乃至第1_nエラーと第2_nエラーとのうち少なくとも一部を参照して算出された少なくとも一つの第nデータエラーを最小化するように、データエンベディングネットワークGを順次学習することもできる。
すなわち、学習装置100は、原本学習データxとマーク学習データwとをデータエンベディングネットワークGに入力して、データエンベディングネットワークGをもって原本学習データxとマーク学習データwとを合成させて第1マーキング済み学習データx1’を生成させる。そして、学習装置100は、(i)第1マーキング済み学習データx1’を第1ラーニングネットワークF1に入力して、第1ラーニングネットワークF1をもって第1ラーニングネットワークF1の第1学習済みパラメータを利用して、第1マーキング済み学習データx1’に対してネットワーク演算を適用させて第1マーキング済み学習データx1’に対応する第1_1特性情報F1(x1’)を出力させ、(ii)原本学習データxを第1ラーニングネットワークF1に入力して第1ラーニングネットワークF1をもって第1学習済みパラメータを利用して、原本学習データxに対してネットワーク演算を適用させて原本学習データxに対応する第2_1特性情報F1(x)を出力させる。以後、学習装置100は、(i)(i-1)第1_1特性情報F1(x1’)と第2_1特性情報F1(x)とを参照して取得された第1_1エラー、及び(i-2)第1_1特性情報F1(x’)を利用して生成された第1タスク特化出力とこれに対応する第1原本正解とを参照して取得された第2_1エラーのうち少なくとも一部を参照して算出された第1データエラーを最小化し、(ii)判別器Dに入力された第1マーキング済み学習データx1’に対応する第1マーキング済みデータスコアを最大化するように、データエンベディングネットワークGを学習して、データエンベディングネットワークGが第1学習済みデータエンベディングネットワークG1となるようにすることができる。そして、学習装置100は、判別器Dに入力された変換学習データ又は変換マーキング済み学習データに対応する少なくとも一つの第1変換データスコア又は少なくとも一つの第1変換マーキング済みデータスコアを最大化し、第1マーキング済みデータスコアを最小化するように、判別器Dを学習して、判別器Dが第1学習済み判別器(D1)となるようにすることができる。
そして、学習装置100は、整数であるkを2からnまで増加させて行き、前記のプロセスを繰り返して第nラーニングネットワークFnまで遂行することにより、第n学習済みデータエンベディングネットワークGnを取得することが可能となる。
すなわち、学習装置100は、原本学習データxとマーク学習データwとを第k-1学習済みデータエンベディングネットワークG(k-1)に入力して、第k-1学習済みデータエンベディングネットワークG(k-1)をもって原本学習データxとマーク学習データwとを合成させて、第kマーキング済み学習データxk’を生成させる。そして、学習装置100は、(i)第kマーキング済み学習データxk’を第kラーニングネットワークFkに入力して、第kラーニングネットワークFkをもって第kラーニングネットワークFkの少なくとも一つの第k学習済みパラメータを利用して、第kマーキング済み学習データxk’に対してネットワーク演算を適用させて第kマーキング済み学習データxk’に対応する第1_k特性情報Fk(xk’)を出力させ、(ii)原本学習データxを第kラーニングネットワークFkに入力して、第kラーニングネットワークFkをもって第k学習済みパラメータを利用して、原本学習データxに対してネットワーク演算を適用させて原本学習データxに対する第2_k特性情報Fk(xk)を出力させる。以後、学習装置100は、(i)(i-1)第1_k特性情報Fk(xk’)と第2_k特性情報Fk(x)とを参照して取得された少なくとも1つの第1_kエラー、及び(i-2)第1_k特性情報Fk(x’)を利用して生成された少なくとも1つの第kタスク特化出力とこれに対応する少なくとも1つの第k原本正解とを参照して取得された少なくとも1つの第2_kエラーのうち少なくとも一部を参照して算出された少なくとも一つの第kデータエラーを最小化し、(ii)第k-1学習済み判別器D(k-1)に入力された少なくとも一つの第kマーキング済み学習データxk’に対応する少なくとも一つの第kマーキング済みデータスコアを最大化するように、第k-1学習済みデータエンベディングネットワークG(k-1)を学習して、第k-1学習済みデータエンベディングネットワークG(k-1)が第k学習済みデータエンベディングネットワークGkとなるようにすることができる。そして、第k-1学習済み判別器D(k-1)に入力された変換学習データ又は変換マーキング済み学習データに対応する少なくとも一つの第k変換データスコア又は少なくとも一つの第k変換マーキング済みデータスコアを最大化し、少なくとも一つの第kマーキング済みデータスコアを最小化するように、第k-1学習済み判別器D(k-1)を学習して、第k-1学習済み判別器D(k-1)が第k学習済み判別器Dkとなるようにすることができる。
図4は、本発明の一実施例において、原本データとマークデータとを合成してマーキング済みデータを生成するように学習済みデータエンベディングネットワークGをテストするテスト装置を簡略に示したものである。
図4を参照すると、本発明の一実施例によるテスト装置200は、ラーニングネットワークが原本データを利用して算出した結果と同一又は類似した結果をマーキング済みデータを利用して出力するように、原本データとマークデータとを利用してマーキング済みデータを生成する学習済みデータエンベディングネットワークをテストするためのインストラクションが格納されたメモリ210と、メモリ210に格納されたインストラクションにしたがって学習済みデータエンベディングネットワークをテストする動作を遂行するプロセッサ220とを含むことができる。
具体的には、テスト装置200は、少なくとも一つのコンピューティング装置(例えば、コンピュータプロセッサ、メモリ、ストレージ、入力装置及び出力装置、その他既存のコンピューティング装置の構成要素;ルータ、スイッチなどのような電子通信装置;ネットワーク接続ストレージ(NAS)及びストレージ領域ネットワーク(SAN)のような電子情報ストレージシステム)と少なくとも一つのコンピュータソフトウェア(すなわち、コンピューティング装置をもって特定の方式で機能させるインストラクション)との組み合わせを利用して所望のシステム性能を一般的に達成するものであり得る。
また、このような装置のプロセッサは、MPU(Micro Processing Unit)又はCPU(Central Processing Unit)、キャッシュメモリ(Cache Memory)、データバス(Data Bus)などのハードウェア構成を含むことができる。また、コンピューティング装置は、オペレーティングシステム、特定の目的を遂行するアプリケーションのソフトウェア構成をさらに含むこともできる。
しかし、コンピューティング装置が、本発明を実施するためのプロセッサ、メモリ、ミディアム又は他のコンピューティング要素の任意の組み合わせを含む統合装置を排除するものではない。
一方、前記図2と図3の説明における方法によりデータエンベディングネットワークが合成された状態である場合、一例として、学習装置が、(i)原本学習データとマーク学習データとが取得されると、原本学習データとマーク学習データとをデータエンベディングネットワークに入力して、データエンベディングネットワークをもって原本学習データとマーク学習データとを合成させてマーキング済み学習データを生成させ、(ii)(ii-1)マーキング済み学習データを学習済みパラメータを有するラーニングネットワークに入力して、ラーニングネットワークをもって学習済みパラメータを利用して、マーキング済み学習データに対してネットワーク演算を適用させてマーキング済み学習データに対応する第1特性情報を生成させ、(ii-2)原本学習データをラーニングネットワークに入力して、ラーニングネットワークをもって学習済みパラメータを利用して、原本学習データに対してネットワーク演算を適用させて原本学習データに対応する第2特性情報を生成させ、(iii)(iii-1)第1特性情報と第2特性情報とを参照して取得された第1エラー、及び(iii-2)第1特性情報を利用して生成されたタスク特化出力とこれに対応する原本正解とを参照して取得された第2エラーのうち少なくとも一部を参照して算出されたデータエラーを最小化し、入力されるデータが本物であるか偽物であるかを判別する判別器に入力されたマーキング済み学習データに対応するマーキング済みデータスコアを最大化するように、データエンベディングネットワークを学習し、(iv)判別器に入力された変換学習データ又は変換マーキング済み学習データに対応する変換データスコア又は変換マーキング済みデータスコアを最大化し、マーキング済みデータスコアを最小化するように、判別器を学習した状態で、テスト装置200は、合成しようとする原本テストデータとマークテストデータとを取得し、原本テストデータとマークテストデータとをデータエンベディングネットワークに入力して、データエンベディングネットワークをもってデータエンベディングネットワークの学習済みパラメータを利用して原本テストデータとマークテストデータとを合成して、マーキング済みテストデータを出力させることができる。
図5は、本発明の一実施例において、学習済みデータエンベディングネットワークをテストする方法を簡略に示したものである。
図5を参照すると、図2と図3に説明されているように、学習方法にしたがってデータエンベディングネットワークが学習された状態で、合成しようとする原本テストデータとマークテストデータとが取得されると、テスト装置200が、原本テストデータとマークテストデータとをデータエンベディングネットワークに入力して、データエンベディングネットワークをもってデータエンベディングネットワークの学習済みパラメータを利用して、原本テストデータとマークテストデータとを合成させてマーキング済みテストデータを出力させることができる。
この際、原本テストデータとマーキング済みテストデータとは、人又はコンピューティング装置には互いに異なるデータとして認識されるものの、ラーニングネットワークでは原本テストデータとマーキング済みテストデータとが同一又は類似した結果として認識され得る。
一方、データエンベディングネットワークは、図2と図3の説明における学習方法により学習済みの状態であり得る。
一例として、学習装置は、(i)原本学習データとマーク学習データとが取得されると、原本学習データとマーク学習データとをデータエンベディングネットワークに入力して、データエンベディングネットワークをもって原本学習データとマーク学習データとを合成させてマーキング済み学習データを生成させ、(ii)マーキング済み学習データを学習済みパラメータを有するラーニングネットワークに入力して、ラーニングネットワークをもって学習済みパラメータを利用して、マーキング済み学習データに対してネットワーク演算を適用させてマーキング済み学習データに対応する第1特性情報を生成させ、原本学習データをラーニングネットワークに入力して、ラーニングネットワークをもって学習済みパラメータを利用して、原本学習データに対してネットワーク演算を適用させて原本学習データに対応する第2特性情報を生成させ、(iii)(iii-1)第1特性情報と第2特性情報とを参照して取得された第1エラー、及び(iii-2)第1特性情報を利用して生成されたタスク特化出力とこれに対応する原本正解とを参照して取得された第2エラーのうち少なくとも一部を参照して算出されたデータエラーを最小化し、入力されるデータが本物であるか偽物であるかを判別する判別器に入力されたマーキング済み学習データに対応するマーキング済みデータスコアを最大化するように、データエンベディングネットワークを学習し、(iv)判別器に入力された変換学習データ又は変換マーキング済み学習データに対応する変換データスコア又は変換マーキング済みデータスコアを最大化し、マーキング済みデータスコアを最小化するように、判別器を学習した状態であり得る。
また、前記において、ラーニングネットワークは、それぞれ第1学習済みパラメータ乃至第n学習済みパラメータを有する第1ラーニングネットワーク乃至第nラーニングネットワークを含み、学習装置は、(i)マーキング済み学習データを第1ラーニングネットワーク乃至第nラーニングネットワークそれぞれに入力して、それぞれの第1ラーニングネットワーク乃至第nラーニングネットワークをもって(i-1)第1ラーニングネットワーク乃至第nラーニングネットワークそれぞれの第1学習済みパラメータ乃至第n学習済みパラメータを利用して、マーキング済み学習データに対してそれぞれのネットワークに対応するネットワーク演算を適用させて(i-2)マーキング済み学習データに対するそれぞれの第1_1特性情報乃至第1_n特性情報を出力させ、(ii)原本学習データを第1ラーニングネットワーク乃至第nラーニングネットワークそれぞれに入力して、それぞれの第1ラーニングネットワーク乃至第nラーニングネットワークをもって(ii-1)第1ラーニングネットワーク乃至第nラーニングネットワークそれぞれの第1学習済みパラメータ乃至第n学習済みパラメータを利用して、原本学習データに対してネットワーク演算を適用させて(ii-2)原本学習データに対するそれぞれの第2_1特性情報乃至第2_n特性情報を出力させ、(iii)(iii-1)(iii-1a)第1_1特性情報と第2_1特性情報とを参照して取得された第1_1エラー、乃至第1_n特性情報と第2_n特性情報とを参照して取得された第1_nエラー、の平均である第1エラー、及び(iii-1b)第1_1特性情報を利用して生成された少なくとも一つの第1タスク特化出力とこれに対応する少なくとも一つの第1原本正解とを参照して取得された第2_1エラー、乃至第1_n特性情報を利用して生成された少なくとも一つの第nタスク特化出力とこれに対応する少なくとも一つの第n原本正解とを参照して取得された第2_nエラー、の平均である第2エラーのうち少なくとも一部を参照して算出されたデータエラーを最小化し、(iii-2)判別器に入力されたマーキング済み学習データ対応するマーキング済みデータスコアを最大化するように、データエンベディングネットワークを学習し、(iv)判別器に入力された変換学習データ又は変換マーキング済み学習データに対応する変換データスコア又は変換マーキング済みデータスコアを最大化し、マーキング済みデータスコアを最小化するように、判別器を学習した状態であり得る。
また、前記において、ラーニングネットワークは、それぞれ第1学習済みパラメータ乃至第n学習済みパラメータを有する第1ラーニングネットワーク乃至第nラーニングネットワークを含み、学習装置は、(i)原本学習データとマーク学習データとをデータエンベディングネットワークに入力して、データエンベディングネットワークをもって原本学習データとマーク学習データとを合成して第1マーキング済み学習データを生成させ、(ii)第1マーキング済み学習データを第1ラーニングネットワークに入力して、第1ラーニングネットワークをもって第1ラーニングネットワークの第1学習済みパラメータを利用して、第1マーキング済み学習データに対してネットワーク演算を適用させて第1マーキング済み学習データに対応する第1_1特性情報を出力させ、原本学習データを第1ラーニングネットワークに入力して、第1ラーニングネットワークをもって第1ラーニングネットワークの第1学習済みパラメータを利用して、原本学習データに対してネットワーク演算を適用させて原本学習データに対応する第2_1特性情報を出力させ、(iii)(iii-1)第1_1特性情報と第2_1特性情報とを参照して取得された第1_1エラー、及び(iii-2)第1_1特性情報を利用して生成された第1タスク特化出力とこれに対応する第1原本正解とを参照して取得された第2_1エラーのうち少なくとも一部を参照して算出された第1データエラーを最小化し、判別器に入力された第1マーキング済み学習データに対応する第1マーキング済みデータスコアを最大化するように、データエンベディングネットワークを学習して、データエンベディングネットワークが第1学習済みデータエンベディングネットワークとなるようにし、(iv)判別器に入力された変換学習データ又は変換マーキング済み学習データに対応する第1変換データスコア又は第1変換マーキング済みデータスコアを最大化し、第1マーキング済みデータスコアを最小化するように、判別器を学習して、判別器が第1学習済み判別器となるようにした状態であり得る。そして、整数であるkを2からnまで増加させて行き、学習装置は、(i)原本学習データとマーク学習データとを第k-1学習済みデータエンベディングネットワークに入力して、第k-1学習済みデータエンベディングネットワークをもって原本学習データとマーク学習データとを合成させて第kマーキング済み学習データを生成させ、(ii)第kマーキング済み学習データを第kラーニングネットワークに入力して、第kラーニングネットワークをもって第kラーニングネットワークの少なくとも一つの第k学習済みパラメータを利用して、第kマーキング済み学習データに対してネットワーク演算を適用させて第kマーキング済み学習データに対応する第1_k特性情報を出力させ、原本学習データを第kラーニングネットワークに入力して、第kラーニングネットワークをもって第k学習済みパラメータを利用して、原本学習データに対してネットワーク演算を適用させて原本学習データに対応する第2_k特性情報を出力させ、(iii)(iii-1)第1_k特性情報と第2_k特性情報とを参照して取得された少なくとも一つの第1_kエラーと、(iii-2)第1_k特性情報を利用して生成された少なくとも一つの第kタスク特化出力とこれに対応する少なくとも一つの第k原本正解とを参照して取得された少なくとも一つの第2_kエラーのうち少なくとも一部を参照して算出された少なくとも一つの第kデータエラーを最小化し、第k-1学習済み判別器に入力された第kマーキング済み学習データに対応する少なくとも一つの第kマーキング済みデータスコアを最大化するように、第k-1学習済みデータエンベディングネットワークを学習して、第k-1学習済みデータエンベディングネットワークが第k学習済みデータエンベディングネットワークとなるようにし、(iv)第k-1学習済み判別器に入力された変換学習データ又は変換マーキング済み学習データに対応する少なくとも一つの第k変換データスコア又は少なくとも一つの第k変換マーキング済みデータスコアを最大化し、第kマーキング済みデータスコアを最小化するように、第k-1学習済み判別器を学習して、前記第k-1学習済み判別器が第k学習済み判別器となるようにした状態であり得る。
一方、本発明の実施例において、データエンベディングネットワークで原本データとマークデータとを合成して生成されたマーキング済みデータは、ビッグデータの購入を希望する購入者に提供又は販売され得る。
この場合に、本発明の一実施例によって生成されたマーキング済みデータはマークデータが合成されているので、購入者の無断コピー又は無断複製を困難にするだけでなく、第三者に無断で提供されても、後に容易に追跡することが可能となる。また、本発明の一実施例によると、マーキング済みデータは人にとっては原本データと互いに異なるように認識され得るが、ラーニングネットワークでは原本データと互いに同一又は類似して認識され得るようになる。
一方、本明細書に明示された「平均」は、加重平均(Weighted Average)を意味するが、これに限定されるわけではない。
以上にて説明された本発明による実施例は、多様なコンピュータの構成要素を通じて実行することができるプログラム命令語の形態で具現されて、コンピュータ読取り可能な記録媒体に格納され得る。前記コンピュータ読取り可能な記録媒体は、プログラム命令語、データファイル、データ構造などを単独で又は組み合わせて含むことができる。前記コンピュータ読取り可能な記録媒体に格納されるプログラム命令語は、本発明のために特別に設計され、構成されたものであるか、コンピュータソフトウェア分野の当業者に公知にされて使用可能なものであり得る。コンピュータ読取り可能な記録媒体の例には、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD-ROM、DVDのような光記録媒体、フロプティカルディスク(Floptical Disk)のような磁気-光メディア(Magneto-Optical Media)、及びROM、RAM、フラッシュメモリなどのようなプログラム命令語を格納して遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタープリターなどを使用してコンピュータによって実行され得る高級言語コードも含まれる。前記ハードウェア装置は、本発明による処理を遂行するために一つ以上のソフトウェアモジュールとして作動するように構成され得、その反対も同様である。
以上にて本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは本発明のより全般的な理解の一助とするために提供されたものであるに過ぎず、本発明が前記実施例に限られるものではなく、本発明が属する技術分野において通常の知識を有する者であれば、かかる記載から多様な修正及び変形が行われ得る。
したがって、本発明の思想は、前記説明された実施例に局限されて定められてはならず、後述する特許請求の範囲だけでなく、本特許請求の範囲と均等又は等価的に変形されたものすべては、本発明の思想の範囲に属するといえる。
100:学習装置
110:メモリ
120:プロセッサ
200:テスト装置
210:メモリ
220:プロセッサ

Claims (21)

  1. 原本データとマークデータ(Mark Data)とを合成してマーキング済みデータ(Marked Data)を生成するデータエンベディングネットワーク(Data Embedding Network)を学習する方法において、
    (a)原本学習データとマーク学習データとが取得されると、学習装置が、前記原本学習データと前記マーク学習データとをデータエンベディングネットワークに入力して、前記データエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成させてマーキング済み学習データを生成させる段階と、
    (b)前記学習装置が、(i)前記マーキング済み学習データを少なくとも一つの学習済みパラメータを有するラーニングネットワークに入力して、前記ラーニングネットワークをもって(i-1)前記学習済みパラメータを利用して、前記マーキング済み学習データに対してネットワーク演算を適用させて(i-2)前記マーキング済み学習データに対応する第1特性情報(Characteristic Information)を生成させ、(ii)前記原本学習データを前記ラーニングネットワークに入力して、前記ラーニングネットワークをもって(ii-1)前記学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて(ii-2)前記原本学習データに対応する第2特性情報を生成させる段階と、
    (c)前記学習装置が、(c1)(i)(i-1)前記第1特性情報と前記第2特性情報とを参照して取得された少なくとも一つの第1エラー、及び(i-2)前記第1特性情報を利用して生成された少なくとも一つのタスク特化出力(Task Specific Output)とこれに対応する少なくとも一つの原本正解(Ground Truth)とを参照して取得された少なくとも一つの第2エラーのうち少なくとも一部を参照して算出された少なくとも一つのデータエラーを最小化し、(ii)入力されるデータが本物であるか偽物であるかを判別する判別器(Discriminator)に入力された前記マーキング済み学習データに対応する少なくとも一つのマーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習し、(c2)前記判別器に入力された変換学習データ又は変換マーキング済み学習データにそれぞれ対応する少なくとも一つの変換データスコア又は少なくとも一つの変換マーキング済みデータスコアを最大化し、前記マーキング済みデータスコアを最小化するように、前記判別器を学習し、前記変換学習データ又は前記変換マーキング済み学習データは、それぞれ前記原本学習データ又は前記マーキング済み学習データを変換して生成される段階と、
    を含む方法。
  2. 前記ラーニングネットワークは、少なくとも1つの第1学習済みパラメータ乃至少なくとも1つの第n学習済みパラメータをそれぞれ有する第1ラーニングネットワーク乃至第nラーニングネットワークを含み、前記nは1以上の整数(integer)であると、
    前記(b)段階で、
    前記学習装置は、(i)前記マーキング済み学習データを前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれに入力して、それぞれの前記第1ラーニングネットワーク乃至前記第nラーニングネットワークをもって(i-1)前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれの前記第1学習済みパラメータ乃至前記第n学習済みパラメータを利用して、前記マーキング済み学習データに対してそれぞれのネットワークに対応するネットワーク演算を適用させて(i-2)前記マーキング済み学習データに対するそれぞれの第1_1特性情報乃至第1_n特性情報を出力させ、(ii)前記原本学習データを前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれに入力して、それぞれの前記第1ラーニングネットワーク乃至前記第nラーニングネットワークをもって(ii-1)それぞれの前記第1学習済みパラメータ乃至前記第n学習済みパラメータを利用して、前記原本学習データに対してそれぞれのネットワークに対応するネットワーク演算を適用させて(ii-2)前記原本学習データに対するそれぞれの第2_1特性情報乃至第2_n特性情報を出力させ、
    前記(c)段階で、
    前記学習装置は、(i)(i-1)前記第1_1特性情報と前記第2_1特性情報とを参照して取得された第1_1エラー、乃至前記第1_n特性情報と前記第2_n特性情報とを参照して取得された第1_nエラー、の平均である前記第1エラー、及び(i-2)前記第1_1特性情報を利用して生成された少なくとも1つの第1タスク特化出力とこれに対応する少なくとも1つの第1原本正解とを参照して取得された第2_1エラー、乃至前記第1_n特性情報を利用して生成された少なくとも一つの第nタスク特化出力とこれに対応する少なくとも一つの第n原本正解とを参照して取得された第2_nエラー、の平均である前記第2エラーのうち少なくとも一部を参照して算出された前記データエラーを最小化し、前記判別器に入力された前記マーキング済み学習データに対応する前記マーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習し、(ii)前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する前記変換データスコア又は前記変換マーキング済みデータスコアを最大化し、前記マーキング済みデータスコアを最小化するように、前記判別器を学習する請求項1に記載の方法。
  3. 前記ラーニングネットワークは、少なくとも一つの第1学習済みパラメータ乃至少なくとも一つの第n学習済みパラメータを有する第1ラーニングネットワーク乃至第nラーニングネットワークを含み、前記nは1以上の整数であると、
    前記(a)段階で、
    前記学習装置は、前記原本学習データと前記マーク学習データとを前記データエンベディングネットワークに入力して、前記データエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成させて第1マーキング済み学習データを生成させ、
    前記(b)段階で、
    前記学習装置は、(i)前記第1マーキング済み学習データを前記第1ラーニングネットワークに入力して、前記第1ラーニングネットワークをもって(i-1)前記第1ラーニングネットワークの前記第1学習済みパラメータを利用して、前記第1マーキング済み学習データに対してネットワーク演算を適用させて(i-2)前記第1マーキング済み学習データに対する第1_1特性情報を出力させ、(ii)前記原本学習データを前記第1ラーニングネットワークに入力して、前記第1ラーニングネットワークをもって(ii-1)前記第1学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて(ii-2)前記原本学習データに対する第2_1特性情報を出力させ、
    前記(c)段階で、
    前記学習装置は、(c1)(i)(i-1)前記第1_1特性情報と前記第2_1特性情報とを参照して取得された少なくとも一つの第1_1エラー、及び(i-2)前記第1_1特性情報を利用して生成された少なくとも一つの第1タスク特化出力とこれに対応する少なくとも一つの第1原本正解とを参照して取得された少なくとも一つの第2_1エラーのうち少なくとも一部を参照して算出された少なくとも一つの第1データエラーを最小化し、(ii)前記判別器に入力された前記第1マーキング済み学習データに対応する少なくとも一つの第1マーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習して前記データエンベディングネットワークが第1学習済みデータエンベディングネットワークとなるようにし、(c2)(i)前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する少なくとも一つの第1変換データスコア又は少なくとも一つの第1変換マーキング済みデータスコアを最大化し、(ii)前記第1マーキング済みデータスコアを最小化するように、前記判別器を学習して前記判別器が第1学習済み判別器となるようにし、
    前記学習装置は、整数であるkを2からnまで増加させて行き、(i)前記原本学習データと前記マーク学習データとを第k-1学習済みデータエンベディングネットワークに入力して、前記第k-1学習済みデータエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成させて第kマーキング済み学習データを生成させ、(ii)前記第kマーキング済み学習データを第kラーニングネットワークに入力して、前記第kラーニングネットワークをもって前記第kラーニングネットワークの少なくとも一つの第k学習済みパラメータを利用して、前記第kマーキング済み学習データに対してネットワーク演算を適用させて前記第kマーキング済み学習データに対応する第1_k特性情報を出力させ、前記原本学習データを前記第kラーニングネットワークに入力して、前記第kラーニングネットワークをもって前記第k学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて前記原本学習データに対応する第2_k特性情報を出力させ、(iii)(iii-1)前記第1_k特性情報と前記第2_k特性情報とを参照して取得された少なくとも1つの第1_kデータエラー、及び(iii-2)前記第1_k特性情報を利用して生成された少なくとも1つの第kタスク特化出力とこれに対応する少なくとも一つの第k原本正解とを参照して取得された少なくとも一つの第2_kエラーのうち少なくとも一部を参照して算出された少なくとも一つの第kデータエラーを最小化し、第k-1学習済み判別器に入力された前記第kマーキング済み学習データに対応する少なくとも一つの第kマーキング済みデータスコアを最大化するように、第k-1学習済みデータエンベディングネットワークを学習して前記第k-1学習済みデータエンベディングネットワークが第k学習済みデータエンベディングネットワークとなるようにし、(iv)前記第k-1学習済み判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する少なくとも一つの第k変換データスコア又は少なくとも一つの第k変換マーキング済みデータスコアを最大化し、前記第kマーキング済みデータスコアを最小化するように、前記第k-1学習済み判別器を学習して前記第kー1学習済み判別器が第k学習済み判別器となるようにする請求項1に記載の方法。
  4. 前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する前記変換データスコア又は前記変換マーキング済みデータスコアの最大値は、前記変換学習データ又は前記変換マーキング済み学習データが本物であるものと判別する1であり、前記判別器に入力された前記マーキング済み学習データに対応する前記マーキング済みデータスコアの最小値は、前記マーキング済み学習データが偽物であるものと判別する0である請求項1に記載の方法。
  5. 前記(c)段階で、
    前記学習装置は、前記第1特性情報と前記第2特性情報との間の差異を参照して前記第1エラーを取得し、前記タスク特化出力と前記原本正解とを利用して生成された少なくとも1つのロスを参照して前記第2エラーを取得する請求項1に記載の方法。
  6. 前記学習装置は、前記第1特性情報と前記第2特性情報との間のノルム(Norm)又はコサイン類似度(Cosine Similarity)を参照して前記第1エラーを取得する請求項5に記載の方法。
  7. 前記(c)段階で、
    前記学習装置は、前記原本学習データと前記マーキング済み学習データとの間の類似度をさらに参照して前記類似度を最小化するように前記データエンベディングネットワークを学習する請求項1に記載の方法。
  8. 原本データとマークデータとを合成してマーキング済みデータを生成するように学習済みデータエンベディングネットワークをテストする方法において、
    (a)学習装置が、(i)原本学習データとマーク学習データとが取得されると、前記原本学習データと前記マーク学習データとをデータエンベディングネットワークに入力して、前記データエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成してマーキング済み学習データを生成させるプロセス、(ii)前記マーキング済み学習データを学習済みパラメータを有するラーニングネットワークに入力して、前記ラーニングネットワークをもって前記学習済みパラメータを利用して、前記マーキング済み学習データに対してネットワーク演算を適用させて前記マーキング済み学習データに対応する第1特性情報を生成させ、前記原本学習データを前記ラーニングネットワークに入力して、前記ラーニングネットワークをもって前記学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて前記原本学習データに対応する第2特性情報を生成させるプロセス、(iii)(iii-1)(iii-1a)前記第1特性情報と前記第2特性情報とを参照して取得された少なくとも1つの第1エラー、及び(iii-1b)前記第1特性情報を利用して生成された少なくとも1つのタスク特化出力とこれに対応する少なくとも1つの原本正解(Ground Truth)とを参照して取得された少なくとも一つの第2エラーのうち少なくとも一部を参照して生成された少なくとも一つのデータエラーを最小化し、(iii-2)入力されるデータが本物であるか偽物であるかを判別する判別器に入力された前記マーキング済み学習データに対応する少なくとも一つのマーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習するプロセス、及び(iv)前記判別器に入力された変換学習データ又は変換マーキング済み学習データにそれぞれ対応する少なくとも一つの変換データスコア又は少なくとも一つの変換マーキング済みデータスコアを最大化し、前記マーキング済みデータスコアを最小化するように、前記判別器を学習し、前記変換学習データ又は前記変換マーキング済み学習データは、前記原本学習データ又は前記マーキング済み学習データを変換したデータであるプロセスを遂行した状態で、テスト装置が、合成しようとする原本テストデータとマークテストデータとを取得する段階と、
    (b)前記テスト装置が、前記原本テストデータと前記マークテストデータとを前記データエンベディングネットワークに入力して、前記データエンベディングネットワークをもって前記データエンベディングネットワークの少なくとも一つの学習済みパラメータを利用して前記原本テストデータと前記マークテストデータとを合成してマーキング済みテストデータを出力させる段階と、
    を含む方法。
  9. 前記(a)段階で、
    前記ラーニングネットワークは、少なくとも一つの第1学習済みパラメータ乃至少なくとも一つの第n学習済みパラメータを有する第1ラーニングネットワーク乃至第nラーニングネットワークを含み、前記nは1以上の整数であると、
    前記学習装置が、(i)前記マーキング済み学習データを前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれに入力して、それぞれの前記第1ラーニングネットワーク乃至前記第nラーニングネットワークをもって(i-1)前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれの少なくとも1つの前記第1学習済みパラメータ乃至少なくとも1つの前記第n学習済みパラメータを利用して、前記マーキング済み学習データに対してそれぞれのネットワークに対応するネットワーク演算を適用させて(i-2)前記マーキング済み学習データに対応するそれぞれの第1_1特性情報乃至第1_n特性情報を出力させるプロセス、(ii)前記原本学習データを前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれに入力して、それぞれの前記第1ラーニングネットワーク乃至前記第nラーニングネットワークをもって(ii-1)前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれの前記第1学習済みパラメータ乃至前記第n学習済みパラメータを利用して、前記原本学習データに対してそれぞれのネットワークに対応するネットワーク演算を適用させて(ii-2)前記原本学習データに対するそれぞれの第2_1特性情報乃至第2_n特性情報を出力させるプロセス、(iii)(iii-1)(iii-1a)前記第1_1特性情報と前記第2_1特性情報とを参照して取得された少なくとも一つの第1_1エラー、乃至前記第1_n特性情報と前記第2_n特性情報とを参照して取得された少なくとも一つの第1_nエラー、の平均である前記第1エラー、及び(iii-1b)前記第1_1特性情報を利用して生成された少なくとも一つの第1タスク特化出力とこれに対応する少なくとも一つの第1原本正解とを参照して取得された第2_1エラー、乃至前記第1_n特性情報を利用して生成された少なくとも一つの第nタスク特化出力とこれに対応する少なくとも一つの第n原本正解とを参照して取得された第2_nエラー、の平均である前記第2エラーのうち少なくとも一部を参照して算出された前記データエラーを最小化し、(iii-2)前記判別器に入力された前記マーキング済み学習データに対応する前記マーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習するプロセス、及び(iv)前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する前記変換データスコア又は前記変換マーキング済みデータスコアを最大化し、前記マーキング済みデータスコアを最小化するように、前記判別器を学習するプロセスを遂行した状態である請求項8に記載の方法。
  10. 前記(a)段階で、
    前記ラーニングネットワークは、少なくとも一つの第1学習済みパラメータ乃至少なくとも一つの第n学習済みパラメータを有する第1ラーニングネットワーク乃至第nラーニングネットワークを含み、前記nは1以上の整数であると、
    前記学習装置が、(i)前記原本学習データと前記マーク学習データとを前記データエンベディングネットワークに入力して、前記データエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成して第1マーキング済み学習データを生成させるプロセス、(ii)前記第1マーキング済み学習データを前記第1ラーニングネットワークに入力して、前記第1ラーニングネットワークをもって前記第1ラーニングネットワークの前記第1学習済みパラメータを利用して、前記第1マーキング済み学習データに対してネットワーク演算を適用させて前記第1マーキング済み学習データに対応する前記第1_1特性情報を出力させ、前記原本学習データを前記第1ラーニングネットワークに入力して、前記第1ラーニングネットワークをもって前記第1ラーニングネットワークの前記第1学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて前記原本学習データに対応する第2_1特性情報を出力させるプロセス、(iii)(iii-1)前記第1_1特性情報と前記第2_1特性情報とを参照して取得された前記第1_1エラー、及び(iii-2)前記第1_1特性情報を利用して生成された第1タスク特化出力とこれに対応する第1原本正解とを参照して取得された前記第2_1エラーのうち少なくとも一部を参照して算出された第1データエラーを最小化し、前記判別器に入力された前記第1マーキング済み学習データに対応する前記第1マーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習して前記データエンベディングネットワークが第1学習済みデータエンベディングネットワークとなるようにするプロセス、(iv)前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する少なくとも1つの第1変換データスコア又は少なくとも1つの第1変換マーキング済みデータスコアを最大化し、前記第1マーキング済みデータスコアを最小化するように、前記判別器を学習して前記判別器が第1学習済み判別器となるようにするプロセス、及び(v)整数であるkを2からnまで増加させて行き、(v-1)前記原本学習データと前記マーク学習データとを前記第k-1学習済みデータエンベディングネットワークに入力して、前記第k-1学習済みデータエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成して第kマーキング済み学習データを生成させ、(v-2)前記第kマーキング済み学習データを第kラーニングネットワークに入力して、前記第kラーニングネットワークをもって前記第kラーニングネットワークの少なくとも一つの第k学習済みパラメータを利用して、前記第kマーキング済み学習データに対してネットワーク演算を適用させて前記第kマーキング済み学習データに対応する第1_k特性情報を出力させ、前記原本学習データを前記第kラーニングネットワークに入力して、前記第kラーニングネットワークをもって前記第k学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて前記原本学習データに対応する第2_k特性情報を出力させ、(v-3)(v-3-1)前記第1_k特性情報と前記第2_k特性情報とを参照して取得された少なくとも1つの第1_kエラー、及び(v-3-2)前記第1_k特性情報を利用して生成された少なくとも1つの第kタスク特化出力とこれに対応する少なくとも一つの第k原本正解とを参照して取得された少なくとも一つの第2_kエラーのうち少なくとも一部を参照して算出された少なくとも一つの第kデータエラーを最小化し、第k-1学習済み判別器に入力された前記第kマーキング済み学習データに対応する少なくとも一つの第kマーキング済みデータスコアを最大化するように、第k-1学習済みデータエンベディングネットワークを学習して前記第k-1学習済みデータエンベディングネットワークが第k学習済みデータエンベディングネットワークとなるようにし、(v-4)前記第k-1学習済み判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する少なくとも一つの第k変換データスコア又は少なくとも一つの第k変換マーキング済みデータスコアを最大化し、前記第kマーキング済みデータスコアを最小化するように、前記第k-1学習済み判別器を学習して前記第k-1学習済み判別器が第k学習済み判別器となるようにするプロセスを遂行した状態である請求項8に記載の方法。
  11. 前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する前記変換データスコア又は前記変換マーキング済みデータスコアの最大値は、前記変換学習データ又は前記変換マーキング済み学習データが本物であるものと判別する1であり、前記判別器に入力された前記マーキング済み学習データに対応する前記マーキング済みデータスコアの最小値は、前記マーキング済み学習データが偽物であるものと判別する0である請求項8に記載の方法。
  12. 前記学習装置は、前記第1特性情報と前記第2特性情報との間の差異を参照して前記第1エラーを取得し、前記タスク特化出力と前記原本正解とを利用して生成された少なくとも1つのロスを参照して前記第2エラーを取得する請求項8に記載の方法。
  13. 前記学習装置は、前記第1特性情報と前記第2特性情報との間のノルム(Norm)又はコサイン類似度(Cosine Similarity)を参照して前記第1エラーを取得する請求項12に記載の方法。
  14. 前記学習装置は、前記原本学習データと前記マーキング済み学習データとの間の類似度をさらに参照して前記類似度を最小化するように前記データエンベディングネットワークを学習する請求項8に記載の方法。
  15. 原本データとマークデータ(Mark Data)とを合成してマーキング済みデータ(Marked Data)を生成するデータエンベディングネットワーク(Data Embedding Network)を学習する学習装置において、
    インストラクションを格納する少なくとも1つのメモリと、
    (I)原本学習データとマーク学習データとが取得されると、前記原本学習データと前記マーク学習データとをデータエンベディングネットワークに入力して、前記データエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成させてマーキング済み学習データを生成させるプロセス、(II)(i)前記マーキング済み学習データを少なくとも一つの学習済みパラメータを有するラーニングネットワークに入力して、前記ラーニングネットワークをもって(i-1)前記学習済みパラメータを利用して、前記マーキング済み学習データに対してネットワーク演算を適用させて(i-2)前記マーキング済み学習データに対応する第1特性情報(Characteristic Information)を生成させ、(ii)前記原本学習データを前記ラーニングネットワークに入力して、前記ラーニングネットワークをもって(ii-1)前記学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて(ii-2)前記原本学習データに対応する第2特性情報を生成させるプロセス、及び(III)(III-1)(i)(i-1)前記第1特性情報と前記第2特性情報とを参照して取得された少なくとも1つの第1エラー、及び(i-2)前記第1特性情報を利用して生成された少なくとも1つのタスク特化出力(Task Specific Output)とこれに対応する少なくとも一つの原本正解(Ground Truth)とを参照して取得された少なくとも一つの第2エラーのうち少なくとも一部を参照して算出された少なくとも一つのデータエラーを最小化し、(ii)入力されるデータが本物であるか偽物であるかを判別する判別器(Discriminator)に入力された前記マーキング済み学習データに対応する少なくとも一つのマーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習し、(III-2)前記判別器に入力された変換学習データ又は変換マーキング済み学習データにそれぞれ対応する少なくとも一つの変換データスコア又は少なくとも一つの変換マーキング済みデータスコアを最大化し、前記マーキング済みデータスコアを最小化するように、前記判別器を学習し、前記変換学習データ又は前記変換マーキング済み学習データは、それぞれ前記原本学習データ又は前記マーキング済み学習データを変換して生成されるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも1つのプロセッサと、
    を含む学習装置。
  16. 前記ラーニングネットワークは、少なくとも1つの第1学習済みパラメータ乃至少なくとも1つの第n学習済みパラメータをそれぞれ有する第1ラーニングネットワーク乃至第nラーニングネットワークを含み、前記nは1以上の整数であると、
    前記(II)プロセスで、
    前記プロセッサは、(i)前記マーキング済み学習データを前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれに入力して、それぞれの前記第1ラーニングネットワーク乃至前記第nラーニングネットワークをもって(i-1)前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれの前記第1学習済みパラメータ乃至前記第n学習済みパラメータを利用して、前記マーキング済み学習データに対してそれぞれのネットワークに対応するネットワーク演算を適用させて(i-2)前記マーキング済み学習データに対するそれぞれの第1_1特性情報乃至第1_n特性情報を出力させ、(ii)前記原本学習データを前記第1ラーニングネットワーク乃至前記第nラーニングネットワークそれぞれに入力して、それぞれの前記第1ラーニングネットワーク乃至前記第nラーニングネットワークをもって(ii-1)それぞれの前記第1学習済みパラメータ乃至前記第n学習済みパラメータを利用して、前記原本学習データに対してそれぞれのネットワークに対応するネットワーク演算を適用させて(ii-2)前記原本学習データに対するそれぞれの第2_1特性情報乃至第2_n特性情報を出力させ、
    前記(III)プロセスで、
    前記プロセッサは、(i)(i-1)前記第1_1特性情報と前記第2_1特性情報とを参照して取得された第1_1エラー、乃至前記第1_n特性情報と前記第2_n特性情報とを参照して取得された第1_nエラー、の平均である前記第1エラー、及び(i-2)前記第1_1特性情報を利用して生成された少なくとも1つの第1タスク特化出力とこれに対応する少なくとも1つの第1原本正解とを参照して取得された第2_1エラー、乃至前記第1_n特性情報を利用して生成された少なくとも一つの第nタスク特化出力とこれに対応する少なくとも一つの第n原本正解とを参照して取得された第2_nエラー、の平均である前記第2エラーのうち少なくとも一部を参照して算出された前記データエラーを最小化し、前記判別器に入力された前記マーキング済み学習データに対応する前記マーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習し、(ii)前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する前記変換データスコア又は前記変換マーキング済みデータスコアを最大化し、前記マーキング済みデータスコアを最小化するように、前記判別器を学習する請求項15に記載の学習装置。
  17. 前記ラーニングネットワークは、少なくとも一つの第1学習済みパラメータ乃至少なくとも一つの第n学習済みパラメータを有する第1ラーニングネットワーク乃至第nラーニングネットワークを含み、前記nは1以上の整数であると、
    前記(I)プロセスで、
    前記プロセッサは、前記原本学習データと前記マーク学習データとを前記データエンベディングネットワークに入力して、前記データエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成させて第1マーキング済み学習データを生成させ、
    前記(II)プロセスで、
    前記プロセッサは、(i)前記第1マーキング済み学習データを前記第1ラーニングネットワークに入力して、前記第1ラーニングネットワークをもって(i-1)前記第1ラーニングネットワークの前記第1学習済みパラメータを利用して、前記第1マーキング済み学習データに対してネットワーク演算を適用させて(i-2)前記第1マーキング済み学習データに対する第1_1特性情報を出力させ、(ii)前記原本学習データを前記第1ラーニングネットワークに入力して、前記第1ラーニングネットワークをもって(ii-1)前記第1学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて(ii-2)前記原本学習データに対する第2_1特性情報を出力させ、
    前記(III)プロセスで、
    前記プロセッサは、(III-1)(i)(i-1)前記第1_1特性情報と前記第2_1特性情報とを参照して取得された少なくとも一つの第1_1エラー、及び(i-2)前記第1_1特性情報を利用して生成された少なくとも一つの第1タスク特化出力とこれに対応する少なくとも一つの第1原本正解とを参照して取得された少なくとも一つの第2_1エラーのうち少なくとも一部を参照して算出された少なくとも一つの第1データエラーを最小化し、(ii)前記判別器に入力された前記第1マーキング済み学習データに対応する少なくとも一つの第1マーキング済みデータスコアを最大化するように、前記データエンベディングネットワークを学習して前記データエンベディングネットワークが第1学習済みデータエンベディングネットワークとなるようにし、(III-2)(i)前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する少なくとも一つの第1変換データスコア又は少なくとも一つの第1変換マーキング済みデータスコアを最大化し、(ii)前記第1マーキング済みデータスコアを最小化するように、前記判別器を学習して前記判別器が第1学習済み判別器となるようにし、
    前記プロセッサは、整数であるkを2からnまで増加させて行き、(i)前記原本学習データと前記マーク学習データとを前記第k-1学習済みデータエンベディングネットワークに入力して、前記第k-1学習済みデータエンベディングネットワークをもって前記原本学習データと前記マーク学習データとを合成させて第kマーキング済み学習データを生成させ、(ii)前記第kマーキング済み学習データを第kラーニングネットワークに入力して、前記第kラーニングネットワークをもって前記第kラーニングネットワークの少なくとも一つの第k学習済みパラメータを利用して、前記第kマーキング済み学習データに対してネットワーク演算を適用させて前記第kマーキング済み学習データに対応する第1_k特性情報を出力させ、前記原本学習データを前記第kラーニングネットワークに入力して、前記第kラーニングネットワークをもって前記第k学習済みパラメータを利用して、前記原本学習データに対してネットワーク演算を適用させて前記原本学習データに対応する第2_k特性情報を出力させ、(iii)(iii-1)前記第1_k特性情報と前記第2_k特性情報とを参照して取得された少なくとも1つの第1_kデータエラー、及び(iii-2)前記第1_k特性情報を利用して生成された少なくとも1つの第kタスク特化出力とこれに対応する少なくとも一つの第k原本正解とを参照して取得された少なくとも一つの第2_kエラーのうち少なくとも一部を参照して算出された少なくとも一つの第kデータエラーを最小化し、第k-1学習済み判別器に入力された前記第kマーキング済み学習データに対応する少なくとも一つの第kマーキング済みデータスコアを最大化するように、第k-1学習済みデータエンベディングネットワークを学習して前記第k-1学習済みデータエンベディングネットワークが第k学習済みデータエンベディングネットワークとなるようにし、(iv)前記第k-1学習済み判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する少なくとも1つの第k変換データスコア又は少なくとも一つの第k変換マーキング済みデータスコアを最大化し、前記第kマーキング済みデータスコアを最小化するように、前記第k-1学習済み判別器を学習して前記第k-1学習済み判別器が第k学習済み判別器となるようにする請求項15に記載の学習装置。
  18. 前記判別器に入力された前記変換学習データ又は前記変換マーキング済み学習データにそれぞれ対応する前記変換データスコア又は前記変換マーキング済みデータスコアの最大値は、前記変換学習データ又は前記変換マーキング済み学習データが本物であるものと判別する1であり、前記判別器に入力された前記マーキング済み学習データに対応する前記マーキング済みデータスコアの最小値は、前記マーキング済み学習データが偽物であるものと判別する0である請求項15に記載の学習装置。
  19. 前記(III)プロセスで、
    前記プロセッサは、前記第1特性情報と前記第2特性情報との間の差異を参照して前記第1エラーを取得し、前記タスク特化出力と前記原本正解とを利用して生成された少なくとも1つのロスを参照して前記第2エラーを取得する請求項15に記載の学習装置。
  20. 前記プロセッサは、前記第1特性情報と前記第2特性情報との間のノルム(Norm)又はコサイン類似度(Cosine Similarity)を参照して前記第1エラーを取得する請求項19に記載の学習装置。
  21. 前記(III)プロセスで、
    前記プロセッサは、前記原本学習データと前記マーキング済み学習データとの間の類似度をさらに参照して前記類似度を最小化するように前記データエンベディングネットワークを学習する請求項15に記載の学習装置。
JP2020564099A 2018-08-10 2019-07-19 原本データとマークデータとを合成してマーキング済みデータを生成するデータエンベディングネットワークを学習する方法、及びテストする方法、並びに、それを利用した学習装置 Active JP7140317B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2018-0093747 2018-08-10
KR1020180093747A KR102107021B1 (ko) 2018-08-10 2018-08-10 데이터를 식별 처리하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
PCT/KR2019/008944 WO2020032420A1 (en) 2018-08-10 2019-07-19 Method for training and testing data embedding network to generate marked data by integrating original data with mark data, and training device and testing device using the same

Publications (2)

Publication Number Publication Date
JP2021521566A JP2021521566A (ja) 2021-08-26
JP7140317B2 true JP7140317B2 (ja) 2022-09-21

Family

ID=69406172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020564099A Active JP7140317B2 (ja) 2018-08-10 2019-07-19 原本データとマークデータとを合成してマーキング済みデータを生成するデータエンベディングネットワークを学習する方法、及びテストする方法、並びに、それを利用した学習装置

Country Status (5)

Country Link
US (1) US10789551B2 (ja)
EP (1) EP3834107A4 (ja)
JP (1) JP7140317B2 (ja)
KR (1) KR102107021B1 (ja)
WO (2) WO2020032348A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210216874A1 (en) * 2020-01-10 2021-07-15 Facebook Technologies, Llc Radioactive data generation
US11017320B1 (en) * 2020-06-24 2021-05-25 Deeping Source Inc. Method for training obfuscation network which conceals original data to be used for machine learning and training surrogate network which uses obfuscated data generated by obfuscation network and learning device using the same and method for testing trained obfuscation network and testing device using the same
US11366930B1 (en) * 2021-08-23 2022-06-21 Deeping Source Inc. Method for training and testing obfuscation network capable of obfuscating data to protect personal information, and learning device and testing device using the same
US11308359B1 (en) * 2021-10-27 2022-04-19 Deeping Source Inc. Methods for training universal discriminator capable of determining degrees of de-identification for images and obfuscation network capable of obfuscating images and training devices using the same
US11886955B2 (en) 2022-02-16 2024-01-30 Protopia AI, Inc. Self-supervised data obfuscation in foundation models

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020099730A1 (en) * 2000-05-12 2002-07-25 Applied Psychology Research Limited Automatic text classification system
US7095872B2 (en) * 2001-08-28 2006-08-22 University Of North Carolina At Charlotte Automated digital watermarking methods using neural networks
JP4591211B2 (ja) * 2005-05-31 2010-12-01 富士ゼロックス株式会社 画像処理装置、画像処理方法、媒体、符号読取装置、及びプログラム
KR100950965B1 (ko) * 2008-04-16 2010-04-02 동국대학교 산학협력단 배경 영상의 자동 교체 시스템 및 그 방법
CN101661610A (zh) * 2009-09-17 2010-03-03 上海交通大学 具有主被动鉴别功能的数字图像防伪检测系统
KR20140147461A (ko) * 2013-06-20 2014-12-30 삼성전자주식회사 고유의 컨텐츠를 삽입하는 전자 장치 및 방법
US9594983B2 (en) * 2013-08-02 2017-03-14 Digimarc Corporation Learning systems and methods
US9454713B2 (en) * 2014-12-30 2016-09-27 Ebay Inc. Similar item detection
KR101871065B1 (ko) * 2016-01-27 2018-07-19 한국과학기술원 분할 기법을 이용한 3차원 메쉬 모델 워터마킹 방법 및 장치
KR101837939B1 (ko) 2016-10-18 2018-03-13 주식회사 한글과컴퓨터 문서에 워터마크를 삽입하는 방법 및 그 장치와 워터마크가 삽입된 문서
KR20180058116A (ko) 2016-11-23 2018-05-31 부산대학교 산학협력단 가정용 에너지 관리 시스템에서의 수용가의 가전기기 자동 설정 방법
JP6567488B2 (ja) 2016-12-22 2019-08-28 日本電信電話株式会社 学習データ生成装置、開発データ生成装置、モデル学習装置、それらの方法、及びプログラム
JP6727340B2 (ja) * 2017-01-12 2020-07-22 Kddi株式会社 情報処理装置、方法及びコンピュータ可読記憶媒体
KR101861520B1 (ko) 2017-03-15 2018-05-28 광주과학기술원 얼굴 비식별화 방법
KR20180130925A (ko) * 2017-05-30 2018-12-10 국방과학연구소 머신 러닝을 위한 학습 이미지를 자동 생성하는 인공 지능 장치 및 그의 제어 방법
US20190286938A1 (en) * 2018-03-13 2019-09-19 Recogni Inc. Real-to-synthetic image domain transfer

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Jiren Zhu, et al.,"HiDDeN: Hiding Data With Deep Networks",arXiv:1807.09937v1,version v1,[online], arXiv (Cornell University),2018年07月26日,Pages 1-22,[令和4年1月11日検索], インターネット, <URL: https://arxiv.org/abs/1807.09937v1>.

Also Published As

Publication number Publication date
WO2020032420A1 (en) 2020-02-13
US10789551B2 (en) 2020-09-29
JP2021521566A (ja) 2021-08-26
KR102107021B1 (ko) 2020-05-07
US20200050962A1 (en) 2020-02-13
CN112313645A (zh) 2021-02-02
KR20200018031A (ko) 2020-02-19
EP3834107A1 (en) 2021-06-16
WO2020032348A1 (ko) 2020-02-13
EP3834107A4 (en) 2022-05-04

Similar Documents

Publication Publication Date Title
JP7140317B2 (ja) 原本データとマークデータとを合成してマーキング済みデータを生成するデータエンベディングネットワークを学習する方法、及びテストする方法、並びに、それを利用した学習装置
JP7040712B2 (ja) 個人情報保護のために原本データをコンシーリング処理する変調ネットワークを学習する方法及びテストする方法、そして、これを利用した学習装置及びテスト装置
JP7297226B2 (ja) 個人情報を保護するために原本データをコンシーリング処理して生成された変造データを認識するために使われる使用者ラーニングネットワークを学習する方法及びテストする方法、そしてこれを利用した学習装置及びテスト装置
JP7362165B2 (ja) プライバシーのためにデータをコンシーリング処理することができる変造ネットワークに対応される適応ネットワークを学習する方法及びテストする方法、そしてこれを利用した学習装置及びテスト装置{method for training and testing adaption network corresponding to obfuscation network capable of processing data to be concealed for privacy、and training device and testing device using the same}
Kanwal et al. Detection of digital image forgery using fast fourier transform and local features
Singh et al. Steganalysis of digital images using deep fractal network
Deeba et al. Digital watermarking using deep neural network
Bhagtani et al. An overview of recent work in media forensics: Methods and threats
KR20220052838A (ko) 개인 정보 보호를 위하여 원본 데이터를 변조하는 변조 네트워크를 학습하는 방법 및 테스팅하는 방법, 그리고, 이를 이용한 학습 장치 및 테스팅 장치
WO2023093346A1 (zh) 基于外源特征进行模型所有权验证的方法和装置
CN113435264A (zh) 基于寻找黑盒替代模型的人脸识别对抗攻击方法及装置
Ahmad et al. A novel image tamper detection approach by blending forensic tools and optimized CNN: Sealion customized firefly algorithm
Biswas et al. Deepfake detection using 3d-xception net with discrete fourier transformation
Qin et al. CADW: CGAN-based attack on deep robust image watermarking
KR102247769B1 (ko) 원본 데이터와 마크 데이터를 합성하여 마킹된 데이터를 생성하는 데이터 임베딩 네트워크를 학습하는 방법 및 테스트하는 방법, 그리고 이를 이용한 학습 장치 및 테스트 장치
CN112313645B (zh) 数据嵌入网络的学习方法和装置及其测试方法和装置
Usmani et al. Efficient deepfake detection using shallow vision transformer
Jabbar et al. Digital watermarking by utilizing the properties of self-organization map based on least significant bit and most significant bit
Akram et al. Enhanced Steganalysis for Color Images Using Curvelet Features and Support VectorMachine.
Sharma et al. Towards secured image steganography based on content-adaptive adversarial perturbation
Rao et al. ResTran: Long distance relationship on image forgery detection
Rehman et al. Investigation and Morphing Attack Detection Techniques in Multimedia: A Detail Review
El-Emary et al. On the application of genetic algorithms in finger prints registration
CN116244458B (zh) 生成器训练、样本对生成、检索模型训练及商标检索方法
Gahlot DETECTION OF ATTRIBUTES MANIPULATION IN DEEP FAKE IMAGES USING HYBRIDLEARNING TECHNIQUE TO CLASSIFY INDIGENOUS AND FORGED IMAGES

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220823

R150 Certificate of patent or registration of utility model

Ref document number: 7140317

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150