JP2022505783A - 敵対的学習を経たプライバシー保護の視覚的認識 - Google Patents
敵対的学習を経たプライバシー保護の視覚的認識 Download PDFInfo
- Publication number
- JP2022505783A JP2022505783A JP2021522444A JP2021522444A JP2022505783A JP 2022505783 A JP2022505783 A JP 2022505783A JP 2021522444 A JP2021522444 A JP 2021522444A JP 2021522444 A JP2021522444 A JP 2021522444A JP 2022505783 A JP2022505783 A JP 2022505783A
- Authority
- JP
- Japan
- Prior art keywords
- reconstruction
- loss
- data
- useful
- decoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Bioethics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
ディープネットワークの潜在的な表現からデータ再構成を防止することによって視覚的なプライベートデータを保護する方法が提供される。その方法は、入力画像(312)から潜在的な特徴(316)を取得することと、敵対的再構成の学習枠組み(318)を経て、有用な性能を維持しデータ再構成を防止するためプライバシー保護特徴表現を学習することと、を含み、データ再構成は、潜在的な特徴から入力画像を再構成するため、復号器(332)をトレーニングすることによってブラックボックスモデル反転攻撃をシミュレートすることと、タスク損失を最小化しつつ、復号器が潜在的な特徴を反転するのを防止するため、再構成の誤差を最大化するよう符号器(314)をトレーニングすることと、によって防止される。
【選択図】図1
【選択図】図1
Description
(関連出願情報)
本出願は、2018年11月7日に出願された仮出願第62/756,765号、および2019年7月26日に出願された仮出願第62/878,786号の優先権を主張する2019年11月5日に出願された米国特許出願第16/674,425の優先権を主張するものであり、その全体が参照により本明細書に組み込まれる。
本出願は、2018年11月7日に出願された仮出願第62/756,765号、および2019年7月26日に出願された仮出願第62/878,786号の優先権を主張する2019年11月5日に出願された米国特許出願第16/674,425の優先権を主張するものであり、その全体が参照により本明細書に組み込まれる。
(技術分野)
本発明は、視覚的認識システムに関し、より具体的には、敵対的学習を経たプライバシー保護の視覚的認識に関する。
本発明は、視覚的認識システムに関し、より具体的には、敵対的学習を経たプライバシー保護の視覚的認識に関する。
(関連技術の説明)
ディープニューラルネットワークおよび大規模なデータを使用する機械学習(ML)アルゴリズムは、自然言語、音声、およびコンピュータ・ビジョンにわたる多くの分野で印象的な性能を示しているので、マシン・ラーニング・アズ・ア・サービスクラウドサービスへの関心が高まっている。これらのシステムは、サービス・プロバイダとそれらの顧客との間で頻繁なデータ伝送を要求し、MLモデルまたはユーザがそれらのデータを評価するようにトレーニングする。例えば、顔認識システムを開発したい顧客は、関心のある人々を含む画像のセットをクラウドサービスプロバイダ(CSPs)と共有することができる。顔の表情に基づく推薦システムは、ユーザに写真をアップロードするように求めることができる。しかしながら、これらの処理は、プライバシーリスクにさらされるおそれがある。顧客から共有される機密情報を含むデータは、例えば、CSPsによって誤用されるか、または敵対者によって取得されるおそれがある。
ディープニューラルネットワークおよび大規模なデータを使用する機械学習(ML)アルゴリズムは、自然言語、音声、およびコンピュータ・ビジョンにわたる多くの分野で印象的な性能を示しているので、マシン・ラーニング・アズ・ア・サービスクラウドサービスへの関心が高まっている。これらのシステムは、サービス・プロバイダとそれらの顧客との間で頻繁なデータ伝送を要求し、MLモデルまたはユーザがそれらのデータを評価するようにトレーニングする。例えば、顔認識システムを開発したい顧客は、関心のある人々を含む画像のセットをクラウドサービスプロバイダ(CSPs)と共有することができる。顔の表情に基づく推薦システムは、ユーザに写真をアップロードするように求めることができる。しかしながら、これらの処理は、プライバシーリスクにさらされるおそれがある。顧客から共有される機密情報を含むデータは、例えば、CSPsによって誤用されるか、または敵対者によって取得されるおそれがある。
ディープネットワークの潜在的な表現からデータ再構成を防止することによって視覚的なプライベートデータを保護するための方法が提供される。前記方法は、入力画像から潜在的な特徴を取得することと、敵対的再構成の学習枠組みを経て、有用な性能を維持し前記データ再構成を防止するためプライバシー保護特徴表現を学習することと、を含み、前記データ再構成は、前記潜在的な特徴から前記入力画像を再構成するため、復号器をトレーニングすることを経てブラックボックスモデル反転攻撃をシミュレートすることと、前記タスク損失を最小化しつつ、前記復号器が前記潜在的な特徴を反転するのを防止するため、再構成の誤差を最大化するよう符号器をトレーニングすることと、によって防止される、前記有用な性能を維持し前記データ再構成を防止する。
ディープネットワークの潜在的な表現からデータ再構成を防止することによって視覚的なプライベートデータを保護するためのコンピュータ読み取り可能なプログラムを含む非一時的なコンピュータ読み取り可能な記憶媒体が提供され、前記コンピュータ読み取り可能なプログラムは、コンピュータで実行されるとき、入力画像から潜在的な特徴を取得するステップと、敵対的再構成の学習枠組みを経て、有用な性能を維持し前記データ再構成を防止するためプライバシー保護特徴表現を学習するステップと、を前記コンピュータに実行させ、前記データ再構成は、前記潜在的な特徴から前記入力画像を再構成するため、復号器をトレーニングすることによってブラックボックスモデル反転攻撃をシミュレートすることと、前記タスク損失を最小化しつつ、前記復号器が前記潜在的な特徴を反転するのを防止するため、再構成の誤差を最大化するよう符号器をトレーニングすることと、によって防止される。
ディープネットワークの潜在的な表現からデータ再構成を防止することによって視覚的なプライベートデータを保護するためのシステムが提供される。前記システムは、メモリと、入力画像から潜在的な特徴を取得し、敵対的再構成の学習枠組みを経て、有用な性能を維持し前記データ再構成を防止するためプライバシー保護特徴表現を学習するよう構成された前記メモリと通信する1つ以上のプロセッサとを含み、前記データ再構成は、前記潜在的な特徴から前記入力画像を再構成するため、復号器をトレーニングすることによってブラックボックスモデル反転攻撃をシミュレートすることと、前記タスク損失を最小化しつつ、前記復号器が前記潜在的な特徴を反転するのを防止するため、再構成の誤差を最大化するよう符号器をトレーニングすることと、によって防止される。
これらおよび他の特徴および利点は添付の図面に関連して読まれるべき、その例示的な実施形態の以下の詳細な説明から明らかになるであろう。
本開示は、以下の図面を参照して、好ましい実施形態の以下の説明において詳細を提供する。
本発明の例示的な実施形態は、プライバシー保護およびタスク指向のディープ表現をどのように学習するかを識別する。例示的な実施形態は、ブラックボックスモデル反転攻撃に対する防御に着目し、敵対者はプライベート顧客およびユーザデータの取得された特徴から入力を回復するため、自身のデータの無制限の推定を行うことを許可される。敵対者として、例示的な実施形態は、データ特徴の対を使用してデータを再構成するようにトレーニングされるニューラル復号器に基づくモデル反転(MI)攻撃を考慮する。知覚的および敵対的生成ネットワーク(GAN)損失は、生成品質を改善するために使用される。最後に、例示的な実施形態は、符号器および復号器の交互のトレーニングを伴う敵対的データ再構成学習を識別する。敵対者の攻撃をシミュレートする復号器は特徴から入力を再構成するようにトレーニングされるのに対し、符号器はタスク損失を最小限にしつつ、復号器が特徴を反転することを防止するため再構成の誤差を最大化するようにトレーニングされる。
例示的な実施形態は、広範囲にわたる実験結果に伴う顔属性分析という文脈において、MI攻撃に対するディープネットワークの脆弱性を識別する。例示的な実施形態は、敵対的に学習された特徴を反転させることは困難であることを図示し、したがって、提案された方法は、強い反転攻撃に対してうまく防御する。
したがって、例示的な実施形態は、ニューラル復号器に基づくいくつかの強力な攻撃方法と共に、ブラックボックスモデル反転攻撃に対して防御するため敵対的データ再構成学習を識別する。例示的な実施形態はさらに、標準的なディープ特徴の脆弱性、およびデータ再構成を防止する例示的な方法で学習された特徴の有効性を示す。例示的な実施形態はさらに、負の知覚的な類似性の損失のハイパーパラメータの異なる選択で有用なプライバシー交換を図示し、復号器トレーニングの特徴、タスク、およびデータの異なる層についてプライバシー保護への影響を図示する。
本発明の例示的な実施形態のプライバシー保護特徴学習方法を導入する前に、敵対者のプライバシー攻撃方法を詳細に提示する。
適切な防御メカニズムを設計するため、例示的な実施形態は、第一に、敵対者の攻撃方法を理解する必要がある。その結果、例示的な実施形態は、敵対者の目的が特徴を入力に戻して反転することであるモデル反転(MI)攻撃に着目する。例示的な実施形態はさらに、敵対者がモデルの推定(Enc)に無制限にアクセスするが、モデルパラメータにはアクセスしないブラックボックス攻撃を仮定する。敵対者は、入力
と特徴
の大規模な対のデータベースを作ることができるので、これは敵対者に対する十分な設定である。
そしてここで、
である。上記は、復号器(Enc)を介した誤差逆伝播法(バックプロバケーション)を伴わないことに注意すべきである。反転品質は、敵対的生成ネットワーク(GAN)損失である、
で改善され得る。
そしてここで、この方法は、gについてImageNet上で予めトレーニングされたVGGニューラルネットワークのconv1(畳み込み層1)からconv2(畳み込み層2)の層を使用する。
攻撃タイプを実現すると、例示的な実施形態は、直ちにプライバシー保護およびタスク指向表現のトレーニング目標を識別する準備ができる。
MI攻撃に対するプライバシー保護特徴を学習するため、Encは、如何なる復号器によっても入力Xに再構成することができないZを出力する必要がある。しかしながら、すべての可能な復号器を列挙することは実現可能ではない。
他方、Encは再構成の損失または知覚的な類似性損失を最大化することによって、Decを騙したり、欺いたりすることを目的とする。
図4および図5は以下でさらに詳細に説明され、例示的な実施形態の主要なモジュールを示す。例示的な実施形態は、提案された学習枠組みの代替の更新戦略を採用する。DecaとDは、(5)にしたがってパブリックデータ
上で最初に更新され、Encとfが固定され、Encとfが(9)によってプライベートデータ上で更新され、以下同様に収束まで更新される。
従来のシステムおよび方法とは対照的に、例示的な実施形態は高次元画像データまでスケールアップし、生画像の代替として画像表現を学習し、有用な性能をある程度維持し、学習された表現が、敵対的学習を経て不法に侵入されることから保護することができる。
図1に関して、従来のディープラーニングアルゴリズムの表現は、データプライバシーに関する問題を引き起こす敵対者のモデル反転攻撃に対して脆弱である。例示的な実施形態は負の再構成の損失を経てトレーニング段階で敵対者の行動をシミュレートすることによって、プライベート情報が入力空間に復号されることを防止しつつ、タスク指向の特徴を学習する。特に、敵対者130は、プライベート画像110を再構成しようと企てることができる。従来の学習方法120を使用することによって、敵対者は、許容可能な品質の画像140を再構成することができる。しかしながら、本発明の例示的なプライバシー保護方法125が使用される場合、敵対者130は画像145を再構成し、これは、敵対者130によって厳しく、または完全に遮られ、使用可能ではない。
したがって、本発明の例示的な実施形態は、潜在的な表現が元の入力データに復号されるのを防止する敵対的な再構成の学習枠組みを識別する。敵対者の予想される行動をシミュレートすることにより、例示的枠組みは負の画素再構成の損失または負の特徴再構成(例えば、知覚的な類似性)の損失を最小化することにより実現される。
図2に関して、敵対者130がプライベート情報110を不法に侵入するのを防止する1つの方法は、生画像の代わりに特徴表現としてデータを記憶することである。しかしながら、従来の方法120は、プライベート情報110を保護することなく特徴を学習する。かくして、敵対者130は潜在的に格納された特徴から画像を再構成することができ、プライベート情報を明らかにする。本発明の例示的な実施形態では、目的は特徴から視覚的に機密扱いの画像を再構成することを防止すること、したがって視覚的プライバシーを保護することである。実際のアプリケーションを考慮すると、一例は、顔属性認識216のため有用なモジュール214を通過するプライベートデータ212で有用なタスク210を実行することである。その一方で、本発明の例示的な実施形態は、有用なモジュール214と通信するプライバシーモジュール224を使用して、これらのプライベート顔画像222のプライバシー(プライバシー保護220)を保護し、第三者または敵対者130によって不法に侵入されることから同一性(顔同一性保護226)を保護する。
図3に関して、画像符号器310では、最初に、入力画像(I_入力)312が画像符号器314に供給され、潜在的な特徴(F_潜在性)316が取得され、この潜在的な特徴はさらなる処理のためクラウド上に送信され、記憶される。この潜在的な特徴に含まれるプライバシー情報を保護するため、例示的な実施形態は、F_潜在性316から再構成された出力画像I_出力332(ブロック330で導入される)が、元の画像(I_入力)312と同じであるべきではないことを考慮することによって、敵対的学習ステップ(敵対的な損失318)を採用する。
目標タスクの有用なネットワーク320に関して、潜在的特徴F_潜在性316が与えられると、例示的モデル(タスク分類器322)は、目標正解注釈(GT_タスク326)に関して損失関数(タスク損失324)を計算することによって目標タスクを実行することを目的とする。
画像復号器332に関して、潜在的な特徴F_潜在性316が与えられると、符号器(画像符号器314)の目的は、損失関数(再構成の損失336)を経て特徴から出力画像(I_出力334)を再構成することである。このステップは、不法侵入者または敵対者130が潜在的な特徴を取得し、潜在的な特徴を復号してプライバシー情報を含む元のRGB空間に戻ろうとするときの手順をシミュレートする。これを防ぐには、ブロック310の敵対的な損失318は、この手順を再構成解除するのに利用される。
図4および図5に関して、敵対的データ再構成を伴うプライバシー保護表現学習方法の概要が識別される。図4において、システム400は、公衆データX2上の潜在的符号化Z=Enc(X)から入力Xを再構成するようにトレーニングされた復号器332(Dec)を示す。そして、図5においてシステム500は、例示的な実施形態はプライベートデータX1上のEnc314を更新し、分類器fを経て有用な予測性能を達成しつつ、Dec332によって入力Xの再構成を防止するなど、Dec332を騙したり欺いたりする出力Zを生成する。
したがって、例示的な方法は、モデル反転攻撃に対する敵対者の予想される行動をシミュレートすることによって開発され、EncおよびDecネットワークを交互に更新することによって実現される。
要約すると、本発明の例示的な実施形態は、より少ないプライバシー情報を含む潜在的な特徴表現を学習する一方、これらの特徴は依然として目標タスクによって実行することができる。このようにして、各生データは1つの潜在的な特徴として符号化することができ、不法侵入者または敵対者からの攻撃を恐れることなく、処理のためクラウドに送信される。1つの課題はプライバシー情報を取得するため、潜在的特徴を解読して画像に戻ることを依然として試みることができることである。しかしながら、この問題を処理するため、本発明の例示的な実施形態は有用な性能を維持し、特徴が元の画像に復号されて戻るのを防止するという条件を満たすプライバシー保護特徴表現を学習するための敵対的学習枠組みを識別する。したがって、設計された枠組みは、画像を潜在的な表現に符号化することによってクラウド側のプライバシー保護を考慮に入れるだけでなく、潜在的な特徴が画像に戻るように再構成しようとする不法侵入者の視点も考慮する。
図6は、本発明の実施形態による、ディープネットワークの潜在的な表現からデータ再構成を防止することによって視覚的なプライベートデータを保護するための例示的な処理システムのブロック/フロー図である。
処理システムは、システムバス602を経て他の構成要素に動作可能に結合された少なくとも1つのプロセッサまたはプロセッサ装置(CPU)604を含む。キャッシュ606、リードオンリーメモリ(ROM)608、ランダムアクセスメモリ(RAM)610、入力/出力(I/O)アダプタ620、ネットワークアダプタ630、ユーザインタフェースアダプタ640、およびディスプレイアダプタ650は、システムバス602に動作可能に結合される。データプライバシーシステム660は、バス602に接続される。データプライバシーシステム660は、符号器314および復号器332を使用することによって、敵対的再構成の学習枠組み670を使用することができる。
記憶装置622は、I/Oアダプタ620によってシステムバス602に動作可能に結合される。記憶装置622はディスク記憶装置(例えば、磁気または光ディスク記憶装置)、ソリッドステート磁気装置などの何れかとすることができる。
送受信機632は、ネットワークアダプタ630によってシステムバス602に動作可能に結合される。
ユーザ入力装置642は、ユーザインタフェースアダプタ640によってシステムバス602に動作可能に結合される。ユーザ入力装置642は、キーボード、マウス、キーパッド、画像取込装置、動作検知装置、マイク、前述の装置のうち少なくとも2つの機能を組み込んだ装置などの何れかとすることができる。もちろん、本発明の精神を維持しつつ、他のタイプの入力装置を使用することもできる。ユーザ入力装置642は、同じタイプのユーザ入力装置または異なるタイプのユーザ入力装置とすることができる。ユーザ入力装置642は、処理システムとの間で情報を入出力するために使用される。
ディスプレイ装置652は、ディスプレイアダプタ750によってシステムバス602に動作可能に結合される。
もちろん、処理システムは当業者によって容易に意図されるように、他の要素(図示せず)を含むことはもちろん、特定の要素を省略してもよい。例えば、当業者によって容易に理解されるように、様々な他の入力装置および/または出力装置は、システムの特定の実装に応じて、システムに含めることができる。例えば、様々なタイプの無線および/または有線の入力および/または出力装置を使用することができる。さらに、様々な構成の追加のプロセッサ、プロセッサ装置、コントローラ、メモリなども、当業者によって容易に理解されるように利用することができる。処理システムのこれらおよび他の変形は、本明細書で提供される本発明の教示を与えられた当業者によって容易に意図される。
図7は、本発明の実施形態による、ディープネットワークの潜在的な表現からデータ再構成を防止することによって、視覚的なプライベートデータを保護する例示的な方法のブロック/フロー図である。
ブロック701において、潜在的な特徴は入力画像から取得される。
ブロック703において、プライバシー保護特徴表現は有用な性能を維持し、データ再構成を防止するため敵対的再構成の学習枠組みを経て学習される。
ブロック705において、データ再構成は、潜在的な特徴から入力画像を再構成するため復号器をトレーニングすることでブラックボックスモデル反転攻撃をシミュレートすることによって防止される。
ブロック707において、データ再構成は、タスク損失を最小化しつつ、復号器が潜在的な特徴を反転することを防止するため、再構成の誤差を最大化するよう符号器をトレーニングすることによってさらに防止される。
図8は、本発明の実施形態による、敵対的再構成の学習枠組みで使用される例示的な方程式のブロック/フロー図である。
方程式800は、保護装置の全体的なトレーニングの目標は、どのようにして取得されるかを識別する。
要約すると、本発明の例示的な実施形態は、画像空間内の変換ではなく、中間の潜在的な表現を学習して視覚的データのプライバシーを保護する敵対的学習の枠組みを識別する。例示的な枠組みは、敵対者の視点と保護装置の視点の両方から開発され、有用性とプライバシーとの間の最小最大駆け引きとして見ることができる。代替の更新戦略を採用することによって、例示的な枠組みは、プライバシー保護表現およびタスク指向表現を学習する。したがって、潜在的な特徴空間は、各画像を効率的に表現するための形態としてだけでなく、プライバシー情報を保護するためにも使用される。画像復号器から敵対的な信号を使用することによって、例示的な枠組みは、不法侵入者が潜在的な特徴空間から画像を再構成しようとする場合、機密扱いの情報を効果的に隠す。さらに、例示的な枠組みは、有用なタスクの競争力のある性能を依然として達成することができる。
本明細書で使用されるように、用語「データ」、「コンテンツ」、「情報」および同様の用語は様々な例示的な実施形態にしたがって、取り込まれ、送信され、受信され、表示され、および/または記憶されることが可能なデータを指すために、互換的に使用されることが可能である。したがって、このような用語の使用は、開示の精神および範囲を制限するものと解釈されるべきではない。さらに、他のコンピューティング装置からデータを受信するためコンピューティング装置が本明細書に記載される場合、データは他のコンピューティング装置から直接受信すること、または1つ以上の中間のコンピューティング装置、例えば、1つ以上のサーバ、リレー、ルータ、ネットワークアクセスポイント、基地局、および/またはそれに類するものなどを経て間接的に受信することができる。同様に、データを他のコンピューティング装置に送信するためコンピューティング装置が本明細書に記載される場合、データは直接、他のコンピューティング装置に送信されること、または、1つ以上の中間のコンピューティング装置、例えば、1つ以上のサーバ、リレー、ルータ、ネットワークアクセスポイント、基地局、および/またはそれに類するものなどを経て間接的に送信される。
ユーザとの対話を提供するため、本明細書に記載される主題の実施形態は、ユーザに情報を表示するためのディスプレイ装置、例えば、CRT(陰極線管)またはLCD(液晶ディスプレイ)モニタと、キーボードと、ユーザがコンピュータに入力を提供することができるポインティング装置、例えば、マウスまたはトラックボールとを有するコンピュータ上で実施することができる。他の種類の装置も、ユーザとの対話を提供するために使用することができ、例えば、ユーザに提供されるフィードバックは任意の形態の感覚のフィードバック、例えば、視覚的なフィードバック、聴覚性のフィードバック、または触覚のフィードバックとすることができ、ユーザからの入力は、音響の入力、音声の入力、または触覚の入力を含む任意の形態で受信することができる。
当業者には理解されるように、本発明の態様は、システム、方法、またはコンピュータプログラム製品として具現化することができる。したがって、本発明の態様は完全にハードウェアの実施形態、完全にソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、または本明細書では一般に「回路」、「モジュール」、「計算機」、「装置」、または「システム」と呼ばれ得るソフトウェアおよびハードウェアの態様を組み合わせた実施形態の形をとることができる。さらに、本発明の態様はその上に具現化されたコンピュータ読み取り可能なプログラムコードを有する1つ以上のコンピュータ読み取り可能な媒体に具現化されたコンピュータプログラム製品の形をとることができる。
1つ以上のコンピュータ読み取り可能な媒体の任意の組合せを利用することができる。コンピュータ読み取り可能な媒体は、コンピュータ読み取り可能な信号媒体またはコンピュータ読み取り可能な記憶媒体であってもよい。コンピュータ読み取り可能な記憶媒体は、例えば、電子、磁気、光学、電磁気、赤外線、または半導体システム、機器、または装置、あるいは前述の任意の適切な組合せとすることができるが、これらに限定されない。コンピュータ読み取り可能な記憶媒体のより具体的な例(非網羅的なリスト)は以下を含む。それは、1つ以上のワイヤ、携帯用コンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能なプログラマブルリードオンリーメモリ(EPROMまたはフラッシュメモリ)、光ファイバ、携帯用コンパクトディスクリードオンリーメモリ(CD-ROM)、光データ記憶装置、磁気データ記憶装置、または前述の任意の適切な組み合わせを有する電気的接続である。本文書の文脈では、コンピュータ読み取り可能な記憶媒体は、命令実行システム、機器、または装置によって、または関連して使用するプログラムを含む、または記憶することができる任意の有形媒体であってもよい。
コンピュータ読み取り可能な信号媒体は、例えば、ベースバンドで、または搬送波の一部として、コンピュータ読み取り可能なプログラムコードが具現化された伝搬するデータ信号を含むことができる。このような伝搬する信号は電磁気、光学、またはそれらの任意の適切な組み合わせを含むが、これらに限定されない、任意の様々な形をとることができる。コンピュータ読み取り可能な信号媒体は、コンピュータ読み取り可能な記憶媒体ではなく、命令実行システム、機器、または装置によって、または関連して使用するプログラムを通信、伝搬、または移送することができる、任意のコンピュータ読み取り可能な媒体であってもよい。
コンピュータ読み取り可能な媒体に具現化されたプログラムコードは、無線、有線、光ファイバケーブル、RFなど、または前述の任意の適切な組合せを含むが、これらに限定されない、任意の適切な媒体を使用して送信され得る。
本発明の態様に対する操作を実行するコンピュータプログラムコードは、Java(登録商標)、Smalltalk、C++等のオブジェクト指向プログラミング言語、および「C」プログラミング言語または類似のプログラミング言語等の従来の手続き型プログラミング言語を含む、1つ以上のプログラミング言語の任意の組み合わせで書くことができる。プログラムコードは、ユーザのコンピュータ上で、部分的にはユーザのコンピュータ上で、スタンドアロンソフトウェアパッケージとして、部分的にはユーザのコンピュータ上で、部分的には遠隔のコンピュータ上で、または全体的には遠隔のコンピュータまたはサーバ上で、全体的に実行されてもよい。後者の場面では、遠隔のコンピュータはローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)を含む任意のタイプのネットワークを介してユーザのコンピュータに接続されてもよく、または、接続は(例えば、インターネットサービスプロバイダを使用してインターネットを介して)外部コンピュータにすることもできる。
本発明の態様を、本発明の実施形態による方法、装置(システム)、およびコンピュータプログラム製品のフローチャート図および/またはブロック図を参照して以下に説明する。フローチャート図および/またはブロック図の各ブロック、ならびにフローチャート図および/またはブロック図のブロックの組合せは、コンピュータプログラム命令によって実施されることを理解されたい。これらのコンピュータプログラム命令は、汎用コンピュータ、専用コンピュータ、または他のプログラマブルデータ処理機器のプロセッサに提供され、コンピュータまたは他のプログラマブルデータ処理機器のプロセッサを経て実行される命令がフローチャートおよび/またはブロック図の1つまたは複数のブロックまたはモジュールで指定された機能/動作を実施する手段を作成するように、マシンを生成することができる。
これらのコンピュータプログラム命令はコンピュータ、他のプログラマブルデータ処理機器、または他の装置に特定の方法で機能するように指示することができるコンピュータ読み取り可能な媒体に格納することもでき、その結果、コンピュータ読み取り可能な媒体に格納された命令は、フローチャートおよび/またはブロック図の1つまたは複数のブロックまたはモジュールで指定された機能/動作を実行する命令を含む製品を生成する。
コンピュータプログラム命令はまた、コンピュータ、他のプログラマブルデータ処理装置、または他の装置にロードされて、一連の動作ステップがコンピュータ、他のプログラマブル機器、または他の装置で実行されて、コンピュータ、または他のプログラマブル機器で実行する命令がフローチャートおよび/またはブロック図の1つまたは複数のブロックまたはモジュールで指定された機能/動作を実施する処理を提供するように、コンピュータ実施処理を生成する。
本明細書で使用される「プロセッサ」という用語は、例えば、CPU(中央処理装置)および/または他の処理回路を含むものなど、任意の処理装置を含むことを意図している。「プロセッサ」という用語は1つ以上の処理装置を指すことができ、処理装置に関連する様々な要素は、他の処理装置によって共有され得ることも理解されたい。
本明細書で使用される「メモリ」という用語は、例えば、RAM、ROM、固定メモリ装置(例えば、ハードドライブ)、リムーバブルメモリ装置(例えば、ディスケット)、フラッシュメモリなど、プロセッサまたはCPUに関連するメモリを含むことを意図している。このようなメモリは、コンピュータ読み取り可能な記憶媒体と考えることができる。
さらに、本明細書で使用される「入力/出力装置」または「I/O装置」という語句は、例えば、処理ユニットにデータを入力する1つ以上の入力装置(例えば、キーボード、マウス、スキャナなど)、および/または処理ユニットに関連付けられた結果を提示する1つ以上の出力装置(例えば、スピーカ、ディスプレイ、プリンタなど)を含むことが意図される。
以上の説明は、あらゆる点において、限定するものではなく例示的および典型的なものとして理解すべきであり、本明細書において開示されている本発明の範囲は、詳細な説明から決定されてはならず、そうではなく、特許法で許容されるすべての幅に応じて解釈される特許請求の範囲から決定されなければならない。本明細書において示され、かつ、説明された実施形態は、本発明の原理についての単なる例示的なものにすぎないこと、また、当業者は、本発明の範囲および精神から逸脱することなく、様々な修正を加えることができることを理解されたい。当業者は、本発明の範囲および精神から逸脱することなく、様々な他の特徴組合せを実現することが可能である。以上、本発明の態様について、特許法で要求される詳細および特異性と共に説明したが、特許請求され、特許証で保護されることが望ましいものは、添付の特許請求の範囲に説明されている。
Claims (20)
- ディープネットワークの潜在的な表現からデータ再構成を防止することによって視覚的なプライベートデータを保護するためプロセッサで実行されるコンピュータ実行方法であって、前記方法は、
入力画像(312)から潜在的な特徴(316)を取得することと、
敵対的再構成の学習枠組み(318)を経て、有用な性能を維持し前記データ再構成を防止するためプライバシー保護特徴表現を学習することと、を含み、
前記データ再構成は、
前記潜在的な特徴から前記入力画像を再構成するため、復号器(332)をトレーニングすることによってブラックボックスモデル反転攻撃をシミュレートすることと、
前記タスク損失を最小化しつつ、前記復号器が前記潜在的な特徴を反転するのを防止するため、再構成の誤差を最大化するよう符号器(314)をトレーニングすることと、によって防止される、方法。 - 前記潜在的特徴は、さらなる処理のため、クラウド上に送信され記憶される、請求項1に記載の方法。
- 前記敵対的再構成の学習枠組みは、有用な損失を最小化することによって、有用なラベルを予測する多層パーセプトロン(MLP)分類器を採用する、請求項1に記載の方法。
- 前記復号器は、前記復号器が再構成の損失を最小化することによって前記符号器の出力を復号化することを学習するように、前記符号器と競合するようにトレーニングされる、請求項4に記載の方法。
- ディープネットワークの潜在的な表現からデータ再構成を防止することによって視覚的なプライベートデータを保護するためのコンピュータ読み取り可能なプログラムを含む非一時的なコンピュータ読み取り可能な記憶媒体であって、コンピュータで実行されるとき前記コンピュータ読み取り可能な記憶媒体は、
入力画像(312)から潜在的な特徴(316)を取得するステップと、
敵対的再構成の学習枠組み(318)を経て、有用な性能を維持し前記データ再構成を防止するためプライバシー保護特徴表現を学習するステップと、を前記コンピュータに実行させ、
前記データ再構成は、
前記潜在的な特徴から前記入力画像を再構成するため、復号器(332)をトレーニングすることによってブラックボックスモデル反転攻撃をシミュレートすることと、
前記タスク損失を最小化しつつ、前記復号器が前記潜在的な特徴を反転するのを防止するため、再構成の誤差を最大化するよう符号器(314)をトレーニングすることと、によって防止される、非一時的なコンピュータ読み取り可能な記憶媒体。 - 前記潜在的特徴は、さらなる処理のため、クラウド上に送信され記憶される、請求項9に記載の非一時的なコンピュータ読み取り可能な記憶媒体。
- 前記敵対的再構成の学習枠組みは、有用な損失を最小化することによって、有用なラベルを予測する多層パーセプトロン(MLP)分類器を採用する、請求項9に記載の非一時的なコンピュータ読み取り可能な記憶媒体。
- 前記復号器は、前記復号器が再構成の損失を最小化することによって前記符号器の出力を復号化することを学習するように、前記符号器と競合するようにトレーニングされる、請求項12に記載の非一時的なコンピュータ読み取り可能な記憶媒体。
- ディープネットワークの潜在的な表現からデータ再構成を防止することによって視覚的なプライベートデータを保護するシステムであって、前記システムは、
メモリと、
前記メモリと通信する1つ以上のプロセッサとを含み、前記プロセッサは、
入力画像(312)から潜在的な特徴(316)を取得し、
敵対的再構成の学習枠組み(318)を経て、有用な性能を維持し前記データ再構成を防止するためプライバシー保護特徴表現を学習するよう構成されており、
前記データ再構成は、
前記潜在的な特徴から前記入力画像を再構成するため、復号器(332)をトレーニングすることによってブラックボックスモデル反転攻撃をシミュレートすることと、
前記タスク損失を最小化しつつ、前記復号器が前記潜在的な特徴を反転するのを防止するため、再構成の誤差を最大化するよう符号器(314)をトレーニングすることと、によって防止される、システム。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862756765P | 2018-11-07 | 2018-11-07 | |
US62/756,765 | 2018-11-07 | ||
US201962878786P | 2019-07-26 | 2019-07-26 | |
US62/878,786 | 2019-07-26 | ||
US16/674,425 US11520923B2 (en) | 2018-11-07 | 2019-11-05 | Privacy-preserving visual recognition via adversarial learning |
US16/674,425 | 2019-11-05 | ||
PCT/US2019/060037 WO2020097182A1 (en) | 2018-11-07 | 2019-11-06 | Privacy-preserving visual recognition via adversarial learning |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022505783A true JP2022505783A (ja) | 2022-01-14 |
Family
ID=70459959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021522444A Pending JP2022505783A (ja) | 2018-11-07 | 2019-11-06 | 敵対的学習を経たプライバシー保護の視覚的認識 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11520923B2 (ja) |
JP (1) | JP2022505783A (ja) |
DE (1) | DE112019005565T5 (ja) |
WO (1) | WO2020097182A1 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111771216A (zh) * | 2018-12-17 | 2020-10-13 | 索尼公司 | 学习装置、识别装置、以及程序 |
US11449797B1 (en) * | 2019-09-23 | 2022-09-20 | Amazon Technologies, Inc. | Secure machine learning workflow automation using isolated resources |
CN111666588B (zh) * | 2020-05-14 | 2023-06-23 | 武汉大学 | 一种基于生成对抗网络的情绪差分隐私保护方法 |
WO2021229791A1 (ja) | 2020-05-15 | 2021-11-18 | 日本電気株式会社 | 機械学習装置、機械学習システム、機械学習方法及びプログラム |
CN111768792B (zh) * | 2020-05-15 | 2024-02-09 | 天翼安全科技有限公司 | 基于卷积神经网络和领域对抗学习的音频隐写分析方法 |
CN111709515B (zh) * | 2020-05-29 | 2022-07-12 | 西安交通大学 | 一种基于频率带的对抗攻击深度神经网络的方法 |
CN111724443B (zh) * | 2020-06-09 | 2022-11-08 | 中国科学院自动化研究所 | 基于生成式对抗网络的统一场景视觉定位方法 |
GB2597111A (en) * | 2020-07-14 | 2022-01-19 | Carv3D Ltd | Computer vision method and system |
US20230351250A1 (en) | 2020-08-19 | 2023-11-02 | Nec Corporation | Machine learning system, method, inference apparatus and computer-readable storage medium |
CN112488172B (zh) * | 2020-11-25 | 2022-06-21 | 北京有竹居网络技术有限公司 | 对抗攻击的方法、装置、可读介质和电子设备 |
CN114549951B (zh) * | 2020-11-26 | 2024-04-23 | 未岚大陆(北京)科技有限公司 | 获得训练数据的方法、相关设备、系统及存储介质 |
US20220172416A1 (en) * | 2020-12-02 | 2022-06-02 | De-Identification Ltd. | System and method for performing facial image anonymization |
CN113066094B (zh) * | 2021-03-09 | 2024-01-30 | 中国地质大学(武汉) | 一种基于生成对抗网络的地理栅格智能化局部脱敏方法 |
GB2605434B (en) * | 2021-03-31 | 2023-09-20 | British Telecomm | Classification model evaluation |
CN113657350A (zh) * | 2021-05-12 | 2021-11-16 | 支付宝(杭州)信息技术有限公司 | 人脸图像处理方法及装置 |
CN113255579B (zh) * | 2021-06-18 | 2021-09-24 | 上海建工集团股份有限公司 | 一种施工监测异常采集数据自动识别与处理的方法 |
CN113723358A (zh) * | 2021-09-15 | 2021-11-30 | 中国电子科技集团公司第三十六研究所 | 基于生成对抗网络的对抗信号检测方法、装置及电子设备 |
CN114187668B (zh) * | 2021-12-15 | 2024-03-26 | 长讯通信服务有限公司 | 一种基于正样本训练的人脸静默活体检测方法及装置 |
CN114298997B (zh) * | 2021-12-23 | 2023-06-02 | 北京瑞莱智慧科技有限公司 | 一种伪造图片检测方法、装置及存储介质 |
CN114943995A (zh) * | 2022-05-12 | 2022-08-26 | 北京百度网讯科技有限公司 | 人脸识别模型的训练方法、人脸识别方法及装置 |
CN116881954B (zh) * | 2023-09-07 | 2024-02-02 | 苏州慧睿康智能科技有限公司 | 一种基于对抗生成覆盖策略的医疗影像数据安全销毁方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007328502A (ja) * | 2006-06-07 | 2007-12-20 | Hitachi Information & Control Solutions Ltd | 生体認証方法及びシステム |
JP6352512B1 (ja) * | 2017-08-22 | 2018-07-04 | 株式会社 ディー・エヌ・エー | 信号処理装置、信号処理方法、信号処理プログラム、及びデータ構造 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1757006A2 (en) | 2004-06-01 | 2007-02-28 | Ben-Gurion University of the Negev Research and Development Authority | Structure preserving database encryption method and system |
US8848924B2 (en) | 2008-06-27 | 2014-09-30 | University Of Washington | Privacy-preserving location tracking for devices |
US8555400B2 (en) | 2011-02-04 | 2013-10-08 | Palo Alto Research Center Incorporated | Privacy-preserving aggregation of Time-series data |
US8667292B2 (en) | 2011-05-19 | 2014-03-04 | Microsoft Corporation | Privacy-preserving metering with low overhead |
WO2015134665A1 (en) | 2014-03-04 | 2015-09-11 | SignalSense, Inc. | Classifying data with deep learning neural records incrementally refined through expert input |
EP3420475B1 (en) * | 2016-02-22 | 2020-11-18 | Tata Consultancy Services Limited | Systems and methods for computing data privacy-utility tradeoff |
GB201610883D0 (en) * | 2016-06-22 | 2016-08-03 | Microsoft Technology Licensing Llc | Privacy-preserving machine learning |
US10387765B2 (en) | 2016-06-23 | 2019-08-20 | Siemens Healthcare Gmbh | Image correction using a deep generative machine-learning model |
-
2019
- 2019-11-05 US US16/674,425 patent/US11520923B2/en active Active
- 2019-11-06 WO PCT/US2019/060037 patent/WO2020097182A1/en active Application Filing
- 2019-11-06 DE DE112019005565.8T patent/DE112019005565T5/de active Pending
- 2019-11-06 JP JP2021522444A patent/JP2022505783A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007328502A (ja) * | 2006-06-07 | 2007-12-20 | Hitachi Information & Control Solutions Ltd | 生体認証方法及びシステム |
JP6352512B1 (ja) * | 2017-08-22 | 2018-07-04 | 株式会社 ディー・エヌ・エー | 信号処理装置、信号処理方法、信号処理プログラム、及びデータ構造 |
Non-Patent Citations (3)
Title |
---|
JIAWEI CHEN, 外2名: ""VGAN-Based Image Representation Learning for Privacy-Preserving Facial Expression Recognition"", 2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS (CVPRW), JPN6022022119, 22 June 2018 (2018-06-22), US, pages 1651 - 1660, XP033475508, ISSN: 0004794037, DOI: 10.1109/CVPRW.2018.00207 * |
XUANER ZHANG, 外2名: ""Single Image Reflection Separation with Perceptual Losses"", 2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, JPN6022022123, 23 June 2018 (2018-06-23), US, pages 4786 - 4794, ISSN: 0004794038 * |
福井宏, 外5名: ""プライバシーに配慮したDeep Convolutional Neural Networkによるクラ", 第22回 画像センシングシンポジウム, JPN6022022114, 8 June 2016 (2016-06-08), JP, ISSN: 0004794036 * |
Also Published As
Publication number | Publication date |
---|---|
DE112019005565T5 (de) | 2021-07-22 |
WO2020097182A1 (en) | 2020-05-14 |
US11520923B2 (en) | 2022-12-06 |
US20200143079A1 (en) | 2020-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022505783A (ja) | 敵対的学習を経たプライバシー保護の視覚的認識 | |
US11978245B2 (en) | Method and apparatus for generating image | |
Sajjad et al. | Mobile-cloud assisted framework for selective encryption of medical images with steganography for resource-constrained devices | |
US10691928B2 (en) | Method and apparatus for facial recognition | |
CN114144781A (zh) | 身份验证和管理系统 | |
US20210319897A1 (en) | Multimodal analysis combining monitoring modalities to elicit cognitive states and perform screening for mental disorders | |
Lee et al. | Underwater image enhancement using successive color correction and superpixel dark channel prior | |
WO2021023249A1 (zh) | 推荐理由的生成 | |
CN110427899B (zh) | 基于人脸分割的视频预测方法及装置、介质、电子设备 | |
Jain et al. | Improved Security of E-Healthcare Images Using Hybridized Robust Zero-Watermarking and Hyper-Chaotic System along with RSA | |
CN110874571A (zh) | 人脸识别模型的训练方法及装置 | |
WO2019118236A1 (en) | Deep learning on image frames to generate a summary | |
JP2023500028A (ja) | パーソナライズされた自動ビデオクロッピング | |
KR20200039814A (ko) | 영상 캡쳐 장치에 의해 이전에 캡쳐된 비디오 데이터에 기초하여 영상 캡쳐 장치에 의한 비디오 데이터의 캡쳐를 수정 | |
Faheem et al. | Image watermarking using least significant bit and canny edge detection | |
CN110889140A (zh) | 一种数据处理方法及存储介质 | |
KR20230128812A (ko) | 교차 모달 학습 기반의 감정 추론 시스템 및 방법 | |
Awasthi et al. | BacterialWmark: telemedicine watermarking technique using bacterial foraging for smart healthcare system | |
Datta et al. | Robust data hiding scheme for highly compressed image exploiting btc with hamming code | |
WO2023177562A1 (en) | Resolution-based video encoding | |
KR20150115762A (ko) | 호기심 많은 추천자로부터의 프라이버시 보호 | |
US20220327663A1 (en) | Video Super-Resolution using Deep Neural Networks | |
CN117218507A (zh) | 图像处理模型训练方法、图像处理方法、装置及电子设备 | |
WO2022178975A1 (zh) | 基于噪声场的图像降噪方法、装置、设备及存储介质 | |
US20190114713A1 (en) | Real-time benefit eligibility evaluation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210423 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220516 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220607 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230105 |