JP2022505783A - 敵対的学習を経たプライバシー保護の視覚的認識 - Google Patents

敵対的学習を経たプライバシー保護の視覚的認識 Download PDF

Info

Publication number
JP2022505783A
JP2022505783A JP2021522444A JP2021522444A JP2022505783A JP 2022505783 A JP2022505783 A JP 2022505783A JP 2021522444 A JP2021522444 A JP 2021522444A JP 2021522444 A JP2021522444 A JP 2021522444A JP 2022505783 A JP2022505783 A JP 2022505783A
Authority
JP
Japan
Prior art keywords
reconstruction
loss
data
useful
decoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021522444A
Other languages
English (en)
Inventor
キヒョク ソン、
マンモハン チャンドラカー、
イ-シューアン ツァイ、
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Laboratories America Inc
Original Assignee
NEC Laboratories America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Laboratories America Inc filed Critical NEC Laboratories America Inc
Publication of JP2022505783A publication Critical patent/JP2022505783A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Bioethics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

Figure 2022505783000001
ディープネットワークの潜在的な表現からデータ再構成を防止することによって視覚的なプライベートデータを保護する方法が提供される。その方法は、入力画像(312)から潜在的な特徴(316)を取得することと、敵対的再構成の学習枠組み(318)を経て、有用な性能を維持しデータ再構成を防止するためプライバシー保護特徴表現を学習することと、を含み、データ再構成は、潜在的な特徴から入力画像を再構成するため、復号器(332)をトレーニングすることによってブラックボックスモデル反転攻撃をシミュレートすることと、タスク損失を最小化しつつ、復号器が潜在的な特徴を反転するのを防止するため、再構成の誤差を最大化するよう符号器(314)をトレーニングすることと、によって防止される。
【選択図】図1

Description

(関連出願情報)
本出願は、2018年11月7日に出願された仮出願第62/756,765号、および2019年7月26日に出願された仮出願第62/878,786号の優先権を主張する2019年11月5日に出願された米国特許出願第16/674,425の優先権を主張するものであり、その全体が参照により本明細書に組み込まれる。
(技術分野)
本発明は、視覚的認識システムに関し、より具体的には、敵対的学習を経たプライバシー保護の視覚的認識に関する。
(関連技術の説明)
ディープニューラルネットワークおよび大規模なデータを使用する機械学習(ML)アルゴリズムは、自然言語、音声、およびコンピュータ・ビジョンにわたる多くの分野で印象的な性能を示しているので、マシン・ラーニング・アズ・ア・サービスクラウドサービスへの関心が高まっている。これらのシステムは、サービス・プロバイダとそれらの顧客との間で頻繁なデータ伝送を要求し、MLモデルまたはユーザがそれらのデータを評価するようにトレーニングする。例えば、顔認識システムを開発したい顧客は、関心のある人々を含む画像のセットをクラウドサービスプロバイダ(CSPs)と共有することができる。顔の表情に基づく推薦システムは、ユーザに写真をアップロードするように求めることができる。しかしながら、これらの処理は、プライバシーリスクにさらされるおそれがある。顧客から共有される機密情報を含むデータは、例えば、CSPsによって誤用されるか、または敵対者によって取得されるおそれがある。
ディープネットワークの潜在的な表現からデータ再構成を防止することによって視覚的なプライベートデータを保護するための方法が提供される。前記方法は、入力画像から潜在的な特徴を取得することと、敵対的再構成の学習枠組みを経て、有用な性能を維持し前記データ再構成を防止するためプライバシー保護特徴表現を学習することと、を含み、前記データ再構成は、前記潜在的な特徴から前記入力画像を再構成するため、復号器をトレーニングすることを経てブラックボックスモデル反転攻撃をシミュレートすることと、前記タスク損失を最小化しつつ、前記復号器が前記潜在的な特徴を反転するのを防止するため、再構成の誤差を最大化するよう符号器をトレーニングすることと、によって防止される、前記有用な性能を維持し前記データ再構成を防止する。
ディープネットワークの潜在的な表現からデータ再構成を防止することによって視覚的なプライベートデータを保護するためのコンピュータ読み取り可能なプログラムを含む非一時的なコンピュータ読み取り可能な記憶媒体が提供され、前記コンピュータ読み取り可能なプログラムは、コンピュータで実行されるとき、入力画像から潜在的な特徴を取得するステップと、敵対的再構成の学習枠組みを経て、有用な性能を維持し前記データ再構成を防止するためプライバシー保護特徴表現を学習するステップと、を前記コンピュータに実行させ、前記データ再構成は、前記潜在的な特徴から前記入力画像を再構成するため、復号器をトレーニングすることによってブラックボックスモデル反転攻撃をシミュレートすることと、前記タスク損失を最小化しつつ、前記復号器が前記潜在的な特徴を反転するのを防止するため、再構成の誤差を最大化するよう符号器をトレーニングすることと、によって防止される。
ディープネットワークの潜在的な表現からデータ再構成を防止することによって視覚的なプライベートデータを保護するためのシステムが提供される。前記システムは、メモリと、入力画像から潜在的な特徴を取得し、敵対的再構成の学習枠組みを経て、有用な性能を維持し前記データ再構成を防止するためプライバシー保護特徴表現を学習するよう構成された前記メモリと通信する1つ以上のプロセッサとを含み、前記データ再構成は、前記潜在的な特徴から前記入力画像を再構成するため、復号器をトレーニングすることによってブラックボックスモデル反転攻撃をシミュレートすることと、前記タスク損失を最小化しつつ、前記復号器が前記潜在的な特徴を反転するのを防止するため、再構成の誤差を最大化するよう符号器をトレーニングすることと、によって防止される。
これらおよび他の特徴および利点は添付の図面に関連して読まれるべき、その例示的な実施形態の以下の詳細な説明から明らかになるであろう。
本開示は、以下の図面を参照して、好ましい実施形態の以下の説明において詳細を提供する。
本発明の実施形態による、データプライバシーを保護するための枠組みのブロック/フロー図である。
本発明の実施形態による、特徴表現再構成を防止するためのブロック/フロー図である。
本発明の実施形態による、敵対的学習ステップを使用する畳み込みニューラルネットワーク(CNN)のブロック/フロー図である。
本発明の実施形態による、符号器およびfを固定しつつ、X∈X2を使用することによって復号器およびDを更新することを示すブロック/フロー図である。
本発明の実施形態による、復号器を固定しつつ、X∈X1を使用することによって符号器およびfを更新することを示すブロック/フロー図である。
本発明の実施形態による、ディープネットワークの潜在的な表現からデータ再構成を防止することによって視覚的なプライベートデータを保護するための例示的な処理システムのブロック/フロー図である。
本発明の実施形態による、ディープネットワークの潜在的な表現からデータ再構成を防止することによって視覚的なプライベートデータを保護するための例示的な方法のブロック/フロー図である。
本発明の実施形態による、例示的な敵対的再構成の学習枠組みに使用される例示的な方程式のブロック/フロー図である。
本発明の例示的な実施形態は、プライバシー保護およびタスク指向のディープ表現をどのように学習するかを識別する。例示的な実施形態は、ブラックボックスモデル反転攻撃に対する防御に着目し、敵対者はプライベート顧客およびユーザデータの取得された特徴から入力を回復するため、自身のデータの無制限の推定を行うことを許可される。敵対者として、例示的な実施形態は、データ特徴の対を使用してデータを再構成するようにトレーニングされるニューラル復号器に基づくモデル反転(MI)攻撃を考慮する。知覚的および敵対的生成ネットワーク(GAN)損失は、生成品質を改善するために使用される。最後に、例示的な実施形態は、符号器および復号器の交互のトレーニングを伴う敵対的データ再構成学習を識別する。敵対者の攻撃をシミュレートする復号器は特徴から入力を再構成するようにトレーニングされるのに対し、符号器はタスク損失を最小限にしつつ、復号器が特徴を反転することを防止するため再構成の誤差を最大化するようにトレーニングされる。
例示的な実施形態は、広範囲にわたる実験結果に伴う顔属性分析という文脈において、MI攻撃に対するディープネットワークの脆弱性を識別する。例示的な実施形態は、敵対的に学習された特徴を反転させることは困難であることを図示し、したがって、提案された方法は、強い反転攻撃に対してうまく防御する。
したがって、例示的な実施形態は、ニューラル復号器に基づくいくつかの強力な攻撃方法と共に、ブラックボックスモデル反転攻撃に対して防御するため敵対的データ再構成学習を識別する。例示的な実施形態はさらに、標準的なディープ特徴の脆弱性、およびデータ再構成を防止する例示的な方法で学習された特徴の有効性を示す。例示的な実施形態はさらに、負の知覚的な類似性の損失のハイパーパラメータの異なる選択で有用なプライバシー交換を図示し、復号器トレーニングの特徴、タスク、およびデータの異なる層についてプライバシー保護への影響を図示する。
本発明の例示的な実施形態のプライバシー保護特徴学習方法を導入する前に、敵対者のプライバシー攻撃方法を詳細に提示する。
適切な防御メカニズムを設計するため、例示的な実施形態は、第一に、敵対者の攻撃方法を理解する必要がある。その結果、例示的な実施形態は、敵対者の目的が特徴を入力に戻して反転することであるモデル反転(MI)攻撃に着目する。例示的な実施形態はさらに、敵対者がモデルの推定(Enc)に無制限にアクセスするが、モデルパラメータにはアクセスしないブラックボックス攻撃を仮定する。敵対者は、入力
Figure 2022505783000002
と特徴
Figure 2022505783000003
の大規模な対のデータベースを作ることができるので、これは敵対者に対する十分な設定である。
ここで、例示的な実施形態は、
Figure 2022505783000004
を使用して、敵対者自身のデータセットとCSPsまたはそれらの顧客のプライベートトレーニングデータセット
Figure 2022505783000005
を区別する。
対のデータセット
Figure 2022505783000006
が与えられると、敵対者は復号器
Figure 2022505783000007
を経て特徴を反転する。これは、再構成の損失
Figure 2022505783000008
を最小化することで特徴Zから入力Xを再構成するようトレーニングされる。
そしてここで、
Figure 2022505783000009
である。上記は、復号器(Enc)を介した誤差逆伝播法(バックプロバケーション)を伴わないことに注意すべきである。反転品質は、敵対的生成ネットワーク(GAN)損失である、
Figure 2022505783000010
で改善され得る。
そしてここで、Dは弁別器であり、以下の損失
Figure 2022505783000011
を最大化することで生成された画像と実際の画像を区別する。
例示的な実施形態は、知覚的な類似性である、
Figure 2022505783000012
を最小化することで反転品質をさらに改善することができる。
そしてここで、この方法は、gについてImageNet上で予めトレーニングされたVGGニューラルネットワークのconv1(畳み込み層1)からconv2(畳み込み層2)の層を使用する。
したがって、敵対者の全体的なトレーニング目標は、
Figure 2022505783000013
のように書くことができる。
攻撃タイプを実現すると、例示的な実施形態は、直ちにプライバシー保護およびタスク指向表現のトレーニング目標を識別する準備ができる。
タスク指向表現を学習するため、例示的な実施形態は、有用な損失
Figure 2022505783000014
を最小化することでZから有用なラベルYを予測する多層パーセプトロン(MLP)分類器fを採用する。
そしてここで、
Figure 2022505783000015
、Yは有用な正解ラベルであり、
Figure 2022505783000016
は有用な標準損失(例えば、交差エントロピー)である。
Figure 2022505783000017
は、プライベートトレーニングデータであり、敵対者には手に入れることができないものであることに注意すべきである。
MI攻撃に対するプライバシー保護特徴を学習するため、Encは、如何なる復号器によっても入力Xに再構成することができないZを出力する必要がある。しかしながら、すべての可能な復号器を列挙することは実現可能ではない。
代わりに、例示的な実施形態は、敵対的な学習を使用する。具体的には、復号器(Dec)は、再構成の損失
Figure 2022505783000018
を最小化することで現在のEncのZをXに復号する方法でEncと競合するようにトレーニングされる。
さらに、再構成の品質は改善され、
Figure 2022505783000019
によって与えられる知覚的な類似性を使用することによって強力な敵対者という結果になる。
他方、Encは再構成の損失または知覚的な類似性損失を最大化することによって、Decを騙したり、欺いたりすることを目的とする。
最後に、保護装置の全体的なトレーニング目標は、
Figure 2022505783000020
である。そしてここで復号器Decは、DECaと同じ損失関数によって更新される。
図4および図5は以下でさらに詳細に説明され、例示的な実施形態の主要なモジュールを示す。例示的な実施形態は、提案された学習枠組みの代替の更新戦略を採用する。DecaとDは、(5)にしたがってパブリックデータ
Figure 2022505783000021
上で最初に更新され、Encとfが固定され、Encとfが(9)によってプライベートデータ上で更新され、以下同様に収束まで更新される。
従来のシステムおよび方法とは対照的に、例示的な実施形態は高次元画像データまでスケールアップし、生画像の代替として画像表現を学習し、有用な性能をある程度維持し、学習された表現が、敵対的学習を経て不法に侵入されることから保護することができる。
図1に関して、従来のディープラーニングアルゴリズムの表現は、データプライバシーに関する問題を引き起こす敵対者のモデル反転攻撃に対して脆弱である。例示的な実施形態は負の再構成の損失を経てトレーニング段階で敵対者の行動をシミュレートすることによって、プライベート情報が入力空間に復号されることを防止しつつ、タスク指向の特徴を学習する。特に、敵対者130は、プライベート画像110を再構成しようと企てることができる。従来の学習方法120を使用することによって、敵対者は、許容可能な品質の画像140を再構成することができる。しかしながら、本発明の例示的なプライバシー保護方法125が使用される場合、敵対者130は画像145を再構成し、これは、敵対者130によって厳しく、または完全に遮られ、使用可能ではない。
したがって、本発明の例示的な実施形態は、潜在的な表現が元の入力データに復号されるのを防止する敵対的な再構成の学習枠組みを識別する。敵対者の予想される行動をシミュレートすることにより、例示的枠組みは負の画素再構成の損失または負の特徴再構成(例えば、知覚的な類似性)の損失を最小化することにより実現される。
図2に関して、敵対者130がプライベート情報110を不法に侵入するのを防止する1つの方法は、生画像の代わりに特徴表現としてデータを記憶することである。しかしながら、従来の方法120は、プライベート情報110を保護することなく特徴を学習する。かくして、敵対者130は潜在的に格納された特徴から画像を再構成することができ、プライベート情報を明らかにする。本発明の例示的な実施形態では、目的は特徴から視覚的に機密扱いの画像を再構成することを防止すること、したがって視覚的プライバシーを保護することである。実際のアプリケーションを考慮すると、一例は、顔属性認識216のため有用なモジュール214を通過するプライベートデータ212で有用なタスク210を実行することである。その一方で、本発明の例示的な実施形態は、有用なモジュール214と通信するプライバシーモジュール224を使用して、これらのプライベート顔画像222のプライバシー(プライバシー保護220)を保護し、第三者または敵対者130によって不法に侵入されることから同一性(顔同一性保護226)を保護する。
図3に関して、画像符号器310では、最初に、入力画像(I_入力)312が画像符号器314に供給され、潜在的な特徴(F_潜在性)316が取得され、この潜在的な特徴はさらなる処理のためクラウド上に送信され、記憶される。この潜在的な特徴に含まれるプライバシー情報を保護するため、例示的な実施形態は、F_潜在性316から再構成された出力画像I_出力332(ブロック330で導入される)が、元の画像(I_入力)312と同じであるべきではないことを考慮することによって、敵対的学習ステップ(敵対的な損失318)を採用する。
目標タスクの有用なネットワーク320に関して、潜在的特徴F_潜在性316が与えられると、例示的モデル(タスク分類器322)は、目標正解注釈(GT_タスク326)に関して損失関数(タスク損失324)を計算することによって目標タスクを実行することを目的とする。
画像復号器332に関して、潜在的な特徴F_潜在性316が与えられると、符号器(画像符号器314)の目的は、損失関数(再構成の損失336)を経て特徴から出力画像(I_出力334)を再構成することである。このステップは、不法侵入者または敵対者130が潜在的な特徴を取得し、潜在的な特徴を復号してプライバシー情報を含む元のRGB空間に戻ろうとするときの手順をシミュレートする。これを防ぐには、ブロック310の敵対的な損失318は、この手順を再構成解除するのに利用される。
図4および図5に関して、敵対的データ再構成を伴うプライバシー保護表現学習方法の概要が識別される。図4において、システム400は、公衆データX2上の潜在的符号化Z=Enc(X)から入力Xを再構成するようにトレーニングされた復号器332(Dec)を示す。そして、図5においてシステム500は、例示的な実施形態はプライベートデータX1上のEnc314を更新し、分類器fを経て有用な予測性能を達成しつつ、Dec332によって入力Xの再構成を防止するなど、Dec332を騙したり欺いたりする出力Zを生成する。
したがって、例示的な方法は、モデル反転攻撃に対する敵対者の予想される行動をシミュレートすることによって開発され、EncおよびDecネットワークを交互に更新することによって実現される。
要約すると、本発明の例示的な実施形態は、より少ないプライバシー情報を含む潜在的な特徴表現を学習する一方、これらの特徴は依然として目標タスクによって実行することができる。このようにして、各生データは1つの潜在的な特徴として符号化することができ、不法侵入者または敵対者からの攻撃を恐れることなく、処理のためクラウドに送信される。1つの課題はプライバシー情報を取得するため、潜在的特徴を解読して画像に戻ることを依然として試みることができることである。しかしながら、この問題を処理するため、本発明の例示的な実施形態は有用な性能を維持し、特徴が元の画像に復号されて戻るのを防止するという条件を満たすプライバシー保護特徴表現を学習するための敵対的学習枠組みを識別する。したがって、設計された枠組みは、画像を潜在的な表現に符号化することによってクラウド側のプライバシー保護を考慮に入れるだけでなく、潜在的な特徴が画像に戻るように再構成しようとする不法侵入者の視点も考慮する。
図6は、本発明の実施形態による、ディープネットワークの潜在的な表現からデータ再構成を防止することによって視覚的なプライベートデータを保護するための例示的な処理システムのブロック/フロー図である。
処理システムは、システムバス602を経て他の構成要素に動作可能に結合された少なくとも1つのプロセッサまたはプロセッサ装置(CPU)604を含む。キャッシュ606、リードオンリーメモリ(ROM)608、ランダムアクセスメモリ(RAM)610、入力/出力(I/O)アダプタ620、ネットワークアダプタ630、ユーザインタフェースアダプタ640、およびディスプレイアダプタ650は、システムバス602に動作可能に結合される。データプライバシーシステム660は、バス602に接続される。データプライバシーシステム660は、符号器314および復号器332を使用することによって、敵対的再構成の学習枠組み670を使用することができる。
記憶装置622は、I/Oアダプタ620によってシステムバス602に動作可能に結合される。記憶装置622はディスク記憶装置(例えば、磁気または光ディスク記憶装置)、ソリッドステート磁気装置などの何れかとすることができる。
送受信機632は、ネットワークアダプタ630によってシステムバス602に動作可能に結合される。
ユーザ入力装置642は、ユーザインタフェースアダプタ640によってシステムバス602に動作可能に結合される。ユーザ入力装置642は、キーボード、マウス、キーパッド、画像取込装置、動作検知装置、マイク、前述の装置のうち少なくとも2つの機能を組み込んだ装置などの何れかとすることができる。もちろん、本発明の精神を維持しつつ、他のタイプの入力装置を使用することもできる。ユーザ入力装置642は、同じタイプのユーザ入力装置または異なるタイプのユーザ入力装置とすることができる。ユーザ入力装置642は、処理システムとの間で情報を入出力するために使用される。
ディスプレイ装置652は、ディスプレイアダプタ750によってシステムバス602に動作可能に結合される。
もちろん、処理システムは当業者によって容易に意図されるように、他の要素(図示せず)を含むことはもちろん、特定の要素を省略してもよい。例えば、当業者によって容易に理解されるように、様々な他の入力装置および/または出力装置は、システムの特定の実装に応じて、システムに含めることができる。例えば、様々なタイプの無線および/または有線の入力および/または出力装置を使用することができる。さらに、様々な構成の追加のプロセッサ、プロセッサ装置、コントローラ、メモリなども、当業者によって容易に理解されるように利用することができる。処理システムのこれらおよび他の変形は、本明細書で提供される本発明の教示を与えられた当業者によって容易に意図される。
図7は、本発明の実施形態による、ディープネットワークの潜在的な表現からデータ再構成を防止することによって、視覚的なプライベートデータを保護する例示的な方法のブロック/フロー図である。
ブロック701において、潜在的な特徴は入力画像から取得される。
ブロック703において、プライバシー保護特徴表現は有用な性能を維持し、データ再構成を防止するため敵対的再構成の学習枠組みを経て学習される。
ブロック705において、データ再構成は、潜在的な特徴から入力画像を再構成するため復号器をトレーニングすることでブラックボックスモデル反転攻撃をシミュレートすることによって防止される。
ブロック707において、データ再構成は、タスク損失を最小化しつつ、復号器が潜在的な特徴を反転することを防止するため、再構成の誤差を最大化するよう符号器をトレーニングすることによってさらに防止される。
図8は、本発明の実施形態による、敵対的再構成の学習枠組みで使用される例示的な方程式のブロック/フロー図である。
方程式800は、保護装置の全体的なトレーニングの目標は、どのようにして取得されるかを識別する。
要約すると、本発明の例示的な実施形態は、画像空間内の変換ではなく、中間の潜在的な表現を学習して視覚的データのプライバシーを保護する敵対的学習の枠組みを識別する。例示的な枠組みは、敵対者の視点と保護装置の視点の両方から開発され、有用性とプライバシーとの間の最小最大駆け引きとして見ることができる。代替の更新戦略を採用することによって、例示的な枠組みは、プライバシー保護表現およびタスク指向表現を学習する。したがって、潜在的な特徴空間は、各画像を効率的に表現するための形態としてだけでなく、プライバシー情報を保護するためにも使用される。画像復号器から敵対的な信号を使用することによって、例示的な枠組みは、不法侵入者が潜在的な特徴空間から画像を再構成しようとする場合、機密扱いの情報を効果的に隠す。さらに、例示的な枠組みは、有用なタスクの競争力のある性能を依然として達成することができる。
本明細書で使用されるように、用語「データ」、「コンテンツ」、「情報」および同様の用語は様々な例示的な実施形態にしたがって、取り込まれ、送信され、受信され、表示され、および/または記憶されることが可能なデータを指すために、互換的に使用されることが可能である。したがって、このような用語の使用は、開示の精神および範囲を制限するものと解釈されるべきではない。さらに、他のコンピューティング装置からデータを受信するためコンピューティング装置が本明細書に記載される場合、データは他のコンピューティング装置から直接受信すること、または1つ以上の中間のコンピューティング装置、例えば、1つ以上のサーバ、リレー、ルータ、ネットワークアクセスポイント、基地局、および/またはそれに類するものなどを経て間接的に受信することができる。同様に、データを他のコンピューティング装置に送信するためコンピューティング装置が本明細書に記載される場合、データは直接、他のコンピューティング装置に送信されること、または、1つ以上の中間のコンピューティング装置、例えば、1つ以上のサーバ、リレー、ルータ、ネットワークアクセスポイント、基地局、および/またはそれに類するものなどを経て間接的に送信される。
ユーザとの対話を提供するため、本明細書に記載される主題の実施形態は、ユーザに情報を表示するためのディスプレイ装置、例えば、CRT(陰極線管)またはLCD(液晶ディスプレイ)モニタと、キーボードと、ユーザがコンピュータに入力を提供することができるポインティング装置、例えば、マウスまたはトラックボールとを有するコンピュータ上で実施することができる。他の種類の装置も、ユーザとの対話を提供するために使用することができ、例えば、ユーザに提供されるフィードバックは任意の形態の感覚のフィードバック、例えば、視覚的なフィードバック、聴覚性のフィードバック、または触覚のフィードバックとすることができ、ユーザからの入力は、音響の入力、音声の入力、または触覚の入力を含む任意の形態で受信することができる。
当業者には理解されるように、本発明の態様は、システム、方法、またはコンピュータプログラム製品として具現化することができる。したがって、本発明の態様は完全にハードウェアの実施形態、完全にソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、または本明細書では一般に「回路」、「モジュール」、「計算機」、「装置」、または「システム」と呼ばれ得るソフトウェアおよびハードウェアの態様を組み合わせた実施形態の形をとることができる。さらに、本発明の態様はその上に具現化されたコンピュータ読み取り可能なプログラムコードを有する1つ以上のコンピュータ読み取り可能な媒体に具現化されたコンピュータプログラム製品の形をとることができる。
1つ以上のコンピュータ読み取り可能な媒体の任意の組合せを利用することができる。コンピュータ読み取り可能な媒体は、コンピュータ読み取り可能な信号媒体またはコンピュータ読み取り可能な記憶媒体であってもよい。コンピュータ読み取り可能な記憶媒体は、例えば、電子、磁気、光学、電磁気、赤外線、または半導体システム、機器、または装置、あるいは前述の任意の適切な組合せとすることができるが、これらに限定されない。コンピュータ読み取り可能な記憶媒体のより具体的な例(非網羅的なリスト)は以下を含む。それは、1つ以上のワイヤ、携帯用コンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能なプログラマブルリードオンリーメモリ(EPROMまたはフラッシュメモリ)、光ファイバ、携帯用コンパクトディスクリードオンリーメモリ(CD-ROM)、光データ記憶装置、磁気データ記憶装置、または前述の任意の適切な組み合わせを有する電気的接続である。本文書の文脈では、コンピュータ読み取り可能な記憶媒体は、命令実行システム、機器、または装置によって、または関連して使用するプログラムを含む、または記憶することができる任意の有形媒体であってもよい。
コンピュータ読み取り可能な信号媒体は、例えば、ベースバンドで、または搬送波の一部として、コンピュータ読み取り可能なプログラムコードが具現化された伝搬するデータ信号を含むことができる。このような伝搬する信号は電磁気、光学、またはそれらの任意の適切な組み合わせを含むが、これらに限定されない、任意の様々な形をとることができる。コンピュータ読み取り可能な信号媒体は、コンピュータ読み取り可能な記憶媒体ではなく、命令実行システム、機器、または装置によって、または関連して使用するプログラムを通信、伝搬、または移送することができる、任意のコンピュータ読み取り可能な媒体であってもよい。
コンピュータ読み取り可能な媒体に具現化されたプログラムコードは、無線、有線、光ファイバケーブル、RFなど、または前述の任意の適切な組合せを含むが、これらに限定されない、任意の適切な媒体を使用して送信され得る。
本発明の態様に対する操作を実行するコンピュータプログラムコードは、Java(登録商標)、Smalltalk、C++等のオブジェクト指向プログラミング言語、および「C」プログラミング言語または類似のプログラミング言語等の従来の手続き型プログラミング言語を含む、1つ以上のプログラミング言語の任意の組み合わせで書くことができる。プログラムコードは、ユーザのコンピュータ上で、部分的にはユーザのコンピュータ上で、スタンドアロンソフトウェアパッケージとして、部分的にはユーザのコンピュータ上で、部分的には遠隔のコンピュータ上で、または全体的には遠隔のコンピュータまたはサーバ上で、全体的に実行されてもよい。後者の場面では、遠隔のコンピュータはローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)を含む任意のタイプのネットワークを介してユーザのコンピュータに接続されてもよく、または、接続は(例えば、インターネットサービスプロバイダを使用してインターネットを介して)外部コンピュータにすることもできる。
本発明の態様を、本発明の実施形態による方法、装置(システム)、およびコンピュータプログラム製品のフローチャート図および/またはブロック図を参照して以下に説明する。フローチャート図および/またはブロック図の各ブロック、ならびにフローチャート図および/またはブロック図のブロックの組合せは、コンピュータプログラム命令によって実施されることを理解されたい。これらのコンピュータプログラム命令は、汎用コンピュータ、専用コンピュータ、または他のプログラマブルデータ処理機器のプロセッサに提供され、コンピュータまたは他のプログラマブルデータ処理機器のプロセッサを経て実行される命令がフローチャートおよび/またはブロック図の1つまたは複数のブロックまたはモジュールで指定された機能/動作を実施する手段を作成するように、マシンを生成することができる。
これらのコンピュータプログラム命令はコンピュータ、他のプログラマブルデータ処理機器、または他の装置に特定の方法で機能するように指示することができるコンピュータ読み取り可能な媒体に格納することもでき、その結果、コンピュータ読み取り可能な媒体に格納された命令は、フローチャートおよび/またはブロック図の1つまたは複数のブロックまたはモジュールで指定された機能/動作を実行する命令を含む製品を生成する。
コンピュータプログラム命令はまた、コンピュータ、他のプログラマブルデータ処理装置、または他の装置にロードされて、一連の動作ステップがコンピュータ、他のプログラマブル機器、または他の装置で実行されて、コンピュータ、または他のプログラマブル機器で実行する命令がフローチャートおよび/またはブロック図の1つまたは複数のブロックまたはモジュールで指定された機能/動作を実施する処理を提供するように、コンピュータ実施処理を生成する。
本明細書で使用される「プロセッサ」という用語は、例えば、CPU(中央処理装置)および/または他の処理回路を含むものなど、任意の処理装置を含むことを意図している。「プロセッサ」という用語は1つ以上の処理装置を指すことができ、処理装置に関連する様々な要素は、他の処理装置によって共有され得ることも理解されたい。
本明細書で使用される「メモリ」という用語は、例えば、RAM、ROM、固定メモリ装置(例えば、ハードドライブ)、リムーバブルメモリ装置(例えば、ディスケット)、フラッシュメモリなど、プロセッサまたはCPUに関連するメモリを含むことを意図している。このようなメモリは、コンピュータ読み取り可能な記憶媒体と考えることができる。
さらに、本明細書で使用される「入力/出力装置」または「I/O装置」という語句は、例えば、処理ユニットにデータを入力する1つ以上の入力装置(例えば、キーボード、マウス、スキャナなど)、および/または処理ユニットに関連付けられた結果を提示する1つ以上の出力装置(例えば、スピーカ、ディスプレイ、プリンタなど)を含むことが意図される。
以上の説明は、あらゆる点において、限定するものではなく例示的および典型的なものとして理解すべきであり、本明細書において開示されている本発明の範囲は、詳細な説明から決定されてはならず、そうではなく、特許法で許容されるすべての幅に応じて解釈される特許請求の範囲から決定されなければならない。本明細書において示され、かつ、説明された実施形態は、本発明の原理についての単なる例示的なものにすぎないこと、また、当業者は、本発明の範囲および精神から逸脱することなく、様々な修正を加えることができることを理解されたい。当業者は、本発明の範囲および精神から逸脱することなく、様々な他の特徴組合せを実現することが可能である。以上、本発明の態様について、特許法で要求される詳細および特異性と共に説明したが、特許請求され、特許証で保護されることが望ましいものは、添付の特許請求の範囲に説明されている。

Claims (20)

  1. ディープネットワークの潜在的な表現からデータ再構成を防止することによって視覚的なプライベートデータを保護するためプロセッサで実行されるコンピュータ実行方法であって、前記方法は、
    入力画像(312)から潜在的な特徴(316)を取得することと、
    敵対的再構成の学習枠組み(318)を経て、有用な性能を維持し前記データ再構成を防止するためプライバシー保護特徴表現を学習することと、を含み、
    前記データ再構成は、
    前記潜在的な特徴から前記入力画像を再構成するため、復号器(332)をトレーニングすることによってブラックボックスモデル反転攻撃をシミュレートすることと、
    前記タスク損失を最小化しつつ、前記復号器が前記潜在的な特徴を反転するのを防止するため、再構成の誤差を最大化するよう符号器(314)をトレーニングすることと、によって防止される、方法。
  2. 前記潜在的特徴は、さらなる処理のため、クラウド上に送信され記憶される、請求項1に記載の方法。
  3. 前記敵対的再構成の学習枠組みは、有用な損失を最小化することによって、有用なラベルを予測する多層パーセプトロン(MLP)分類器を採用する、請求項1に記載の方法。
  4. 前記有用な損失は、
    Figure 2022505783000022
    によって与えられ、そしてここで、
    Figure 2022505783000023
    において、Yは有用な正解ラベルであり、
    Figure 2022505783000024
    は有用な標準損失であり、Xは入力であり、
    Figure 2022505783000025
    は、プライベートトレーニングデータである、請求項3に記載の方法。
  5. 前記復号器は、前記復号器が再構成の損失を最小化することによって前記符号器の出力を復号化することを学習するように、前記符号器と競合するようにトレーニングされる、請求項4に記載の方法。
  6. 前記再構成の損失は、
    Figure 2022505783000026
    によって与えられ、そしてここで、Xは入力であり、Zは前記符号器の前記出力であり、そして、
    Figure 2022505783000027
    は、プライベートトレーニングデータである、請求項5に記載の方法。
  7. 再構成の品質は、
    Figure 2022505783000028
    によって与えられる知覚的な類似性の損失を使用することによって修正され、そしてここで、Xは入力であり、Zは前記符号器の前記出力であり、そして、
    Figure 2022505783000029
    は、プライベートトレーニングデータである、請求項6に記載の方法。
  8. 保護装置の全体的なトレーニングの目的は、
    Figure 2022505783000030
    によって与えられ、そしてここで、
    Figure 2022505783000031
    は、前記有用な損失、
    Figure 2022505783000032
    は、前記再構成の損失、そして、
    Figure 2022505783000033
    は、前記知覚的な類似性の損失である、請求項7に記載の方法。
  9. ディープネットワークの潜在的な表現からデータ再構成を防止することによって視覚的なプライベートデータを保護するためのコンピュータ読み取り可能なプログラムを含む非一時的なコンピュータ読み取り可能な記憶媒体であって、コンピュータで実行されるとき前記コンピュータ読み取り可能な記憶媒体は、
    入力画像(312)から潜在的な特徴(316)を取得するステップと、
    敵対的再構成の学習枠組み(318)を経て、有用な性能を維持し前記データ再構成を防止するためプライバシー保護特徴表現を学習するステップと、を前記コンピュータに実行させ、
    前記データ再構成は、
    前記潜在的な特徴から前記入力画像を再構成するため、復号器(332)をトレーニングすることによってブラックボックスモデル反転攻撃をシミュレートすることと、
    前記タスク損失を最小化しつつ、前記復号器が前記潜在的な特徴を反転するのを防止するため、再構成の誤差を最大化するよう符号器(314)をトレーニングすることと、によって防止される、非一時的なコンピュータ読み取り可能な記憶媒体。
  10. 前記潜在的特徴は、さらなる処理のため、クラウド上に送信され記憶される、請求項9に記載の非一時的なコンピュータ読み取り可能な記憶媒体。
  11. 前記敵対的再構成の学習枠組みは、有用な損失を最小化することによって、有用なラベルを予測する多層パーセプトロン(MLP)分類器を採用する、請求項9に記載の非一時的なコンピュータ読み取り可能な記憶媒体。
  12. 前記有用な損失は、
    Figure 2022505783000034
    によって与えられ、そしてここで、
    Figure 2022505783000035
    において、Yは有用な正解ラベルであり、
    Figure 2022505783000036
    は有用な標準損失であり、Xは入力であり、
    Figure 2022505783000037
    は、プライベートトレーニングデータである、請求項11に記載の非一時的なコンピュータ読み取り可能な記憶媒体。
  13. 前記復号器は、前記復号器が再構成の損失を最小化することによって前記符号器の出力を復号化することを学習するように、前記符号器と競合するようにトレーニングされる、請求項12に記載の非一時的なコンピュータ読み取り可能な記憶媒体。
  14. 前記再構成の損失は、
    Figure 2022505783000038
    によって与えられ、そしてここで、Xは入力であり、Zは前記符号器の前記出力であり、そして、
    Figure 2022505783000039
    は、プライベートトレーニングデータである、請求項13に記載の非一時的なコンピュータ読み取り可能な記憶媒体。
  15. 再構成の品質は、
    Figure 2022505783000040
    によって与えられる知覚的な類似性の損失を使用することによって修正され、そしてここで、Xは入力であり、Zは前記符号器の前記出力であり、そして、
    Figure 2022505783000041
    は、プライベートトレーニングデータである、請求項14に記載の非一時的なコンピュータ読み取り可能な記憶媒体。
  16. 保護装置の全体的なトレーニングの目的は、
    Figure 2022505783000042
    によって与えられ、そしてここで、
    Figure 2022505783000043
    は、前記有用な損失、
    Figure 2022505783000044
    は、前記再構成の損失、そして、
    Figure 2022505783000045
    は、前記知覚的な類似性の損失である、請求項15に記載の非一時的なコンピュータ読み取り可能な記憶媒体。
  17. ディープネットワークの潜在的な表現からデータ再構成を防止することによって視覚的なプライベートデータを保護するシステムであって、前記システムは、
    メモリと、
    前記メモリと通信する1つ以上のプロセッサとを含み、前記プロセッサは、
    入力画像(312)から潜在的な特徴(316)を取得し、
    敵対的再構成の学習枠組み(318)を経て、有用な性能を維持し前記データ再構成を防止するためプライバシー保護特徴表現を学習するよう構成されており、
    前記データ再構成は、
    前記潜在的な特徴から前記入力画像を再構成するため、復号器(332)をトレーニングすることによってブラックボックスモデル反転攻撃をシミュレートすることと、
    前記タスク損失を最小化しつつ、前記復号器が前記潜在的な特徴を反転するのを防止するため、再構成の誤差を最大化するよう符号器(314)をトレーニングすることと、によって防止される、システム。
  18. 前記敵対的再構成の学習枠組みは、
    Figure 2022505783000046
    によって与えられえる有用な損失を最小化することによって、有用なラベルを予測する多層パーセプトロン(MLP)分類器を採用し、そしてここで、
    Figure 2022505783000047
    において、Yは有用な正解ラベルであり、
    Figure 2022505783000048
    は有用な標準損失であり、Xは入力であり、
    Figure 2022505783000049
    は、プライベートトレーニングデータである、請求項17に記載のシステム。
  19. 前記復号器は、前記復号器が
    Figure 2022505783000050
    によって与えられる再構成の損失を最小化することによって前記符号器の出力を復号化することを学習するように、前記符号器と競合するようにトレーニングされ、そしてここで、Xは入力であり、Zは前記符号器の前記出力であり、そして、
    Figure 2022505783000051
    は、プライベートトレーニングデータである、請求項18に記載のシステム。
  20. 再構成の品質は、
    Figure 2022505783000052
    によって与えられる知覚的な類似性の損失を使用することによって修正され、そしてここで、Xは入力であり、Zは前記符号器の前記出力であり、そして、
    Figure 2022505783000053
    は、プライベートトレーニングデータである、請求項19に記載のシステム。
JP2021522444A 2018-11-07 2019-11-06 敵対的学習を経たプライバシー保護の視覚的認識 Pending JP2022505783A (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201862756765P 2018-11-07 2018-11-07
US62/756,765 2018-11-07
US201962878786P 2019-07-26 2019-07-26
US62/878,786 2019-07-26
US16/674,425 US11520923B2 (en) 2018-11-07 2019-11-05 Privacy-preserving visual recognition via adversarial learning
US16/674,425 2019-11-05
PCT/US2019/060037 WO2020097182A1 (en) 2018-11-07 2019-11-06 Privacy-preserving visual recognition via adversarial learning

Publications (1)

Publication Number Publication Date
JP2022505783A true JP2022505783A (ja) 2022-01-14

Family

ID=70459959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021522444A Pending JP2022505783A (ja) 2018-11-07 2019-11-06 敵対的学習を経たプライバシー保護の視覚的認識

Country Status (4)

Country Link
US (1) US11520923B2 (ja)
JP (1) JP2022505783A (ja)
DE (1) DE112019005565T5 (ja)
WO (1) WO2020097182A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111771216A (zh) * 2018-12-17 2020-10-13 索尼公司 学习装置、识别装置、以及程序
US11449797B1 (en) * 2019-09-23 2022-09-20 Amazon Technologies, Inc. Secure machine learning workflow automation using isolated resources
CN111666588B (zh) * 2020-05-14 2023-06-23 武汉大学 一种基于生成对抗网络的情绪差分隐私保护方法
WO2021229791A1 (ja) 2020-05-15 2021-11-18 日本電気株式会社 機械学習装置、機械学習システム、機械学習方法及びプログラム
CN111768792B (zh) * 2020-05-15 2024-02-09 天翼安全科技有限公司 基于卷积神经网络和领域对抗学习的音频隐写分析方法
CN111709515B (zh) * 2020-05-29 2022-07-12 西安交通大学 一种基于频率带的对抗攻击深度神经网络的方法
CN111724443B (zh) * 2020-06-09 2022-11-08 中国科学院自动化研究所 基于生成式对抗网络的统一场景视觉定位方法
GB2597111A (en) * 2020-07-14 2022-01-19 Carv3D Ltd Computer vision method and system
US20230351250A1 (en) 2020-08-19 2023-11-02 Nec Corporation Machine learning system, method, inference apparatus and computer-readable storage medium
CN112488172B (zh) * 2020-11-25 2022-06-21 北京有竹居网络技术有限公司 对抗攻击的方法、装置、可读介质和电子设备
CN114549951B (zh) * 2020-11-26 2024-04-23 未岚大陆(北京)科技有限公司 获得训练数据的方法、相关设备、系统及存储介质
US20220172416A1 (en) * 2020-12-02 2022-06-02 De-Identification Ltd. System and method for performing facial image anonymization
CN113066094B (zh) * 2021-03-09 2024-01-30 中国地质大学(武汉) 一种基于生成对抗网络的地理栅格智能化局部脱敏方法
GB2605434B (en) * 2021-03-31 2023-09-20 British Telecomm Classification model evaluation
CN113657350A (zh) * 2021-05-12 2021-11-16 支付宝(杭州)信息技术有限公司 人脸图像处理方法及装置
CN113255579B (zh) * 2021-06-18 2021-09-24 上海建工集团股份有限公司 一种施工监测异常采集数据自动识别与处理的方法
CN113723358A (zh) * 2021-09-15 2021-11-30 中国电子科技集团公司第三十六研究所 基于生成对抗网络的对抗信号检测方法、装置及电子设备
CN114187668B (zh) * 2021-12-15 2024-03-26 长讯通信服务有限公司 一种基于正样本训练的人脸静默活体检测方法及装置
CN114298997B (zh) * 2021-12-23 2023-06-02 北京瑞莱智慧科技有限公司 一种伪造图片检测方法、装置及存储介质
CN114943995A (zh) * 2022-05-12 2022-08-26 北京百度网讯科技有限公司 人脸识别模型的训练方法、人脸识别方法及装置
CN116881954B (zh) * 2023-09-07 2024-02-02 苏州慧睿康智能科技有限公司 一种基于对抗生成覆盖策略的医疗影像数据安全销毁方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007328502A (ja) * 2006-06-07 2007-12-20 Hitachi Information & Control Solutions Ltd 生体認証方法及びシステム
JP6352512B1 (ja) * 2017-08-22 2018-07-04 株式会社 ディー・エヌ・エー 信号処理装置、信号処理方法、信号処理プログラム、及びデータ構造

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1757006A2 (en) 2004-06-01 2007-02-28 Ben-Gurion University of the Negev Research and Development Authority Structure preserving database encryption method and system
US8848924B2 (en) 2008-06-27 2014-09-30 University Of Washington Privacy-preserving location tracking for devices
US8555400B2 (en) 2011-02-04 2013-10-08 Palo Alto Research Center Incorporated Privacy-preserving aggregation of Time-series data
US8667292B2 (en) 2011-05-19 2014-03-04 Microsoft Corporation Privacy-preserving metering with low overhead
WO2015134665A1 (en) 2014-03-04 2015-09-11 SignalSense, Inc. Classifying data with deep learning neural records incrementally refined through expert input
EP3420475B1 (en) * 2016-02-22 2020-11-18 Tata Consultancy Services Limited Systems and methods for computing data privacy-utility tradeoff
GB201610883D0 (en) * 2016-06-22 2016-08-03 Microsoft Technology Licensing Llc Privacy-preserving machine learning
US10387765B2 (en) 2016-06-23 2019-08-20 Siemens Healthcare Gmbh Image correction using a deep generative machine-learning model

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007328502A (ja) * 2006-06-07 2007-12-20 Hitachi Information & Control Solutions Ltd 生体認証方法及びシステム
JP6352512B1 (ja) * 2017-08-22 2018-07-04 株式会社 ディー・エヌ・エー 信号処理装置、信号処理方法、信号処理プログラム、及びデータ構造

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JIAWEI CHEN, 外2名: ""VGAN-Based Image Representation Learning for Privacy-Preserving Facial Expression Recognition"", 2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS (CVPRW), JPN6022022119, 22 June 2018 (2018-06-22), US, pages 1651 - 1660, XP033475508, ISSN: 0004794037, DOI: 10.1109/CVPRW.2018.00207 *
XUANER ZHANG, 外2名: ""Single Image Reflection Separation with Perceptual Losses"", 2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, JPN6022022123, 23 June 2018 (2018-06-23), US, pages 4786 - 4794, ISSN: 0004794038 *
福井宏, 外5名: ""プライバシーに配慮したDeep Convolutional Neural Networkによるクラ", 第22回 画像センシングシンポジウム, JPN6022022114, 8 June 2016 (2016-06-08), JP, ISSN: 0004794036 *

Also Published As

Publication number Publication date
DE112019005565T5 (de) 2021-07-22
WO2020097182A1 (en) 2020-05-14
US11520923B2 (en) 2022-12-06
US20200143079A1 (en) 2020-05-07

Similar Documents

Publication Publication Date Title
JP2022505783A (ja) 敵対的学習を経たプライバシー保護の視覚的認識
US11978245B2 (en) Method and apparatus for generating image
Sajjad et al. Mobile-cloud assisted framework for selective encryption of medical images with steganography for resource-constrained devices
US10691928B2 (en) Method and apparatus for facial recognition
CN114144781A (zh) 身份验证和管理系统
US20210319897A1 (en) Multimodal analysis combining monitoring modalities to elicit cognitive states and perform screening for mental disorders
Lee et al. Underwater image enhancement using successive color correction and superpixel dark channel prior
WO2021023249A1 (zh) 推荐理由的生成
CN110427899B (zh) 基于人脸分割的视频预测方法及装置、介质、电子设备
Jain et al. Improved Security of E-Healthcare Images Using Hybridized Robust Zero-Watermarking and Hyper-Chaotic System along with RSA
CN110874571A (zh) 人脸识别模型的训练方法及装置
WO2019118236A1 (en) Deep learning on image frames to generate a summary
JP2023500028A (ja) パーソナライズされた自動ビデオクロッピング
KR20200039814A (ko) 영상 캡쳐 장치에 의해 이전에 캡쳐된 비디오 데이터에 기초하여 영상 캡쳐 장치에 의한 비디오 데이터의 캡쳐를 수정
Faheem et al. Image watermarking using least significant bit and canny edge detection
CN110889140A (zh) 一种数据处理方法及存储介质
KR20230128812A (ko) 교차 모달 학습 기반의 감정 추론 시스템 및 방법
Awasthi et al. BacterialWmark: telemedicine watermarking technique using bacterial foraging for smart healthcare system
Datta et al. Robust data hiding scheme for highly compressed image exploiting btc with hamming code
WO2023177562A1 (en) Resolution-based video encoding
KR20150115762A (ko) 호기심 많은 추천자로부터의 프라이버시 보호
US20220327663A1 (en) Video Super-Resolution using Deep Neural Networks
CN117218507A (zh) 图像处理模型训练方法、图像处理方法、装置及电子设备
WO2022178975A1 (zh) 基于噪声场的图像降噪方法、装置、设备及存储介质
US20190114713A1 (en) Real-time benefit eligibility evaluation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230105