JP2016535898A - 結託および合成を考慮した効用対応プライバシー保護写像のための方法および装置 - Google Patents

結託および合成を考慮した効用対応プライバシー保護写像のための方法および装置 Download PDF

Info

Publication number
JP2016535898A
JP2016535898A JP2016536078A JP2016536078A JP2016535898A JP 2016535898 A JP2016535898 A JP 2016535898A JP 2016536078 A JP2016536078 A JP 2016536078A JP 2016536078 A JP2016536078 A JP 2016536078A JP 2016535898 A JP2016535898 A JP 2016535898A
Authority
JP
Japan
Prior art keywords
data
boundary
public
privacy
private
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2016536078A
Other languages
English (en)
Other versions
JP2016535898A5 (ja
Inventor
ファワズ ナディア
ファワズ ナディア
マクドウミ カカーキ アバサリ
マクドウミ カカーキ アバサリ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2016535898A publication Critical patent/JP2016535898A/ja
Publication of JP2016535898A5 publication Critical patent/JP2016535898A5/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Bioethics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Storage Device Security (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Mathematical Physics (AREA)
  • Mathematical Analysis (AREA)
  • Operations Research (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Algebra (AREA)
  • Evolutionary Biology (AREA)
  • Automation & Control Theory (AREA)
  • Bioinformatics & Cheminformatics (AREA)

Abstract

本実施形態は、いくつかの効用を得ることを期待して、彼のプライベートデータと相関関係がある、いくつかのパブリックデータを分析者に公開することを願うユーザによって直面されるプライバシー効用トレードオフに焦点を当てる。多数のデータが1又は複数の分析者に公開されるとき、我々は分散化された様式でプライバシー保護写像を設計する。特に、各プライバシー保護写像は、公開されるデータのそれぞれからの推論に対して別個に保護するように設計される。分散化は、多くの変数を有する1つの大きな最適化問題を、より少ない変数を有するいくつかのより小さい最適化に分解することによって、設計を単純にする。

Description

本発明は、プライバシーを保護するための方法および装置に関し、より詳細には、結託(collusion)または合成を考慮したユーザデータのプライバシーを保護するための方法および装置に関する。
関連出願の相互参照
本出願は、あらゆる目的で参照によりその全体が本明細書に組み込まれる、2013年8月19日に出願された米国特許仮出願第61/867,544号明細書、名称「Method and Apparatus for Utility−Aware Privacy Preserving Mapping in View of Collusion and Composition」の出願日の利益を主張する。
本出願は、2012年8月20日に出願された米国特許仮出願第61/691,090号明細書、名称「A Framework for Privacy against Statistical Inference」(以下、「Fawaz」)に関連付けられる。この仮出願は、明示的に参照によりその全体が本明細書に組み込まれる。
加えて、本出願は、以下の出願、(1)代理人整理番号第PU130120号、名称「Method and Apparatus for Utility−Aware Privacy Preserving Mapping against Inference Attacks」、および(2)代理人整理番号第PU130122号、名称「Method and Apparatus for Utility−Aware Privacy Preserving Mapping through Additive Noise」に関連付けられ、これらは、同一譲受人に譲渡され、それら全体が参照により組み込まれ、本明細書と共に出願される。
ビッグデータの時代において、ユーザデータの収集およびマイニングは、多数の民間および公共機関により、急速に成長している一般的行為となっている。たとえば、技術会社は、ユーザデータを利用してそれらの顧客に個別化されたサービスを提供し、政府機関は、データに依拠して、様々な課題、たとえば、国家安全保障、国民健康、予算および基金配分に取り組み、または医療機関は、データを分析して病気の発端および潜在的治療法を発見する。場合によっては、ユーザのデータの収集、分析または第三者との共有は、ユーザの同意または認識なしに行われる。他の場合、データは、見返りにサービスを得るために、ユーザによって特定の分析者に自発的に公開され、たとえば、推奨を得るために製品評価が公開される。ユーザのデータにアクセスすることを許可することからユーザが得るこのサービスまたは他の利益は、効用(utility)と呼ばれることがある。いずれの場合も、プライバシーリスクが生じ、その理由は、収集されたデータの一部は、センシティブ(sensitive)であるとユーザがみなすことがある(たとえば、政治的意見、健康状態、所得レベル)、または、一見無害に見えることがある(たとえば、製品評価)が、それが相関付けられたよりセンシティブなデータの推定につながるからである。後者の脅威は、推論攻撃、すなわち、プライベートデータを、それの公然と公開されるデータ(released data)との相関を利用することによって推論する技法を指す。
本原理は、ユーザに関するユーザデータを処理するための方法であって、プライベートデータ、第1のパブリックデータ、および第2のパブリックデータを含む上記ユーザデータにアクセスするステップであって、上記第1のパブリックデータは、第1のカテゴリのデータに対応し、上記第2のパブリックデータは、第2のカテゴリのデータに対応する、ステップと、上記プライベートデータと第1の公開されるデータおよび第2の公開されるデータとの間の第1の情報漏出境界を決定するステップと、上記第1の情報漏出境界に応じて、上記プライベートデータと上記第1の公開されるデータとの間の第2の情報漏出境界、および上記プライベートデータと上記第2の公開されるデータとの間の第3の情報漏出境界を決定するステップと、上記第2の境界に応じて上記第1の公開されるデータに上記第1のカテゴリのデータを写像する第1のプライバシー保護写像、および上記第3の境界に応じて上記第2の公開されるデータに上記第2のカテゴリのデータを写像する第2のプライバシー保護写像を決定するステップと、上記第1の公開されるデータおよび上記第2の公開されるデータを形成するために、それぞれ、上記第1のプライバシー保護写像および上記第2のプライバシー保護写像に基づいて、上記ユーザに関する上記第1のパブリックデータおよび上記第2のパブリックデータを修正するステップと、後述されるように、上記修正された第1のパブリックデータおよび第2のパブリックデータを、サービスプロバイダとデータ収集エージェンシとの少なくとも一方へ公開するステップと、を含む、上記方法を提供する。本原理はまた、これらのステップを実施するための装置を提供する。
本原理はまた、ユーザに関するユーザデータを処理するための方法であって、プライベートデータ、第1のパブリックデータ、および第2のパブリックデータを含む上記ユーザデータにアクセスするステップであって、上記第1のパブリックデータは、第1のカテゴリのデータに対応し、上記第2のパブリックデータは、第2のカテゴリのデータに対応する、ステップと、上記プライベートデータと第1の公開されるデータおよび第2の公開されるデータとの間の第1の情報漏出境界を決定するステップと、上記第1の情報漏出境界に応じて、上記プライベートデータと上記第1の公開されるデータとの間の第2の情報漏出境界、および上記プライベートデータと上記第2の公開されるデータとの間の第3の情報漏出境界を決定するステップであって、上記第2の境界および上記第3の境界のそれぞれは、上記第1の境界と実質的に等しい、ステップと、上記第2の境界に応じて上記第1の公開されるデータに上記第1のカテゴリのデータを写像する第1のプライバシー保護写像、および上記第3の境界に応じて上記第2の公開されるデータに上記第2のカテゴリのデータを写像する第2のプライバシー保護写像を決定するステップと、上記第1の公開されるデータおよび上記第2の公開されるデータを形成するために、それぞれ、上記第1のプライバシー保護写像および上記第2のプライバシー保護写像に基づいて、上記ユーザに関する上記第1のパブリックデータおよび上記第2のパブリックデータを修正するステップと、後述されるように、上記修正された第1のパブリックデータおよび第2のパブリックデータを、サービスプロバイダとデータ収集エージェンシとの少なくとも一方へ公開するステップと、を含む、上記方法を提供する。本原理はまた、これらのステップを実行するための装置を提供する。
本原理はまた、上述された上記方法による、ユーザに関するユーザデータを処理するための命令を格納したコンピュータ可読記憶媒体を提供する。
結託および合成を示す図例である。 本原理の実施形態による、プライバシーを保護するための例示的方法を示すフロー図である。 本原理の実施形態による、プライバシーを保護するための別の例示的方法を示すフロー図である。 本原理の実施形態による、例示的プライバシーエージェントを示すブロック図である。 本原理の実施形態による、複数のプライバシーエージェントを有する例示的システムを示すブロック図である。
差分プライバシーが生じるデータベースおよび暗号文において、焦点はアルゴリズムに関するものとなっている。特に、研究者は、推論アルゴリズム、転送、およびデータ問合わせのためのプライバシー保護機構を設計するために差分プライバシーを使用している。より最近の研究は、統計的推論と差分プライバシーとの関係に焦点を当てている。差分プライバシーは情報漏出の制限を保証しないことが示されている。差分プライバシーに類似する他のフレームワーク、たとえば、Pufferfishフレームワーク(たとえば、D.Kifer and A.Machanavajjhalaによる記事、”A rigorous and customizable framework for privacy,” in ACM PODS,2012を参照)が存在するが、これは効用保護に焦点を当てていない。
多くのアプローチは、情報理論的技法に依拠して、プライバシー精度トレードオフをモデリングおよび分析する。これらの情報理論的モデルのほとんどは、主にデータベースのエントリの全部または一部についての集団的プライバシーに焦点を当てており、出力公開後のデータベースエントリごとの平均残余不確実性または入力変数ごとの曖昧度に対する漸近的保証を提供する。対照的に、本出願で検討されるフレームワークは、公開された出力を観測することによって分析者が達成する情報漏出に対する境界の観点でプライバシーを提供する。
我々は、Fawazに説明された設定を検討し、この設定では、ユーザが、相関付けられた2種類のデータを有し、すなわち、ユーザがプライベートのままにしたい一部のデータと、ユーザが分析者に積極的に公開し、そこからユーザがある種の効用を得られ得る、たとえば、メディア選好をサービスプロバイダに公開して、より精密なコンテンツ推奨を受け取る、一部の非プライベートデータとを有する。
本出願で使用されるとき、分析者という用語は、たとえば、サービスプロバイダのシステムの一部であってよく、ユーザへの効用を提供するためにデータを表向き使用する、公開されるデータの受信者を指す。多くの場合、分析者は、公開されるデータの正当な受信者である。しかしながら、分析者が、公開されるデータを不法に利用し、ユーザのプライベートデータに関するある種の情報を推論する可能性もあり得る。これは、プライバシーと効用の必要条件の間の緊張をもたらす。効用を保持しながら推論脅威を低減するために、ユーザは、効用制約下で設計された「プライバシー保護写像(privacy preserving mapping)」と呼ばれる条件付き確率的写像によって生成されたデータの「歪められたバージョン」を公開することができる。
本出願において、我々は、ユーザがプライベートのままにしたいデータを「プライベートデータ」と呼び、ユーザが積極的に公開しようとするデータを「パブリックデータ」と呼び、ユーザが実際に公開するデータを「公開されるデータ(released data)」と呼ぶ。たとえば、ユーザは、ユーザの政治的意見をプライベートに維持したいことがあり、修正を伴うユーザのTV評価を積極的に公開する(たとえば、番組に関するユーザの実際の評価は4であるが、ユーザは評価を3として公開する)。この場合、ユーザの政治的意見はこのユーザのプライベートデータとみなされ、TV評価はパブリックデータとみなされ、公開された修正されたTV評価は公開されるデータとみなされる。別のユーザが政治的意見とTV評価の両方を修正なしに積極的に公開しようとすることもあり、したがって、この他のユーザの場合、政治的意見とTV評価のみが考慮されるとき、プライベートデータ、パブリックデータ、および公開されるデータの間の区別がないことに留意されたい。多くの人々が政治的意見およびTV評価を公開する場合、分析者は、政治的意見とTV評価との間の相関を得ることができ、したがって、それをプライベートに維持したいユーザの政治的意見を推論できることがある。
プライベートデータに関して、これは、公然と公開されるべきでないことをユーザが示すのみならず、ユーザが公開することになる他のデータから推論されたくもないデータを指す。パブリックデータは、場合によってはプライベートデータの推論を防止するために歪められた方法で、プライバシーエージェントが公開することをユーザが許可するデータである。
一実施形態では、パブリックデータは、ユーザにサービスを提供するためにサービスプロバイダがユーザに要求するデータである。しかしながら、ユーザは、それをサービスプロバイダに公開する前に、それを歪める(すなわち修正する)。別の実施形態では、パブリックデータは、公開がプライベートデータの推論を防止する形態をとる限りはユーザがそれを公開するのを気にしないという意味で「パブリック」であるとユーザが示すデータである。
上述されたように、特定のカテゴリのデータがプライベートデータとみなされるかそれともパブリックデータとみなされるかは、特定のユーザの視点に基づく。表記を簡単にするために、我々は、特定のカテゴリのデータを、現在のユーザの視点から、プライベートデータまたはパブリックデータと呼ぶ。たとえば、自身の政治的意見をプライベートに維持したい現在のユーザに関するプライバシー保護写像を設計しようとするとき、我々は、現在のユーザと、自身の政治的意見を積極的に公開しようとする別のユーザとの両方に関して、政治的意見をプライベートデータと呼ぶ。
本原理では、我々は、公開されるデータとパブリックデータとの間の歪みを、効用の測度として使用する。歪みがより大きいとき、公開されるデータは、よりいっそうパブリックデータとは異なり、よりプライバシーが保護されるが、歪められたデータから得られる効用は、ユーザにとって、より小さくなり得る。他方で、歪みがより小さいとき、公開されるデータは、パブリックデータのより精密な表現となり、ユーザは、より大きい効用、たとえば、より精密なコンテンツ推奨を受け取る可能性がある。
一実施形態では、統計的推論に対してプライバシーを保護するために、我々は、歪み制約を受けるプライベートデータと公開されるデータとの間の相互情報量として定義される情報漏出を最小化する最適化問題を解くことにより、プライバシー効用トレードオフをモデリングし、プライバシー保護写像を設計する。
Fawazでは、プライバシー保護写像を求めることは、プライベートデータと公開されるデータとをリンクする事前同時分布(prior joint distribution)が知られていて最適化問題に対する入力として提供され得るという基本的仮定に依拠する。実際には、真の事前分布は知られていなくてよく、いくつかの事前統計値が、観測され得るサンプルデータのセットから推定されてよい。たとえば、事前同時分布は、プライバシーの懸念を持たず、異なるカテゴリのデータを公然と公開するユーザのセットから推定されてよく、それらのデータは、彼らのプライバシーを懸念するユーザによってプライベートデータまたはパブリックデータとみなされ得る。あるいは、プライベートデータが観測できないとき、公開されるべきパブリックデータの周辺分布、または単純にその2次統計値が、彼らのパブリックデータのみを公開するユーザのセットから推定され得る。このサンプルのセットに基づいて推定された統計値は、次いで、彼らのプライバシーを懸念する新しいユーザに適用されるプライバシー保護写像機構を設計するために使用される。実際には、たとえば、観測可能サンプルが少数のため、または観測可能データの不完全性のため、推定された事前統計値と真の事前統計値との間の不一致が存在することもある。
問題を定式化するために、パブリックデータは、確率分布Pxを有する確率変数
Figure 2016535898
によって示される。Xは、確率変数
Figure 2016535898
によって示されるプライベートデータと相関付けられる。SとXの相関は、同時分布PS,Xによって定義される。確率変数
Figure 2016535898
によって示される公開されるデータは、Xの歪められたバージョンである。Yは、XをカーネルPY|Xに通すことによって実現される。本出願では、用語「カーネル」は、データXをデータYに確率的に写像する条件付き確率を指す。すなわち、カーネルPY|Xは、我々が設計するのを望むプライバシー保護写像である。Yは、Xのみの確率的関数であるので、本出願では、我々は、S→X→Yがマルコフ連鎖を形成すると仮定する。したがって、PY|Xを定義すると、同時分布PS,X,Y=PY|XS,X、特に同時分布PS,Yが得られる。
以下では、我々は、まずプライバシー概念を定義し、次いで精度概念を定義する。
定義1.S→X→Yを仮定する。カーネルPY|Xは、同時分布PS,X,Y=PY|XS,Xから得られる分布PS,Yが以下の式を満たす場合、ε−発散プライベートと呼ばれる。
Figure 2016535898
上式において、D(.)はK−L発散であり、
Figure 2016535898
は確率変数の期待値であり、H(.)はエントロピーであり、ε∈[0,1]は漏出係数と呼ばれ、相互情報量I(S;Y)は情報漏出を表す。
我々は、ε=0の場合に、機構が完全プライバシーを有すると言う。極値の場合、ε=0は、公開された確率変数Yがプライベート確率変数Sから独立していることを暗示し、ε=1は、SがYから完全に復元可能である(SはYの確定関数である)ことを暗示する。Yは、完全にSから独立して完全プライバシーを有する(ε=0)と仮定することができるが、これは、低い精度レベルをもたらす可能性があることに留意されたい。我々は、精度を以下のように定義する。
定義2.
Figure 2016535898
を歪み測度とする。カーネルPY|Xは、
Figure 2016535898
であるならば、D−精度があると呼ばれる。
任意の歪み測定基準、たとえば、XおよびYがバイナリベクトルである場合にハミング距離、XおよびYが実ベクトルの場合にユークリッドノルム、または、ユーザがXの代わりにYの公開から得る効用の変動をモデリングするさらに複雑な測定基準が使用されてもよいことに留意されたい。後者は、たとえば、ユーザの真の選好Xの代わりにユーザの歪められたメディア選好Yの公開に基づいてユーザに推奨されるコンテンツの品質の差を表すことができる。
プライバシー保護写像の漏出係数εと歪みレベルDとの間にトレードオフがある。一実施形態では、我々の目的は、効用制約が与えられたとして、推論され得るプライベート情報の量を制限することである。プライベートデータと公開されるデータとの間の情報漏出によって推論が測定され、パブリックデータと公開されるデータとの間の歪みによって効用が示されるとき、目的は、歪み制約が与えられたとして、最大情報漏出I(S;Y)を最小化する確率写像PY|Xを求めるように数学的に定式化することができ、最大値は、以下のようにプライバシーエージェントで入手可能な分布PS,Xの統計的知識の不確実性において得られる:
Figure 2016535898
確率分布PS,Yは、同時分布PS,X,Y=PY|XS,X=PY|XS|XXから得ることができる。
以下で、我々は、最大相関と呼ばれる統計的推論のいくつかの技法に基づいて、歪み制約を受けるプライバシーを達成する(すなわち情報漏出を最小化する)方式を提案する。我々は、この理論を使用して、同時確率測度PS,Xの完全な知識なしにプライバシー保護写像をどのように設計できるかを示す。特に、我々は、情報漏出に関する可分結果(separability result)を証明し、より詳細には、カーネルPY|Xによって決定されるI(S;Y)倍の最大相関係数の観点での情報漏出の上限境界(upper bound)を提供する。これは、同時確率測度PS,Xの完全な知識なしに最適写像を定式化することを可能にする。
次に、我々は、分離結果(decoupling result)を記述する際に使用される定義を提供する。
定義3.所与の同時分布PX,Yについて、
Figure 2016535898
として、式中、r(y)は、Yに対するp(y|x)r(x)の限界測度である。
発散に関するデータ処理不等式により、S*(X;Y)≦1であることに留意されたい。以下は、V.Anantharam,A.Gohari,S.Kamath,and C.Nairによる記事、”On maximal correlation,hypercontractivity,and the data processing inequality studied by Erkip and Cover,” arXiv preprint arXiv:1304.6133,2013(以下、「Anantharam」)による結果である。
定理1.S→X→Yがマルコフ連鎖を形成する場合、以下の境界が成立し:
I(S;Y)≦S*(X;Y)I(S;X) (6)
境界は、Sを変化させるときにタイト(tight)である。換言すると、I(S;X)≠0を仮定して、
Figure 2016535898
が得られる。
定理1は、YおよびSの依存関係を2つの項に分離し、1つはSおよびXを関係付け、1つはXおよびYを関係付ける。したがって、XおよびYを関係付ける項を最小化することによって、PS,Xを知らなくても、情報漏出に上限境界を付けることができる。我々の問題におけるこの結果の適用は、以下のようになる。
我々が、PS,Xが既知でなく、あるΔ∈[0,H(S)]についてI(S;X)≦Δである状況にあると仮定する。I(S;X)は、我々が制御を有しないSに関するXに埋め込まれた固有情報である。Δの値は、我々が求める写像に影響しないが、Δの値は、この写像からもたらされる(漏出係数の観点で)プライバシー保証であると我々が考えるものに影響する。Δ境界がタイトである場合、プライバシー保証がタイトとなる。Δ境界がタイトでない場合、我々は、目的の漏出係数に実際に必要であるよりも大きい歪みを受けることがあるが、これは、プライバシー保証に影響しない。
定理1を使用すると、
Figure 2016535898
が得られる。
したがって、最適化問題は、以下の目的関数を最小化するPY|Xを求めることとなる:
Figure 2016535898
この最適化問題をより詳細に検討するために、我々は、最大相関文献のいくつかの結果を吟味する。最大相関(またはRenyi相関)は、情報理論とコンピュータサイエンスの両方で用途を有する2つの確率変数の間の相関の測度である。以下では、我々は、最大相関を定義し、そのS*(X;Y)との関係を提供する。
定義4.2つの確率変数XおよびYが与えられたとして、(X,Y)の最大相関は、
Figure 2016535898
となり、式中、τは、
Figure 2016535898
かつ
Figure 2016535898
となるような、実数値の確率変数f(x)およびg(y)の対の集合である。
この測度は、最初にHirschfeld(H.O.Hirschfeld,”A connection between correlation and contingency,” in Proceedings of the Cambridge Philosophical Society,vol.31)およびGebelein(H.Gebelein,”Das statistische Problem der Korrelation als Variations− und Eigenwert−problem und sein Zusammenhang mit der Ausgleichungsrechnung,” Zeitschrift fur angew.Math.und Mech.21,pp.364−379 (1941))によって導入され、次いで、Renyi(A.Renyi,”On measures of dependence,” Acta Mathematica Hungarica,vol.10,No.3)によって研究された。最近、AnantharamらおよびKamathら(S.Kamath and V.Anantharam,”Non−interactive simulation of joint distributions:The hirschfeld−gebelein−renyi maximal correlation and the hypercontractivity ribbon,” in Communication,Control,and Computing (Allerton),2012 50th Annual Allerton Conference on(以下、「Kamath」))が、最大相関を研究し、この量の幾何学的解釈を提供した。以下は、R.Ahlswede and P.Gacsによる記事、”Spreading of sets in product spaces and hypercontraction of the markov operator,” The Annals of Probability(以下、Ahlswede)の結果である:
Figure 2016535898
(8)に(10)を代入すると、プライバシー保護写像は、
Figure 2016535898
の解である。
エントリ
Figure 2016535898
を有するマトリックスQの2番目に大きい特異値によって最大相関ρm(X;Y)が特徴付けられることが、H.S.Witsenhausenの記事、”On sequences of pairs of dependent random variables,” SIAM Journal on Applied Mathematics,vol.28,no.1に示されている。最適化問題は、マトリックスの特異値を求めるためのべき乗法アルゴリズムまたはランチョスアルゴリズムによって解くことができる。
上記では、我々は、定理1における可分結果を使用してプライバシー保護写像がどのように設計され得るかを論じている。上記に論じられた方法は、1または複数の分析者に対する複数のデータの公開が行われるときに生じるプライバシー保護写像機構の設計における新しい課題に対処するために使用され得る技法のうちのいくつかである。本出願では、我々は、結託または合成を考慮したプライバシー写像機構を提供する。
以下では、我々は、結託および合成に照らして課題を定義する。
結託:プライベートデータSは、2つのパブリックデータX1およびX2と相関付けられる。2つのプライバシー保護写像がこれらのパブリックデータ上に適用されて、2つの公開されるデータY1およびY2がそれぞれ得られ、次いで、それらは2つの分析者に公開される。我々は、分析者がY1およびY2を共有するとき、Sにおける累積的プライバシー保証を分析することを望む。本出願では、我々は、Y1およびY2を共有する分析者を結託エンティティとも呼ぶ。
我々は、2つのプライバシー保護写像が分散化された様式で設計される場合に焦点を当てる。すなわち、各プライバシー保護写像は、公開されるデータのそれぞれからのSの推論に対して別個に保護するように設計される。分散化は、多くの変数を有する1つの大きな最適化(結合設計)を、より少ない変数を有するいくつかのより小さい最適化に分解することによって、設計を単純にする。
合成:プライベートデータSは、同時確率分布P(S;X1;X2)を介してパブリックデータX1およびX2と相関付けられる。我々は、別個に2つのプライバシー保護写像を設計することができ、一方の写像はX1をY1に変換し、他方の写像はX2をY2に変換することを仮定する。分析者は、対(X1,X2)を要求する。我々は、これら2つの別個のプライバシー写像を再使用して、やはりあるレベルのプライバシーを保証する、対(X1,X2)に対するプライバシー保護写像を生成することを望む。
図1は、以下の結託および合成の例を提供する。
−例1:単一のプライベートデータおよび複数のパブリックデータが考慮されるときの結託
−例2:複数のプライベートデータおよび複数のパブリックデータが考慮されるときの結託
−例3:単一のプライベートデータおよび複数のパブリックデータが考慮されるときの合成
−例4:複数のプライベートデータおよび複数のパブリックデータが考慮されるときの合成
例1では、プライベートデータSが、2つのパブリックデータX1およびX2と相関付けられる。この例では、我々は、政治的意見をプライベートデータS、TV評価をパブリックデータX1、スナック評価をパブリックデータX2とみなす。2つのプライバシー保護写像がこれらのパブリックデータ上に適用されて、2つのエンティティに提供される2つの公開されるデータY1およびY2がそれぞれ得られる。たとえば、歪められたTV評価(Y1)がネットフリックス(Netflix)に提供され、歪められたスナック評価(Y2)がクラフトフーズ(Kraft Foods)に提供される。プライバシー保護写像は、分散化された様式で設計される。プライバシー保護写像方式のそれぞれは、Sを対応する分析者から保護するように設計される。ネットフリックスが情報(Y1)をクラフト(Y2)と交換する場合、ユーザのプライベートデータ(S)は、それらがY1またはY2のみに依存する場合よりも精度良く回復され得る。我々は、分析者がY1およびY2を共有するときにプライバシー保証を分析することを望む。この例では、ネットフリックスは、TV評価に関する情報の正当な受信者であるが、スナック評価についてはそうでなく、クラフトフーズは、スナック評価に関する情報の正当な受信者であるが、TV評価についてはそうでない。しかしながら、それらは、ユーザのプライベートデータに関してより多く推論するために情報を共有し得る。
例2では、プライベートデータS1がパブリックデータX1と相関付けられ、プライベートデータS2がパブリックデータX2と相関付けられる。この例では、我々は、所得をプライベートデータS1、性別をプライベートデータS2、TV評価をパブリックデータX1、スナック評価をパブリックデータX2とみなす。2つのプライバシー保護写像がこれらのパブリックデータ上に適用されて、2つの分析者に提供される2つの公開されるデータY1およびY2がそれぞれ得られる。
例3では、プライベートデータSが、同時確率分布
Figure 2016535898
を介してパブリックデータX1およびX2と相関付けられる。この例では、我々は、政治的意見をプライベートデータS、Foxニュースに関するTV評価をパブリックデータX1、ABCニュースに関するTV評価をパブリックデータX2とみなす。分析者、たとえば、コムキャスト(Comcast)は、X1とX2の両方を要求する。やはり、プライバシー保護写像が別個に設計され、我々は、プライバシーエージェントがS1およびS2両方に関するその情報Y1およびY2を組み合わせるときにプライバシー保証を分析したい。この例では、コムキャストは、FoxニュースおよびABCニュースの両方のTV評価の正当な受信者である。
例4では、プライベートデータS1およびS2が、同時確率分布
Figure 2016535898
を介してパブリックデータX1およびX2と相関付けられる。この例では、我々は、所得をプライベートデータS1、性別をプライベートデータS2、TV評価をパブリックデータX1、スナック評価をパブリックデータX2とみなす。
上述されたように、結託または合成があるときに複数の確率変数(たとえば、X1およびX2)が用いられる。しかしながら、プライバシー写像の解を提供する最適化問題の複雑さはベクトルのサイズXに比例するため、大きいサイズX(複数の変数を有する大きいベクトル)の写像は、小さいサイズX(場合によっては1つの変数または小さいベクトル)の写像よりも設計するのが困難である。
一実施形態では、我々は、多数の変数を有する1つの大きな最適化をより少ない変数を有するいくつかのより小さい最適化に分解することによって、最適化問題の設計を単純にする。
結託と合成の両方の問題を以下の設定で捉えることができる。
プライベート確率変数SがX1およびX2と相関付けられると仮定する。X1およびX2の歪められたバージョンがそれぞれY1およびY2で示される。我々は、歪み制約が与えられたとして、2つの別個のプライバシー保護写像P(Y1|X1)およびP(Y2|X2)をX1およびX2に対して行ってY1およびY2をそれぞれ得る。個々の情報漏出は、I(S;Y1)およびI(S;Y2)である。結託エンティティによって、または合成を介したプライバシーエージェントによって、Y1およびY2が対(Y1,Y2)として一緒に組み合わされると仮定する。
本原理では、我々は、複数の公開においてどのようにプライバシー保証が組み合わさるかの問題、すなわち、合成または結託を介して、複数の公開されるデータが組み合わされるときに、結果の累積的情報漏出を得る問題に対処する。プライバシー保証の組合せのルールは、プライベートデータのそれらによる推論を改善するために個々にそれらに公開されるデータを共有する結託エンティティの課題に対処するのに役立つ。組合せルールはまた、複数のデータのための結合設計を個々のデータのためのいくつかのより単純な設計問題に分解することを可能にすることによって、プライバシー保護写像機構の設計に役立つ。
プライバシー保護方式の組合せが、いくつかの既存の研究で研究されている。これらの研究の焦点は、結託または合成の存在下の差分プライバシーに当てられる。しかしながら、本原理は、情報理論的プライバシー測定基準のもとで結託または合成の存在下のプライバシーを考慮する。
以下では、我々は、まず、同じプライベートデータに公開が関係付けられた場合(たとえば、例1および例3)を論じ、次に、異なるが相関付けられたプライベートデータに公開が関係付けられた場合(たとえば、例2および例4)に分析を拡張する。
単一プライベートデータ、複数パブリックデータ
プライベート確率変数SがX1およびX2と相関付けられると仮定する。X1およびX2の歪められたバージョンがそれぞれY1およびY2で示される。我々は、2つの別個のプライバシー保護写像をX1およびX2に対して行ってY1およびY2をそれぞれ得る。所与の歪み制約と共に
Figure 2016535898
および
Figure 2016535898
が設計され、個々の情報漏出はそれぞれI(S;Y1)およびI(S;Y2)である。結託エンティティによって、または合成を介したプライバシーエージェントによって、2つの公開されるデータY1およびY2が対(Y1,Y2)として一緒に組み合わされると仮定する。我々は、情報のこの組合せのもとで、結果の累積的情報漏出I(S;Y1,Y2)を分析したい。
補助定理1.Y1、Y2、およびSが任意の順序のマルコフ連鎖を形成すると仮定する。プライバシー保護写像がそれぞれY1およびY2によりI(Y1;S)およびI(Y2;S)ビットを漏出する場合、対Y1およびY2により最大でI(Y1;S)+I(Y2;S)ビットの情報が漏出される。換言すると、I(Y1,Y2;S)≦I(Y1;S)+I(Y2;S)である。さらに、S→Y1→Y2である場合、I(S;Y1,Y2)≦I(Y1;S)である。S→Y2→Y1である場合、I(S;Y1,Y2)≦I(Y2;S)である。
証明:3つの確率変数がマルコフ連鎖A→B→Cを形成する場合、我々は、I(A;B)≧I(A;B|C)、I(B;C)≧I(B;C|A)、およびI(A;C|B)=0を有することに留意されたい。証明は、この事実から得られる。□
補助定理1は、写像が設計されるときにPS,Xに関するどのくらいの知識が入手可能であるかに関わらず適用される。補助定理1における境界は、PS,Xが知られているときに成立する。また、定理1における可分結果に基づく方法を使用してプライバシー保護写像が設計される場合に成立する。
1とY2を一緒に使用することがSの完全な回復をもたらし得ることに留意されたい。たとえば、S、Y1、およびY2を、
Figure 2016535898
および
Figure 2016535898
であるような3つの
Figure 2016535898
確率変数とする。その場合、I(Y1;S)=I(Y2;S)=0が得られる一方、I(Y1,Y2;S)=1ビットであり、Sは(Y1,Y2)から完全に回復可能である。別の例は、Y1=S+Nであり、ここでNは何らかのノイズであり、Y2=S−Nである場合である。我々は、Y1とY2を足すことによりSを完全に回復することができる。
図2は、本原理の実施形態による、結託または合成を考慮したプライバシーを保護するための例示的方法200を示す。方法200は、ステップ205から開始する。ステップ210で、それは、単一のプライベートデータSならびにパブリックデータX1およびX2に基づいて統計情報を収集する。ステップ220で、それは、公開されるデータY1およびY2の結託または合成を考慮して、プライベートデータSに対する累積的プライバシー保証を判断する。すなわち、それは、I(S;Y1,Y2)についての漏出係数εを判断する。
補助定理1に従って、プライバシー保護写像がパブリックデータX1およびX2について分散化された様式で設計される。ステップ230で、それは、I(S;Y1)についての漏出係数ε1を与えられたとして、パブリックデータX1についてのプライバシー保護写像
Figure 2016535898
を決定する。同様に、ステップ235で、それは、I(S;Y2)についての漏出係数ε2を与えられたとして、パブリックデータX2についてのプライバシー保護写像
Figure 2016535898
を決定する。
一実施形態では、我々は、ε=ε1+ε2、たとえば、ε1=ε2=ε/2を設定してよい。ステップ230および235で設計されたプライバシー保護写像によると、
I(S;Y1)≦ε1H(S),I(S;Y2)≦ε2H(S)
補助定理1を使用して、
I(Y1,Y2;S)≦I(Y1;S)+I(Y2;S)≦ε1H(S)+ε2H(S)≦εH(S)
が得られる。
ステップ240および245で、我々は、それぞれプライバシー保護写像
Figure 2016535898
および
Figure 2016535898
によってデータX1およびX2を歪める。ステップ250および255で、歪められたデータはそれぞれY1およびY2として公開される。
前述されたように、公開されるデータY1(Y2ではない)の正当な受信者が、Y2に関する情報を、公開されるデータY2(Y1ではない)の正当な受信者と交換するときに、結託が生じ得る。他方で、合成に関しては、両方の公開されるデータは、同じ受信者によって正当に受け取られ、また受信者が、両方の公開されるデータからの情報を組み合わせてユーザに関するより多くの情報を推論するときに、合成が生じる。
次に、我々は、最大相関に関する結果を使用して、対Y1およびY2により漏出される情報の累積量の上限境界を付ける。
定理4.
Figure 2016535898
および
Figure 2016535898
が別個に設計され、すなわち、
Figure 2016535898
であり、λ=max{S*(X1;Y1),S*(X2;Y2)}とする。I(Y1;Y2)≧λI(X1;X2)である場合、
I(S;Y1,Y2)≦I(S;X1,X2)max{S*(X1;Y1),S*(X2;Y2)} (19)
が得られる。
証明:定理を証明するために、我々は以下を与える。
命題4.
Figure 2016535898
であり、λ=max{S*(X1;Y1),S*(X2;Y2)}とする。I(Y1;Y2)≧λI(X1;X2)である場合、
*(X1,X2;Y1,Y2)≦max{S*(X1;Y1),S*(X2;Y2)} (20)
が得られる。
さらに、X1とX2が独立している(または同等に(X1,Y1)と(X2,Y2)が独立している)場合、
*(X1,X2;Y1,Y2)=max{S*(X1;Y1),S*(X2;Y2)}
が得られる。
まず、我々は、この命題を証明する。独立が成立する特定の場合はAnantharamで既に証明されており、一般的場合の証明は、I(Y1;Y2)≧λI(X1;X2)のみが、Anantharamで述べられたように不等式(20)を得るために必要とされる不等式であることに留意することによって(Anantharam,10頁、パートC参照)、S*(X;Y)のテンソル化の証明の同じラインに従う。
定理4の証明に戻る。定理1を使用して、マルコフ連鎖S→(X1,X2)→(Y1,Y2)が得られるので、
I(S;Y1,Y2)≦I(S;X1,X2)S*(X1,X2;Y1,Y2
を得る。
ここで、命題4を使用して証明を終了する。□
したがって、両方の写像が小さい最大相関によって別個に設計される場合、我々は、やはり、対Y1およびY2によって漏出される情報の蓄積量を境界付けることができる。
系1.上限境界(19)の初項、すなわち、I(X1,X2;S)は、以下のように境界付けられ得る。
1、X2、およびSが任意の順序のマルコフ連鎖を形成する場合、I(X1,X2;S)≦I(X;S)+I(X;S)である。さらに、S→X1→X2である場合、I(S;X1,X2)≦I(X1;S)である。S→X2→X1である場合、I(S;X1,X2)≦I(X2;S)である。
証明:証明は、補助定理1のそれと同様である。
I(S;Y1)、I(S;Y2)およびI(S;Y1,Y2)は、H(S)以下であることに留意されたい。
*(X1;Y1)<ε,S*(X2;Y2)<ε
を選択した場合、
I(S;Y1,Y2)≦(S;X1,X2)max{S*(X1;Y1),S*(X2;Y2)}≦H(S)max{S*(X1;Y1),S*(X2;Y2)}<εH(S)
が得られる。
図3は、本原理の実施形態による、結託または合成を考慮してプライバシーを保護するための例示的方法300を示す。方法300は、S*(X1;Y1)<ε(330)およびS*(X2;Y2)<ε(335)を除いて、方法200と同様である。方法200は、補助定理1で述べられたいくつかのマルコフ連鎖仮定のもとで作用するのに対し、方法300は、より一般的に作用することに留意されたい。
複数のプライベートデータ、複数のパブリックデータ
我々は、それぞれX1およびX2と相関付けられる2つのプライベート確率変数S1およびS2を有すると仮定する。我々は、X1およびX2を歪めてY1およびY2をそれぞれ得る。分析者は、Y1およびY2にアクセスし、(S1,S2)を発見することを望む。
定理5.
Figure 2016535898
および
Figure 2016535898
が別個に設計され、すなわち、
Figure 2016535898
であり、λ=max{S*(X1;Y1),S*(X2;Y2)}とする。I(Y1;Y2)≧λI(X1;X2)である場合、我々は、
I(S1,S2;Y1,Y2)≦I(S1,S2;X1,X2)max{S*(X1;Y1),S*(X2;Y2)} (21)
を得る。
証明:定理4の証明と同様である。□
したがって、対Y1およびY2の累積的情報漏出は、(21)によって境界付けられる。特に、X1とX2が独立である場合、この境界が成立する。
図2では、我々は、結託または合成を考慮して、単一のプライベートデータおよび2つのパブリックデータを考慮に入れるプライバシー保護写像を決定する方法200を論じる。2つのプライベートデータがある場合、方法200は、いくつかの修正と共に適用され得る。具体的には、ステップ210で、我々は、S1、S2、X1、およびX2に基づいて統計情報を収集する。ステップ230で、我々は、I(S1;Y1)についての漏出係数ε1を与えられたとして、パブリックデータX1についてのプライバシー保護写像
Figure 2016535898
を設計する。ステップ235で、我々は、I(S2;Y2)についての漏出係数ε2を与えられたとして、パブリックデータX2についてのプライバシー保護写像
Figure 2016535898
を設計する。
同様に、図3では、我々は、結託または合成を考慮して、単一のプライベートデータおよび2つのパブリックデータを考慮に入れるプライバシー保護写像を決定する方法300を論じる。2つのプライベートデータがある場合、方法300は、いくつかの修正と共に適用され得る。具体的には、ステップ310で、我々は、S1、S2、X1、およびX2に基づいて統計情報を収集する。ステップ330で、我々は、I(S1;Y1)についての漏出係数εを与えられたとして、パブリックデータX1についてのプライバシー保護写像
Figure 2016535898
を設計する。ステップ335で、我々は、I(S2;Y2)についての漏出係数εを与えられたとして、パブリックデータX2についてのプライバシー保護写像
Figure 2016535898
を設計する。
上記では、我々は、2つのプライベートデータまたは2つのパブリックデータに関して論じている。本原理は、2つよりも多いプライベートまたはパブリックデータがあるときにも適用され得る。
プライバシーエージェントは、プライバシーサービスをユーザに提供するエンティティである。プライバシーエージェントは、以下の任意のものを行うことができる:
− ユーザから、どんなデータをユーザがプライベートであるとみなすか、どんなデータをユーザがパブリックであるとみなすか、およびユーザが求めるプライバシーのレベルを受け取る;
− プライバシー保護写像を計算する;
− ユーザのためのプライバシー保護写像を実装する(すなわち、写像によりユーザのデータを歪める);および
− 歪められたデータを、たとえば、サービスプロバイダまたはデータ収集エージェンシに公開する。
本原理は、ユーザデータのプライバシーを保護するプライバシーエージェントにおいて使用され得る。図4は、プライバシーエージェントが使用され得る例示的システム400のブロック図を示す。パブリックユーザ410は、彼らのプライベートデータ(S)および/またはパブリックデータ(X)を公開する。前述されたように、パブリックユーザは、パブリックデータをそのままで公開する、すなわちY=Xである。パブリックユーザによって公開された情報は、プライバシーエージェントに有用な統計情報となる。
プライバシーエージェント480は、統計収集モジュール420、プライバシー保護写像判断モジュール430、およびプライバシー保護モジュール440を含む。統計収集モジュール420は、同時分布PS,X、限界確率測度Px、ならびに/またはパブリックデータの平均および共分散を収集するために使用され得る。統計収集モジュール420は、bluekai.comなどのデータアグリゲータから統計値を受け取ってもよい。入手可能な統計情報に応じて、プライバシー保護写像判断モジュール430は、いくつかのプライバシー保護写像機構を設計する。プライバシー保護モジュール440は、条件付き確率によって、プライベートユーザ460のパブリックデータをそれが公開される前に歪める。パブリックデータが多次元であるとき、たとえば、XがX1とX2の両方を含むとき、プライバシー保護モジュールは、合成の観点から、X1およびX2に対する別個のプライバシー保護写像をそれぞれ設計することができる。結託があるとき、各結託エンティティは、システム400を使用して別個のプライバシー保護写像を設計することができる。
プライバシーエージェントは、データ収集モジュールに収集され統計値を計算することを許可された、データ全体の知識なしに作用するための統計値のみを必要とすることに留意されたい。したがって、別の実施形態では、データ収集モジュールは、データを収集し次いで統計値を計算する独立したモジュールであってもよく、プライバシーエージェントの一部である必要はない。データ収集モジュールは、プライバシーエージェントと統計値を共有する。
プライバシーエージェントは、ユーザとユーザデータの受信者(たとえばサービスプロバイダ)との間に存在する。たとえば、プライバシーエージェントは、ユーザデバイス、たとえば、コンピュータまたはセットトップボックス(STB)に配置されてよい。別の例では、プライバシーエージェントは別個のエンティティであってよい。
プライバシーエージェントのすべてのモジュールは、1つのデバイスに配置されてもよく、または異なるデバイスにわたって分散されてもよく、たとえば、統計収集モジュール420は、統計値をモジュール430に単に公開するデータアグリゲータに配置されてもよく、プライバシー保護写像判断モジュール430は、「プライバシーサービスプロバイダ」に、またはモジュール420に接続されたユーザデバイス上のユーザ端に配置されてもよく、プライバシー保護モジュール440は、ユーザ間の媒介として働くプライバシーサービスプロバイダ、およびユーザがデータを公開したい先のサービスプロバイダ、またはユーザデバイス上のユーザ端に配置されてもよい。
プライベートユーザ460が受け取るサービスを公開されるデータに基づいて改善するために、プライバシーエージェントは、公開されるデータを、サービスプロバイダ、たとえば、コムキャストまたはネットフリックスに提供することができ、たとえば、推奨システムが、その公開された映画ランキングに基づいてユーザに映画の推奨を提供する。
図5では、我々は、システム内に複数のプライバシーエージェントがあることを示す。異なる変形形態では、プライバシーエージェントはプライバシーシステムが作用するための必要条件でないので、それはすべての場所にある必要がない。たとえば、プライバシーエージェントは、ユーザデバイスもしくはサービスプロバイダのみ、または両方にあってもよい。図5では、我々は、ネットフリックスとフェイスブック(Facebook)の両方に対して同じプライバシーエージェント「C」を示す。別の実施形態では、フェイスブックとネットフリックスにおけるプライバシーエージェントは、同じにすることができるが必ずしも同じでなくてよい。
本明細書に説明される実装形態は、たとえば、方法もしくはプロセス、装置、ソフトウェアプログラム、データストリーム、または信号において実装されてよい。単一形態の実装形態の文脈でのみ論じられた(たとえば、方法としてのみ論じられた)場合でも、論じられた特徴の実装形態は、他の形態(たとえば、装置またはプログラム)で実装されてもよい。装置は、たとえば、適切なハードウェア、ソフトウェア、およびファームウェアで実装されてよい。方法は、たとえばコンピュータ、マイクロプロセッサ、集積回路、またはプログラマブル論理デバイスを含む、一般に処理デバイスを指すたとえばプロセッサなどの、たとえば装置において実装されてよい。プロセッサはまた、エンドユーザ間の情報の通信を促進する、たとえば、コンピュータ、セルフォン、ポータブル/パーソナルディジタルアシスタント(「PDA」)、および他のデバイスなどの、通信デバイスを含む。
本原理の「一実施形態」または「実施形態」または「一実装形態」または「実装形態」、およびそれらの他の変形形態への参照は、その実施形態に関連して説明される特定の特徴、構造、および特性などが本原理の少なくとも1つの実施形態に含まれることを意味する。したがって、本明細書を通して様々な箇所で出現する表現「一実施形態では」または「実施形態では」または「一実装形態では」または「実装形態では」、および任意の他の変形形態の出現は、必ずしもすべて同じ実施形態を参照するものではない。
加えて、本出願またはその特許請求の範囲は、様々な情報片を「決定すること」を参照することがある。情報を決定することは、たとえば、情報を推定すること、情報を計算すること、情報を予測すること、またはメモリから情報を取り出すことのうちの1または複数を含み得る。
さらに、本出願またはその特許請求の範囲は、様々な情報片に「アクセスすること」を参照することがある。情報にアクセスすることは、たとえば、情報を受け取ること、(たとえばメモリから)情報を取り出すこと、情報を記憶すること、情報を処理すること、情報を送信すること、情報を移動すること、情報をコピーすること、情報を消去すること、情報を計算すること、情報を決定すること、情報を予測すること、または情報を推定することのうちの1または複数を含み得る。
加えて、本出願またはその特許請求の範囲は、様々な情報片を「受け取る」ことを参照することがある。受け取ることは、「アクセスすること」と同様に広義の用語になるように意図されている。情報を受け取ることは、たとえば、情報にアクセスすること、または(たとえばメモリから)情報を取り出すことのうちの1または複数を含み得る。さらに、「受け取ること」は、通常は、何らかの形で、たとえば、情報を記憶すること、情報を処理すること、情報を送信すること、情報を移動すること、情報をコピーすること、情報を消去すること、情報を計算すること、情報を決定すること、情報を予測すること、または情報を推定することなどの動作の際に行われる。
当業者には明らかなように、実装形態は、たとえば、記憶または送信され得る情報を搬送するようにフォーマットされた様々な信号を生成し得る。情報は、たとえば、方法を実施するための命令、または説明された実装形態の1つによって生成されたデータを含み得る。たとえば、信号は、説明された実施形態のビットストリームを搬送するようにフォーマット化されてよい。そのような信号は、たとえば、電磁波として(たとえば、スペクトルの無線周波数部分を使用する)、またはベースバンド信号としてフォーマットされてよい。フォーマッティングは、たとえば、データストリームを符号化し、符号化されたデータストリームを用いて搬送波を変調することを含むことができる。信号が搬送する情報は、たとえば、アナログまたはディジタル情報であってよい。信号は、知られている様々な異なる有線またはワイヤレスリンクを介して送信されてよい。信号は、プロセッサ可読媒体に記憶されてよい。

Claims (17)

  1. ユーザに関するユーザデータを処理するための方法であって、
    プライベートデータ、第1のパブリックデータ、および第2のパブリックデータを含む前記ユーザデータにアクセスするステップであって、前記第1のパブリックデータは、第1のカテゴリのデータに対応し、前記第2のパブリックデータは、第2のカテゴリのデータに対応する、前記ステップと、
    前記プライベートデータと第1の公開されるデータおよび第2の公開されるデータとの間の第1の情報漏出境界を決定するステップ(220、320)と、
    前記第1の境界に応じて、前記プライベートデータと前記第1の公開されるデータとの間の第2の情報漏出境界、および前記プライベートデータと前記第2の公開されるデータとの間の第3の情報漏出境界を決定するステップと、
    前記第2の境界に応じて前記第1の公開されるデータに前記第1のカテゴリのデータを写像する第1のプライバシー保護写像、および前記第3の境界に応じて前記第2の公開されるデータに前記第2のカテゴリのデータを写像する第2のプライバシー保護写像を決定するステップ(230、235、330、335)と、
    前記第1および第2の公開されるデータを形成するために、それぞれ、前記第1および第2のプライバシー保護写像に基づいて、前記ユーザに関する前記第1および第2のパブリックデータを修正するステップ(240、245、340、345)と、
    前記修正された第1および第2のパブリックデータを、サービスプロバイダとデータ収集エージェンシとの少なくとも一方へ公開するステップ(250、255、350、355)と、
    を含む、前記方法。
  2. 前記第2の境界及び前記第3の境界の組み合わせは、前記第1の境界に実質的に対応する、請求項1に記載の方法。
  3. 前記第2の境界及び前記第3の境界の各々は、前記第1の境界と実質的に等しい、請求項1に記載の方法。
  4. 前記公開するステップは、前記修正された第1のパブリックデータを第1の受信者に公開し、前記修正された第2のパブリックデータを第2の受信者に公開し、前記第1および第2の受信者は、前記修正された第1および第2のパブリックデータについての情報を交換するように構成される、請求項1に記載の方法。
  5. 前記公開するステップは、前記修正された第1および第2のパブリックデータを同一の受信者に公開する、請求項1に記載の方法。
  6. 結託又は合成がサービスプロバイダとデータ収集エージェンシとの少なくとも一方に生じたかを決定するステップをさらに含む、請求項1に記載の方法。
  7. 前記第1および第2のプライバシー保護写像を決定するステップは、最大相関技術に基づく、請求項1に記載の方法。
  8. 前記プライベートデータは、第1のプライベートデータおよび第2のプライベートデータを含み、前記第2の情報漏出境界を決定するステップは、前記第1のプライベートデータと前記第1のパブリックデータとの間の前記第2の境界、および前記第2のプライベートデータと前記第2のパブリックデータとの間の前記第3の境界を決定する、請求項1に記載の方法。
  9. ユーザに関するユーザデータを処理するための装置であって、
    プライベートデータ、第1のパブリックデータ、および第2のパブリックデータを含む前記ユーザデータにアクセスするように構成されたプロセッサであって、前記第1のパブリックデータは、第1のカテゴリのデータに対応し、前記第2のパブリックデータは、第2のカテゴリのデータに対応する、前記プロセッサと、
    前記プライベートデータと第1の公開されるデータおよび第2の公開されるデータとの間の第1の情報漏出境界を決定し、
    前記第1の境界に応じて、前記プライベートデータと前記第1の公開されるデータとの間の第2の情報漏出境界、および前記プライベートデータと前記第2の公開されるデータとの間の第3の情報漏出境界を決定し、
    前記第2の境界に応じて前記第1の公開されるデータに前記第1のカテゴリのデータを写像する第1のプライバシー保護写像、および前記第3の境界に応じて前記第2の公開されるデータに前記第2のカテゴリのデータを写像する第2のプライバシー保護写像を決定する
    ように構成されたプライバシー保護写像判断モジュール(430)と、
    前記第1および第2の公開されるデータを形成するために、それぞれ、前記第1および第2のプライバシー保護写像に基づいて、前記ユーザに関する前記第1および第2のパブリックデータを修正し、
    前記修正された第1および第2のパブリックデータを、サービスプロバイダとデータ収集エージェンシとの少なくとも一方へ公開する
    ように構成されたプライバシー保護モジュール(440)と、
    を含む、前記装置。
  10. 前記第2の境界及び前記第3の境界の組み合わせは、前記第1の境界に実質的に対応する、請求項9に記載の装置。
  11. 前記第2の境界及び前記第3の境界の各々は、前記第1の境界と実質的に等しい、請求項9に記載の装置。
  12. 前記プライバシー保護モジュール(440)は、前記修正された第1のパブリックデータを第1の受信者に公開し、前記修正された第2のパブリックデータを第2の受信者に公開し、前記第1および第2の受信者は、前記修正された第1および第2のパブリックデータについての情報を交換するように構成される、請求項9に記載の装置。
  13. 前記プライバシー保護モジュール(440)は、前記修正された第1および第2の公開されるデータを同一の受信者に公開する、請求項9に記載の装置。
  14. 前記プライバシー保護写像判断モジュール(430)は、結託又は合成がサービスプロバイダとデータ収集エージェンシとの少なくとも一方に生じたかを決定するようにさらに構成される、請求項9に記載の装置。
  15. 前記プライバシー保護写像判断モジュール(430)は、最大相関技術に基づく前記第1および第2のプライバシー保護写像を決定する、請求項9に記載の装置。
  16. 前記プライベートデータは、第1のプライベートデータおよび第2のプライベートデータを含み、前記プライバシー保護写像判断モジュール(430)は、前記第1のプライベートデータと前記第1のパブリックデータとの間の前記第2の情報漏出境界、および前記第2のプライベートデータと前記第2のパブリックデータとの間の前記第3の情報漏出境界を決定する、請求項9に記載の装置。
  17. 請求項1から8のいずれかに記載の方法による、ユーザに関するユーザデータを処理するための命令を格納したコンピュータ可読記憶媒体。
JP2016536078A 2013-08-19 2013-11-21 結託および合成を考慮した効用対応プライバシー保護写像のための方法および装置 Withdrawn JP2016535898A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361867544P 2013-08-19 2013-08-19
US61/867,544 2013-08-19
PCT/US2013/071287 WO2015026385A1 (en) 2013-08-19 2013-11-21 Method and apparatus for utility-aware privacy preserving mapping in view of collusion and composition

Publications (2)

Publication Number Publication Date
JP2016535898A true JP2016535898A (ja) 2016-11-17
JP2016535898A5 JP2016535898A5 (ja) 2017-01-12

Family

ID=49880941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016536078A Withdrawn JP2016535898A (ja) 2013-08-19 2013-11-21 結託および合成を考慮した効用対応プライバシー保護写像のための方法および装置

Country Status (5)

Country Link
EP (1) EP3036678A1 (ja)
JP (1) JP2016535898A (ja)
KR (1) KR20160044485A (ja)
CN (1) CN105612529A (ja)
WO (1) WO2015026385A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021056435A (ja) * 2019-10-01 2021-04-08 株式会社東芝 情報処理装置、情報処理方法、およびプログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150235051A1 (en) * 2012-08-20 2015-08-20 Thomson Licensing Method And Apparatus For Privacy-Preserving Data Mapping Under A Privacy-Accuracy Trade-Off
CN108073821B (zh) * 2016-11-09 2021-08-06 中国移动通信有限公司研究院 数据安全处理方法及装置
EP3729319A1 (en) * 2017-12-18 2020-10-28 Privitar Limited Data product release method or system
CN108763947B (zh) * 2018-01-19 2020-07-07 北京交通大学 时间-空间型的轨迹大数据差分隐私保护方法
CN108763954B (zh) * 2018-05-17 2022-03-01 西安电子科技大学 线性回归模型多维高斯差分隐私保护方法、信息安全系统
CN109766710B (zh) * 2018-12-06 2022-04-08 广西师范大学 关联社交网络数据的差分隐私保护方法
CN110968893A (zh) * 2019-11-21 2020-04-07 中山大学 一种基于Pufferfish框架的针对关联分类数据序列的隐私保护方法
CN111461858B (zh) * 2020-03-10 2023-02-17 支付宝(杭州)信息技术有限公司 基于隐私保护的连乘计算方法、装置、系统和电子设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7533808B2 (en) * 2005-02-09 2009-05-19 Yuh-Shen Song Privacy protected cooperation network
US20100036884A1 (en) * 2008-08-08 2010-02-11 Brown Robert G Correlation engine for generating anonymous correlations between publication-restricted data and personal attribute data
US8312273B2 (en) * 2009-10-07 2012-11-13 Microsoft Corporation Privacy vault for maintaining the privacy of user profiles
CN102624708A (zh) * 2012-02-23 2012-08-01 浙江工商大学 一种面向云存储的高效数据加密、更新和访问控制方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021056435A (ja) * 2019-10-01 2021-04-08 株式会社東芝 情報処理装置、情報処理方法、およびプログラム
US12039065B2 (en) 2019-10-01 2024-07-16 Kabushiki Kaisha Toshiba Information processing apparatus, information processing method, and computer program product

Also Published As

Publication number Publication date
KR20160044485A (ko) 2016-04-25
EP3036678A1 (en) 2016-06-29
WO2015026385A1 (en) 2015-02-26
CN105612529A (zh) 2016-05-25

Similar Documents

Publication Publication Date Title
Liu et al. Vertical federated learning: Concepts, advances, and challenges
JP2016535898A (ja) 結託および合成を考慮した効用対応プライバシー保護写像のための方法および装置
JP2016531513A (ja) 付加ノイズを用いる効用対応プライバシー保護写像のための方法および装置
TWI689841B (zh) 資料加密、機器學習模型訓練方法、裝置及電子設備
Li et al. Privacy computing: concept, computing framework, and future development trends
JP2016511891A (ja) 大規模データへの妨害攻撃に対するプライバシー
He et al. Customized privacy preserving for inherent data and latent data
US20160203333A1 (en) Method and apparatus for utility-aware privacy preserving mapping against inference attacks
CN107609421A (zh) 隐私保护协同Web服务质量预测的基于邻域的协同过滤方法
EP4097618B1 (en) Privacy preserving machine learning for content distribution and analysis
Ozturk et al. From existing trends to future trends in privacy‐preserving collaborative filtering
EP3036677A1 (en) Method and apparatus for utility-aware privacy preserving mapping against inference attacks
US20160203334A1 (en) Method and apparatus for utility-aware privacy preserving mapping in view of collusion and composition
Hashemi et al. Data leakage via access patterns of sparse features in deep learning-based recommendation systems
Yoo et al. Using machine learning to address customer privacy concerns: An application with click-stream data
Weng et al. Practical privacy attacks on vertical federated learning
Alex et al. Energy Efficient and Secure Neural Network–based Disease Detection Framework for Mobile Healthcare Network
Zhao et al. A scalable algorithm for privacy-preserving item-based top-N recommendation
Hashemi et al. Private data leakage via exploiting access patterns of sparse features in deep learning-based recommendation systems
Zhang et al. HN3S: A federated autoencoder framework for collaborative filtering via hybrid negative sampling and secret sharing
Yang Improving privacy preserving in modern applications
Melis Building and evaluating privacy-preserving data processing systems
Feng et al. MPLDP: Multi-level Personalized Local Differential Privacy Method
Yessoufou et al. CROWDPRED: Privacy-Preserving Approach for locations on Decentralized Crowdsourcing Application
Iyer Ghost Recommendations: A Protocol for Efficiently Enhancing User Privacy

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161121

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161202

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161202

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20170203