JP2012527671A - セキュリティ設定及び/又はプライバシー設定を管理するためのシステム及び方法 - Google Patents

セキュリティ設定及び/又はプライバシー設定を管理するためのシステム及び方法 Download PDF

Info

Publication number
JP2012527671A
JP2012527671A JP2012511225A JP2012511225A JP2012527671A JP 2012527671 A JP2012527671 A JP 2012527671A JP 2012511225 A JP2012511225 A JP 2012511225A JP 2012511225 A JP2012511225 A JP 2012511225A JP 2012527671 A JP2012527671 A JP 2012527671A
Authority
JP
Japan
Prior art keywords
client
settings
privacy
security
security settings
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012511225A
Other languages
English (en)
Other versions
JP5623510B2 (ja
Inventor
グランディソン、タイロン、ウィルバーフォース
リュー、クン
マキシミリアン、ユージーン、マイケル
テルツィ、エビマリア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2012527671A publication Critical patent/JP2012527671A/ja
Application granted granted Critical
Publication of JP5623510B2 publication Critical patent/JP5623510B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/44Program or device authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Bioethics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Telephonic Communication Services (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Transfer Between Computers (AREA)
  • Storage Device Security (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】 セキュリティ設定及び/又はプライバシー設定を管理するためのシステム及び方法を提供する。
【解決手段】 セキュリティ設定及び/又はプライバシー設定を管理するためのシステム及び方法が説明される。一実施形態においては、この方法は、第1のクライアントを第2のクライアントに通信可能に結合することを含むことができる。この方法は、第1のクライアントについての複数のセキュリティ設定及び/又はプライバシー設定の部分を、第1のクライアントから第2のクライアントに伝搬することをさらに含むことができる。この方法はまた、第2のクライアントにおいて、第1のクライアントについての複数のセキュリティ設定及び/又はプライバシー設定の部分を受信したとき、第1のクライアントについての複数のセキュリティ設定及び/又はプライバシー設定の受信した部分を、第2のクライアントについての複数のセキュリティ設定及び/又はプライバシー設定に組み込むことを含むこともできる。
【選択図】 図3

Description

本開示の実施形態は、一般に、データ処理システムの分野に関する。例えば、本開示の実施形態は、セキュリティ設定及び/又はプライバシー設定を管理するためのシステム及び方法に関する。
ウェブ・アプリケーション及びウェブ・サービスのような幾つかのコンピューティング・アプリケーションにおいては、大量の個人データが他者にさらされる。例えば、ソーシャル・ネットワーキング・サイトに関しては、サイトは、名前、職業、電話番号、住所、誕生日、友人、同僚、雇用主、通っていた高校等を含む、個人情報をユーザに要求する。従って、自分のプライバシー設定及びセキュリティ設定を構成し、どれだけの及びどの範囲の個人情報を他者と共有できるかを決定する際、ユーザに何らかの決定権が与えられる。
適切なプライバシー設定及びセキュリティ設定を決定する際、様々な選択肢をユーザに与えることができる。例えば、幾つかのサイトにおいては、適切な設定を決定しようとして、多数のページに及ぶ質問をユーザに尋ねる。ユーザにとって、質問に答えるのは、退屈で時間のかかるタスクになり得る。その結果、ユーザは、自分の好ましいセキュリティ設定及びプライバシー設定を設定せずに済ませることがある。
セキュリティ設定及び/又はプライバシー設定を管理するための方法が開示される。一実施形態においては、この方法は、第1のクライアントを第2のクライアントに通信可能に結合することを含む。この方法はまた、第1のクライアントについての複数のセキュリティ設定及び/又はプライバシー設定の部分を、第1のクライアントから第2のクライアントに伝搬することも含む。この方法は、第2のクライアントにおいて、第1のクライアントについての複数のセキュリティ設定及び/又はプライバシー設定の部分を受信したとき、第1のクライアントについての複数のセキュリティ設定及び/又はプライバシー設定の受信した部分を、第2のクライアントについての複数のセキュリティ設定及び/又はプライバシー設定に組み込むことをさらに含む。
これらの例証となる実施形態は、本発明を制限する又は定義するためではなく、その理解を助ける例を与えるために記載されるものである。例証となる実施形態は、「発明を実施するための形態」において記載され、本開示のさらなる説明がここに与えられる。本開示の種々の実施形態により与えられる利点は、本明細書を調べることによりさらに理解することができる。
本発明のこれらの及び他の特徴、態様及び利点は、添付図面を参照して以下の「発明を実施するための形態」を読むときに、より良く理解される。
ユーザのためのソーシャル・ネットワークの例示的なソーシャル・グラフを示す。 第1のソーシャル・ネットワーキング・サイト上のユーザ・プロファイルと、第2のソーシャル・ネットワーキング・サイト上のユーザ・プロファイルとを有する人のソーシャル・ネットワーキング・グラフである。 コンソールによりソーシャル・ネットワーク間でプライバシー設定を伝搬するための例示的な方法のフローチャートである。 プライバシー設定及び/又はプライバシー環境の計算を実施するための例示的なコンピュータ・アーキテクチャを示す。
本開示の実施形態は、一般に、データ処理システムの分野に関する。例えば、本開示の実施形態は、セキュリティ設定及び/又はプライバシー設定を管理するためのシステム及び方法に関する。説明全体を通して、説明の目的上、本開示の完全な理解を与えるために、多数の特定の詳細が述べられる。しかしながら、本開示は、これらの特定の詳細の一部なしで実施できることが、当業者には明らかであろう。他の例では、本開示の基礎をなす原理を不明瞭にするのを避けるために、周知の構造体及びデバイスは、ブロック図の形態で示される。
プライバシー設定及び/又はセキュリティ設定の管理において、システムは、他者のプライバシー設定及び/又はセキュリティ設定を用いて、ユーザのプライバシー設定及び/又はセキュリティ設定を構成する。従って、他のユーザによる設定を伝搬し、比較して、ユーザにとって好ましい構成の設定を自動的に作成する。プライバシー設定及び/又はセキュリティ設定の自動作成は、クライアント間で種々の環境において行なうことができる。例えば、作成は、セキュリティ・ソフトウェアを用いるコンピュータ・システム間、種々のコンピュータのインターネット・ブラウザ間、1つのコンピュータ上の多数のインターネット・ブラウザ間、1つのソーシャル・ネットワーキング・サイト内のユーザ・ファイル間で、複数のソーシャル・ネットワーキング・サイトの中のユーザ・ファイル間、及び1つ又は複数のインターネット・ショッピング・サイトの中のショッパー・ファイル間で行なうことができる。
説明のために、1つ又は複数のソーシャル・ネットワーキング・サイトの中のユーザ・ファイルを参照して、実施形態を説明する。当業者には明らかであるように、以下の説明は、上記に列挙したものを含む、異なる環境における実装に限定されるべきではない。
ソーシャル・ネットワーク
ソーシャル・アプリケーション/ネットワークにより、人々が他者への接続を形成することが可能になる。ユーザは、プロファイルを作成し、次に、自分のプロファイルを介して他のユーザに接続する。例えば、第1のユーザは、友人要求(friend request)を、自分が認識する第2のユーザに送ることができる。要求が受け入れられた場合、第2のユーザは、第1のユーザと識別された友人になる。一人のユーザのプロファイルについての接続全体が、該ユーザについての人間関係のグラフを作成する。
ソーシャル・ネットワーク・プラットフォームを、ユーザによるプラットフォーム動作環境として用いることができ、ほぼ瞬間的な友人間の通信が可能になる。例えば、プラットフォームは、友人が、プログラムを共有し、インスタント・メッセージを送り、又は他の友人のプロファイルの特別の部分を見ることを可能にする一方で、ユーザが、ゲームのプレイ(オフライン又はオンラインでの)、文書の編集、又はeメールの送信といった標準的なタスクを実行することを可能にする。プラットフォームはまた、ニュースフィード、イージーアクセス・ショッピング、バンキング等を含む他のソースからの情報を可能にすることもできる。情報を提供する多数のソースの結果として、ユーザのためにマッシュアップ(mashup)が作成される。
マッシュアップは、1つより多いソースからのデータを組み合わせて統合ツールを作るウェブ・アプリケーションとして定義される。多くのマッシュアップを統合して、ソーシャル・ネットワーキング・プラットフォームにすることができる。マッシュアップはまた、若干のユーザ情報も必要とする。従って、マッシュアップが、ユーザ・プロファイル内に格納されたユーザの情報にアクセスできるかどうかは、ユーザのプライバシー設定及び/又はセキュリティ設定によって決定される。
プライバシー設定及び/又はセキュリティ設定
一実施形態においては、プライバシー設定及び/又はセキュリティ設定によって保護されるソーシャル・ネットワークの部分を、6つの広義のカテゴリー:すなわち、ユーザ・プロファイル、ユーザ検索、フィード(例えば、ニュース)、メッセージ及び友人要求、アプリケーション、及び外部ウェブサイトで定義することができる。ユーザ・プロファイルについてのプロファイル設定は、プロファイル情報のどのサブセットが誰によりアクセス可能であるかを制御する。例えば、友人はフルアクセスできるが、見知らぬ人は、ユーザ・プロファイルへのアクセスが制限される。検索についてのプライバシー設定は、検索中、誰がユーザのプロファイルを見つけることができるか、及び、プロファイルのどれくらいが利用可能であるかを制御する。
フィードについてのプライバシー設定は、フィードの形でどの情報をユーザに送ることができるかを制御する。例えば、設定は、ニュースフィードを介して、どのタイプのニュース・ストーリーをユーザに送ることができるかを制御することができる。メッセージ要求及び友人要求についてのプライバシー設定は、ユーザにメッセージ要求又は友人要求が送られたとき、ユーザ・プロファイルのどの部分が目に見えるかを制御する。アプリケーション・カテゴリーについてプライバシー設定は、ユーザ・プロファイルに接続されるアプリケーションの設定を制御する。例えば、設定は、アプリケーションが、ソーシャル・ネットワーキング・サイトに関するユーザのアクティビティ情報を受け取ることができるかどうかを決定することができる。外部ウェブサイト・カテゴリーについてのプライバシー設定は、外部ウェブサイトがユーザに送ることができる情報を制御する。例えば、設定は、航空会社のウェブサイトが直前のフライトに関する取扱いについての情報を送ることができるかどうかを制御することができる。
従って、プライバシー設定及び/又はセキュリティ設定を用いて、ユーザの材料又はアクセスの部分を制御することができる。例えば、6つの広義のカテゴリーについてのプライバシー設定を用いて、外部ウェブサイトによるユーザへのアクセスを制限し、ユーザによるプログラム又はアプリケーションへのアクセスを制限することができる。
プライバシー設定及び/又はセキュリティ設定を伝搬するための実施形態
ユーザがユーザのプライバシー設定を完全に制御し、知るように、プライバシー設定の全てのコンポーネントを手作業で設定するのに代わるものとして、現在のプライバシー・モデルにおいて、2つのタイプのプライバシー保護が存在する。:すなわち、(1)個人を他の個人の大きな集まりの中に隠すことによって、個人のプライバシーを保護することができる、及び、(2)信頼できるエージェントの後ろに個人を隠すことにより、個人を保護することができる。第2の概念については、信頼できるエージェントは、個人についての情報を漏らすことなく、個人の代わりにタスクを実行する。
集団(collective)を形成するために、関係を付加する又は削除するなど、架空の個人を付加する、又は、実在する個人を削除する必要がある。従って、大幅に編集されたソーシャル・グラフのバージョンの中に個人が隠れる。こうした手法に関連する1つの問題は、ネットワークの有用性が妨げられること、又はこれを保護できないことである。例えば、中央アプリケーションは、個人を集団の中に隠すために、ソーシャル・グラフに対してなされた全ての編集を記憶しなければならい。信頼できるエージェントを用いる際、信頼できるエージェント、又は、要求されたタスクだけを実行するエージェントを見つけることは、困難であり、費用がかかる。従って、本発明の一実施形態は、ユーザのプライバシー設定を設定するタスクを自動化することによって、集団又は信頼できるエージェントに対する必要性を排除する。
図1は、ユーザ101についてのソーシャル・ネットワークの例示的なソーシャル・グラフ100を示す。ソーシャル・グラフ100は、ユーザ101のソーシャル・ネットワークが、ユーザ101に直接接続される人1 102、人2 103、人3 104、及び人4 105(それぞれ、接続107−111)を含むことを示す。例えば、人は、ユーザ101を連絡先として受け入れた、かつ、ユーザ101が連絡先として受け入れた、同僚、友人、又は取引相手、或いはその混合物とすることができる。関係112及び113は、人4 105と人5 106が互いに連絡があること、及び、人4 105と人3 104が互いに連絡があることを示す。人6 114は、人3 104と連絡がある(関係115)が、ユーザ101とは連絡がない。各ユーザのソーシャル・グラフをグラフ化し、それらを互いにリンクさせることにより、完全なソーシャル・ネットワークのグラフを作成することができる。
ソーシャル・グラフ100内の人/ユーザの各々は、ノードと考えられる。一実施形態においては、各ノードは、それぞれのプライバシー設定を有する。個々のノードについてのプライバシー設定は、ノードについてのプライバシー環境を生成する。一例におけるユーザ101を参照すると、ユーザ101のプライバシー環境は、Euser={e1、e2,...,em}として定義され、ここで、eは、プライバシー環境Eを定めるためのインジケータであり、mは、プライバシー環境Euserを定める、ユーザ101のソーシャル・ネットワークにおけるインジケータの数である。一実施形態においては、インジケータeは、形態{エンティティ、オペレータ、アクション、アーチファクト}のタプルである。エンティティは、ソーシャル・ネットワーク内のオブジェクトを指す。例示的なオブジェクトには、これらに限られるものではないが、人、ネットワーク、グループ、アクション、アプリケーション、及び外部ウェブサイトが含まれる。オペレータは、エンティティの能力又はモダリティ(modality)を指す。例示的なオペレータには、これらに限られるものではないが、can(可能である)、cannot(不可能である)、及びcan in limited form(制限された形で可能である)が含まれる。オペレータの解釈は、使用状況及び/又はソーシャル・アプリケーション又はネットワークによって決まる。アクションは、ソーシャル・ネットワークにおけるアトミック実行可能タスクを指す。アーチファクトは、アトミック実行可能タスクについての対象オブジェクト又はデータを指す。インジケータの部分の統語論及び意味論は、モデル化されたソーシャル・ネットワークによって決まり得る。例えば、インジケータe={X,”can”,Y,Z}であり、これは、「エンティティXは、アーチファクトZ上のアクションYを実行することができる。」である。インジケータは、互いに相互依存することがある。しかしながら、例示目的のために、アトミック・インジケータが、例として与えられる。
一実施形態においては、プライバシー設定は、エンティティ、アクション、及びアーチファクトに関連するオペレータを構成する。従って、プライバシー設定を用いて、インジケータ{X,””,Y,Z}について、エンティティXは絶対にアクションYを実行することができないと定めることができる。従って、プライバシー設定は、インジケータを{X,”cannot”,Y,Z}と設定する。
一実施形態において、ユーザが自分の現在の経験外の新しいアクティビティを行なうときに、ユーザは、こうしたアクティビティと関連した自分のネットワーク内の人のプライバシー設定を活用することができる。例えば、ユーザ101が新しいアプリケーションをインストールすることを望む場合、人1−5(107−111)が新しいアプリケーションをインストール済みであれば、彼らのプライバシー設定を用いて、新しいアプリケーションに関するユーザ101のプライバシー設定を設定することができる。従って、ユーザ101は、アプリケーションを信頼できるかどうかに関する信用照会先を有する。
一実施形態においては、ユーザがアプリケーションをインストールしたいと望み、かつ、既にアプリケーションをインストール済みの、自分のソーシャル・ネットワーク内の一人の他の人にだけ接続される場合には、アプリケーションに関する、その人からのプライバシー設定がユーザにコピーされる。例えば、エンティティを人とし、アクションを”インストール”とし、アーチファクトをアプリケーションとした場合、その人についてのインジケータは、{人,”can”,インストール,アプリケーション}とすることができる。従って、ユーザは、{ユーザ,”can”,インストール,アプリケーション}のようなインジケータを、自分のプライバシー環境の一部として受け取る。
ユーザに接続された2人又はそれ以上の人が関連したインジケータを含む場合(例えば、前例において、全てのインジケータが、アーチファクト「アプリケーション」を含む場合)、関連したインジケータ全体を用いて、ユーザについてのインジケータを決定することができる。一実施形態において、ユーザについて作成されたインジケータが、2つの特性を含む。第1の特性は、ユーザ・インジケータには関連したインジケータとの衝突がない(conflict-free)ことである。第2の特性は、ユーザ・インジケータが、関連したインジケータの全てと比較して、最も制限的であることである。
インジケータ間の衝突を参照すると、インジケータは、同じエンティティ、アクション、及びアーチファクトを共有するが、インジケータ間のオペレータは、互いに衝突する(例えば、”can”対”cannot”)。衝突がないとは、ユーザ・インジケータを決定するときに、全ての衝突が解決済みであることを言う。一実施形態において、衝突の解決とは、衝突における最も関連した制限的オペレータを見つけ、全ての他のオペレータを廃棄することを含む。例えば、3つの関連したインジケータが、{A,”can”,B,C}、{A,”can in limited form”,B,C}、及び{A,”cannot”,B,C}である場合、最も制限的なオペレータは、”cannot”である。従って、衝突がないインジケータは、{A,”cannot”,B,C}である。示されるように、衝突がないインジケータは、最も制限的でもあるので、2つの特性を満足する。
一実施形態において、ユーザのプライバシー環境は、ユーザのソーシャル・ネットワーク内のあらゆる変化に対して変化する。例えば、ある人がユーザのソーシャル・ネットワークに加えられた場合、その人のインジケータを用いて、ユーザのインジケータをアップデートすることができる。別の実施形態においては、ユーザに接続された特定の人を、他の人よりも信頼することができる。例えば、長期間ユーザに接続されている人、プロファイルがより古い人、及び/又は他のユーザにより信頼できるとしてタブ付けされた人は、他の人と比べて、そのインジケータがより重要視され得る。例えば、ユーザ101は、人1 102を、ネットワーク100内で最も信頼できる人として設定することができる。従って、あまり信頼できないインジケータのオペレータがより制限的である場合でも、人1のインジケータを、他のあまり信頼できないインジケータよりも信頼することができる。
一実施形態においては、2つの別個のソーシャル・ネットワーキング・サイト上にユーザ・プロファイルを有する人が、1つのサイトからのプライバシー設定を用いて、別のサイト上のプライバシー設定を設定することができる。従って、1つのサイトから別のサイトにインジケータが翻訳される。図2は、第1のソーシャル・ネットワーキング・サイト202上のユーザ・プロファイル101と、第2のソーシャル・ネットワーキング・サイト204上のユーザ・プロファイル203とを有する人201を示す。大部分のソーシャル・ネットワーキング・サイトは互いに話をしない。従って、一実施形態においては、プライバシー環境のソーシャル・ネットワーク間の生成のために、ユーザ・コンソール205が用いられる。
図3は、コンソール205によって、ソーシャル・ネットワーク間でプライバシー設定を伝搬するための例示的な方法300のフローチャートである。301で開始し、コンソール205は、どのノードからインジケータを受け取るかを決定する。例えば、図2のユーザ203が、ソーシャル・ネットワーク202及び204の両方に存在するアプリケーションについてのプライバシー設定を必要とする場合には、ユーザ・ノード101に接続されているどの人がそのアプリケーションについてのインジケータを有するかが判断される。一実施形態においては、他者のインジケータを用いてプライバシー設定が既に判断済みであるユーザ・ノード101のインジケータから、インジケータが引き出される。従って、プライバシー環境を作成するために、コンソール205は、プライバシー環境を計算するために、どのノードから、全てのインジケータ又はそれらのノードを受け取るかを判断することができる。インジケータがソーシャル・ネットワーキング・サイト204に関連しない(例えば、ネットワーキング・サイト202上でアクセスされるウェブサイトに、ネットワーキング・サイト204上でアクセスすることができない)場合、コンソール205は、受信時にこうしたインジケータを無視することができる。
302に進むと、コンソール205は、決定されたノードからインジケータを取り出す。既述のように、各ノードから全てのインジケータを取り出すことができる。別の実施形態においては、関心あるインジケータだけを取り出すことができる。さらに別の実施形態においては、システムは、プライバシー設定を連続的に更新することができ、従って、ユーザ203のプライバシー環境を更新するために、更新されたインジケータ又は新しいインジケータが定期的に取り出される。
303に進むと、コンソール205は、取り出されたインジケータから関連したインジケータをグループ化する。例えば、各々の決定されたノードについて全てのインジケータが引き出され、コンソール205は、どのインジケータが同じ又は類似のエンティティ、アクション、及びアーチファクトに関連するかを判断することができる。304に進むと、コンソール205は、関連したインジケータの各グループから、衝突がないインジケータを判断する。ユーザ・ノード203のプライバシー環境のために、衝突がないインジケータの集まりが用いられる。
305に進むと、コンソール205は、衝突がないインジケータの各々について、そのインジケータが、関連したインジケータのそのグループについて最も制限的であるかどうかを判断する。衝突がないインジケータが制限的ではない場合、コンソール205は、インジケータを変更し、該インジケータを再決定することができる。代替的に、ユーザ・ノード203のプライバシー環境を決定する際に、コンソール205は、インジケータを無視することができ、これを含むことができない。306に進むと、コンソール205は、第2のソーシャル・ネットワーキング・サイトのために、衝突のない最も制限的なインジケータを翻訳する。例えば、”can in limited form”は、2つの異なるソーシャル・ネットワーキング・サイトにより、異なるように解釈されるオペレータであり得る。別の例においては、第1のソーシャル・ネットワーキング・サイト内の1つのエンティティが、第2のソーシャル・ネットワーキング・サイト上では異なる名前のものであり得る。従って、コンソール205は、インジケータを、第2のソーシャル・ネットワーキング・サイト204と関連した形式にマッピングしようと試みる。307において、インジケータを翻訳すると、コンソール205は、インジケータを第2のソーシャル・ネットワーキング・サイト204内のユーザ・ノード203に送る。次に、ユーザ・ノード203のためにインジケータを設定し、そのソーシャル・ネットワークについてのプライバシー環境を生成する。
幾つかのソーシャル・ネットワーキング・サイトの場合、何ページにも及ぶユーザに向けられた問題により、プライバシー環境が設定される。幾つかのソーシャル・ネットワーキング・サイトは、プライバシー環境を設定するために、フィルターのグループ及びユーザ制御を有することができる。従って、一実施形態においては、問題への答え、フィルター、又はユーザ設定を引き出すことができる。従って、引き出された情報から、インジケータが作成される。さらに、インジケータの翻訳は、ユーザの問題への答え又は設定フィルター、及び第2のソーシャル・ネットワーキング・サイトについてのユーザ設定を判断することを含むことができる。従って、コンソール205(又は、ソーシャル・ネットワーキング・サイト上のクライアント)は、問題又はユーザ制御を設定して、ユーザ・ノードのプライバシー設定を作成することができる。
上記の方法は、2つのソーシャル・ネットワーキング・サイトの間で示されるが、同じソーシャル・ネットワーキング・サイト上に多数のソーシャル・ネットワークが存在してもよい。従って、ユーザ・ノードは、ソーシャル・ネットワークに応じて、異なるプライバシー設定を有することができる。従って、この方法を用いて、同じソーシャル・ネットワーキング・サイト上のソーシャル・ネットワーク間でプライバシー設定を伝搬することもできる。
一実施形態においては、イベントに応じて、プライバシー設定が変化し得る。例えば、イベントAが発生した場合、インジケータが、あまり制限的でなくなることがある(オペレータが、”cannot”から”can in limited form”に変化する)。従って、インジケータは、依存関係を説明するための情報のサブセットを含むことができる。例えば、エンティティが、ソーシャル・ネットワーキング・サイトによる信頼ステータスを有していることも又は有していないこともある。従って、エンティティが信頼できない(not trusted)場合、エンティティに関するオペレータは、制限的なものになり得る(例えば、{エンティティA[信頼できない],”cannot”,B,C})。信頼できる(trusted)ようになると、これを考慮に入れるように、インジケータを更新することができる(例えば、{A[信頼できる],”can”,B,C})。例えば、信頼できる人は、ユーザの完全なプロファイルを検索することができるが、信頼できない人は検索することができない。
ユーザのプライバシー環境はまた、ソーシャル・ネットワーク内のユーザのアクティビティによっても決まる。例えば、より多くの情報を漏らすユーザは、ソーシャル・ネットワーク内のアクティブ・ユーザではない誰かよりも危険を伴うアクティビティを行なう。従って、ユーザのプライバシー環境が何であるべきかを判断するために、使用状況は、情報のサブセットとしてもよい。一実施形態においては、プライバシー・リスク・スコアを用いて、ユーザのプライバシー設定をより制限的にするか又はあまり制限的でなくする。ユーザのプライバシー・リスク・スコアを計算するための実施形態が、以下に説明される。
ユーザのプライバシー・リスク・スコアを計算するための例示的な実施形態
ソーシャル・ネットワークのユーザjについて、プライバシー・リスク・スコアを、そのプロファイル項目のそれぞれによってjにもたらされるプライバシー・リスクの和として計算することができる。プライバシー・リスク全体における各プロファイル項目の寄与分は、項目の感受性(sensitivity)と、jのプライバシー設定及びネットワーク内のjの位置によって得られる可視性(visibility)によって決まる。一実施形態においては、N人のユーザ全てが、同じn個のプロファイル項目についてのプライバシー設定を指定する。これらの設定は、n×Nの応答行列Rの形で格納される。項目iについてのユーザjのプロファイル設定R(i,j)は、jが、iについての情報をどれくらい自発的に開示するかを決定する整数値であり、この値が大きいほど、jは、iについての情報をより自発的に開示する。
一般に、Rの値が大きいと、より高い可視性を意味する。他方、項目のプライバシー設定の値が小さいと、高い感受性を示し、これは、大部分の人が保護しようと試みる高感受性の項目である。従って、応答行列R内に格納される、プロファイル項目についてのユーザのプライバシー設定は、ユーザのプライバシー行動についての貴重な情報を有する。従って、第1の実施形態は、ソーシャル・ネットワーク内のあらゆるユーザの位置もまたユーザのプライバシー・リスクに影響を及ぼし、かつ、ネットワーク内のユーザの役割に応じて、プロファイル項目の可視性の設定が強化される(又は弱められる)という考えを用いることにより、ユーザのプライバシー・リスクを計算するように情報を用いる。プライバシー・リスクの計算においては、ソーシャル・ネットワーク構造及び使用モデル、並びに情報の伝搬及びバイラルマーケティング研究からのアルゴリズムが、考慮に入れられる。
一実施形態において、N個のノードからなるソーシャル・ネットワークGにおいて、{1,・・・,N}内のあらゆるノードjが、ネットワークのユーザと関連付けられる。ユーザは、Gのエッジに対応するリンクを通して接続される。原則として、リンクは、重み付けされていず、無向のものである。しかしながら、一般化のために、Gは有向のものであり、無向ネットワークは、全ての入力済みの無向エッジ(j,j’)に対して、2つの有向エッジ(j→j’)及び(j’→j)を付加することにより、有向のものに変換される。あらゆるユーザは、n個のプロファイル項目からなるプロファイルを有する。各プロファイル項目に対して、ユーザは、この項目と関連した情報を開示するユーザの自発性を判断するプライバシー・レベルを設定する。n個のプロファイル項目についてN人のユーザ全てによって選択されたプライバシー・レベルは、n×Nの応答行列R内に格納される。Rの行はプロファイル項目に対応し、列はユーザに対応する。
R(i,j)は、Rのi番目の行及びj番目の列にあるエントリを指し、R(i,j)は、項目iについてのユーザjのプライバシー設定を指す。応答行列Rのエントリが{0,1}の値をとるように制限される場合、Rは、2値応答行列である。さもなければ、Rのエントリが{0,1,・・・,l}内の負でない整数値をとる場合、行列Rは、多値応答行列である。2値応答行列Rにおいて、R(i,j)=1は、ユーザjが、プロファイル項目iと関連した情報を公的に入手可能にしたことを意味する。ユーザjが項目iと関連した情報を非公開にした場合、R(i,j)=0である。多値応答行列に現れる値の解釈は類似しており、R(i,j)=0は、ユーザjがプロファイル項目iを非公開にしたことを意味し、R(i,j)=1は、jが、項目iに関する情報を自分の身近な友人だけに開示することを意味する。一般に、R(i,j)=k(kは{0,1,・・・,l}の範囲内)は、jが、項目iに関連した情報を、G内の最大でもk個のリンクだけ離れたユーザに開示することを意味する。一般に、R(i,j)_R(i’,j)は、jが、項目iと比べて、項目i’に対してより保守的なプライバシー設定を有することを意味する。Riで示される、Rのi番目の行は、プロファイル項目iについて全てのユーザの設定を表す。同様に、Rjで示されるRのj番目の列は、ユーザjのプロファイル設定を表す。
異なるプロファイル項目についてのユーザの設定は、多くの場合、確率分布によって記述されるランダム変数と考えることができる。こうした場合、観測される応答行列Rは、この確率分布に従う応答のサンプルである。2値応答行列の場合、P(i,j)は、ユーザjがR(i,j)=1を選択する確率を示す。つまり、P(i,j)=Prob_R(i,j)=1である。多値応答行列の場合、P(i,j,k)は、ユーザjが、R(i,j)=kを設定する確率を示す。つまり、P(i,j,k)=Prob_R(i,j)=kである。
2値設定におけるプライバシー・リスク
ユーザのプライバシー・リスクは、そのプライバシーの保護を測定するスコアである。ユーザのプライバシー・リスクが高いほど、そのプライバシーへの脅威が大きくなる。ユーザのプライバシー・リスクは、そのプロファイル項目についてユーザが選択するプライバシー・レベルによって決まる。プライバシー・リスクの定義の基本前提は、以下のとおりである。すなわち、
・より多くの感受性情報をユーザが公開するにつれて、そのプライバシー・リスクが高くなる。
・より多くの人がユーザについての情報の部分を知るにつれて、そのプライバシー・リスクが高くなる。
以下の2つの例は、これらの2つの前提を示す。
例1:ユーザj及び2つのプロファイル項目、すなわちi={携帯電話の番号}及びi’={趣味}を仮定する。R(i,j)=1は、R(i’,j)=1と比べて、jにとってはるかにリスクが高い設定である。多くの人がjの趣味を知っていたとしても、このことは、同じ人の集合がjの携帯電話の番号を知っている場合のような侵入的なシナリオにはなり得ない。
例2:再びユーザjを仮定し、i={携帯電話の番号}を単一のプロファイル項目とする。必然的に、R(i,j)=1の設定は、R(i,j)=0の設定よりもリスクが高い行動であり、jの携帯電話を公的に入手可能にすることは、jのプライバシー・リスクを増大させる。
一実施形態においては、ユーザjのプライバシー・リスクが、2つのパラメータ:すなわち、プロファイル項目の感受性及びこれらの項目が受ける可視性の単調増加関数となるように定められる。プロファイル項目の感受性:例1及び例2は、項目の感受性が項目自体によって決まることを示す。従って、項目の感受性は、次のように定められる。
定義1。{1,・・・,n}内の項目iの感受性がβiで示され、これは、項目iの性質によって決まる。
幾つかのプロファイル項目は、本質的に他のものよりも感受性が高い。例1において、{携帯電話番号}は、同じプライバシー・レベルの{趣味}よりも感受性が高いと考えられる。プロファイル項目の可視性:jによるプロファイル項目iの可視性は、iについての周知のjの値が、ネットワークにおいてどのようになるかを捕らえる。これがより広がるにつれて、項目の可視性が大きくなる。V(i,j)で示される可視性は、値R(i,j)及びソーシャル・ネットワークG内の特定のユーザj及びその位置によって決まる。可視性の可能な限り簡単な定義は、V(i,j)=I(R(i,j)=1)であり、ここで、I(条件)は、”条件”が真であるときに1になるインジケータ変数である。これは、項目i及びユーザjについての観測される可視性である。一般に、Rは、あらゆる可能な応答行列における確率分布からのサンプルであると仮定することができる。次に、この仮定に基づいて、可視性が計算される。
定義2。P(i,j)=Prob_R(i,j)=1である場合、可視性は、V(i,j)=P(i,j)×1+(1−P(i,j))×0=P(i,j)である。
確率P(i,j)は、項目i及びユーザjの両方によって決まる。観測される可視性は、P(i,j)=I(R(i,j)=1)である場合の可視性のインスタンスである。ユーザのプライバシー・リスク:Pr(i,j)で示される、項目iによる個々のjのプライバシー・リスクは、感受性及び可視性のいずれの組み合わせとすることもできる。すなわち、P(i,j)=βiNV(i,j)である。オペレータNは、Pr(i,j)が感受性及び可視性の両方と共に単調に増加することを表すいずれかの任意の結合関数を表すために用いられる。
Pr(j)で示されるユーザjのプライバシー・リスク全体を評価するために、種々の項目によって、jのプライバシー・リスクを結合することができる。この場合も、いずれかの結合関数を用いて、項目ごとのプライバシー・リスクを結合することができる。一実施形態において、個々のjのプライバシー・リスクは、次のように計算される。:すなわち、Pr(j)=(i=1からnまでのPr(i,j)の和)=(i=1からnまでのβi×V(i,j)の和)=(i=1からnまでのβi×P(i,j)の和)。この場合も、観測されるプライバシー・リスクは、V(i,j)が観測される可視性と置き換えられるものである。
2値設定におけるプライバシー・リスクの素朴な(naive)計算
プライバシー・リスク・スコアを計算する一実施形態は、プライバシー・リスクの素朴な計算である。感受性の素朴な計算:項目iの感受性βiは、ユーザがi番目のプロファイル項目に関連した情報を公的に入手可能にすることが如何に難しいかを直観的に捕らえる。|Ri|が、R(i,j)=1を設定するユーザの数を示す場合、感受性の素朴な計算において、項目iを開示するのに積極的でないユーザの比率が計算される。つまり、βi=(N−|Ri|)/Nである。式中で計算される感受性は、[0,1]の値をとり、βiの値が高いほど、項目iの感受性がより高くなる。可視性の素朴な計算:可視性の計算(定義2を参照されたい)は、確率P(i,j)=Prob_R(i,j)=1の評価を必要とする。項目と個人との間の独立性を仮定すると、P(i,j)は、行Riにおける1の確率と列Rjにおける1の確率との積となるように計算される。つまり、|R^j|が、jがR(i,j)=1を設定する項目の数である場合、P(i,j)=|Ri|/N×|Rj|/n=(1−βi)×|Rj|/nとなる。確率P(i,j)は、感受性の低い項目及びプロファイル項目の多くを開示する傾向を有するユーザの場合に、より高くなる。このように計算されたプライバシー・リスク・スコアが、Pr素朴スコアである。
2値設定におけるプライバシー・リスクのIRTベースの計算
プライバシー・リスク・スコアを計算する別の実施形態は、項目応答理論(Item-Response Theory,IRT)からの概念を用いた、ユーザのプライバシー・リスクである。一実施形態において、2パラメータのIRTモデルを用いることができる。このモデルにおいては、あらゆる被験者jが、能力レベルθj(θjは(−1,1)の範囲内にある)によって特徴付けられる。あらゆる質問qiが、一対のパラメータξi=(αi,βi)によって特徴付けられる。パラメータβi(βiは(−1,1)の範囲内にある)は、qiの困難度を表す。パラメータαi(αiは(−1,1)の範囲内にある)は、qiの識別能力を定量化する。モデルの基本ランダム変数は、特定の質問qiに対する被験者jの応答である。この応答が「正(correct)」又は「誤(wrong)」(2値応答)のいずれかとしてマーク付けされた場合、2パラメータ・モデルにおいて、jが正しく答える確率は、P(i,j)=1/(1+e^(−αi(θj−βi)))により与えられる。従って、P(i,j)は、パラメータθj及びξi=(αi,βi)の関数である。パラメータξi=(αi,βi)を有する所定の質問qiの場合、θjの関数としての上記の式のプロットは、項目特性曲線(Item CharacteristicCurve、ICC)と呼ばれる。
パラメータβi、すなわち項目の困難度は、P(i,j)=0.5である点を示し、これは、項目の困難度が、項目に応答した人の特性ではなく、項目自体の特性であることを意味する。さらに、IRTは、βi及びθjを同じスケール上に置くので、これらを比較することができる。被験者の能力が質問の困難度より高い場合には、被験者が正しい答えを出す確率はより高く、逆もまた同様である。パラメータαi、すなわち項目識別力は、P(i,j)=0.5である点におけるP(i,j)の傾き=Pi(θj)に比例し、傾きが急であるほど、問題の識別能力がより高く、そのことは、この問題が、その能力がこの問題の困難度より下である被験者と上である被験者の識別をうまく行なうことができることを意味する。
本出願人らのプライバシー・リスクのIRTベースの計算において、確率Prob R(i,j)=1が、ユーザ及びプロファイル項目を用いる上記の式を用いて推定される。マッピングは、各被験者がユーザにマッピングされ、各問題がプロファイル項目にマッピングされるというものである。被験者の能力を用いて、ユーザの態度を定量化することができる。すなわち、ユーザjの場合、その態度θjは、jが自分のプライバシーについてどれだけ懸念しているかを定量化し、低い値のθjは保守的なユーザを示し、高い値のθjは無頓着なユーザを示す。困難度パラメータβiは、プロファイル項目iの感受性を定量化するために用いられる。高い感受性値βiを有する項目は、開示するのがより困難である。一般に、パラメータβiは、(−1,1)の範囲内のいずれの値をとることもできる。項目の感受性に対するプライバシー・リスクの単調性を維持するために、{1,・・・,n}内の全てのIについて、βiが0より大きいか又は0に等しいことが保証される。これは、全ての項目の感受性値を、βmin=argmini∈{1,...,n}βiだけシフトさせることによって、処理することができる。上記のマッピングにおいて、パラメータαiは無視される。
プライバシー・リスクを計算するために、{1,・・・,n}内の全ての項目iについての感受性βi、及び、確率P(i,j)=Prob R(i,j)=1が計算される。後者の計算において、nより小さいか又はnに等しいiより1だけ小さいか又はiに等しい場合の全てのパラメータξi=(αi,βi)、及び、Nより小さいか又はNに等しいiより1だけ小さいか又はiに等しい場合のθjが求められる。
3つの独立性の仮定は、IRTモデルに内在する:すなわち、(a)項目間の独立性、(b)ユーザ間の独立性、及び(c)ユーザと項目との間の独立性である。これらの方法を用いて計算されたプライバシー・リスク・スコアが、Pr IRTスコアである。
感受性のIRTベースの計算
特定の項目iの感受性βiを計算する際、副産物として、同じ項目についてのαiの値が得られる。項目は独立しているので、パラメータξi=(αi,βi)の計算は、項目ごとに別個に行なわれる。N人の個人の態度〜θ=(θ1, . . . , θN)が、入力の一部として与えられると仮定してξiをどのように計算するかが以下に示される。態度が未知であるときの項目のパラメータの計算が、さらに示される。
項目パラメータの推定
尤度関数は、
Figure 2012527671

のように定義される。
従って、ξi=(αi,βi)は、尤度関数を最大化するように推定される。上記の尤度関数は、ユーザごとに異なる態度を仮定する。一実施形態において、オンラインのソーシャル・ネットワーク・ユーザは、ユーザの集合{1,・・・,N}をK個の重なり合わないグループ{F1,...,FK}に区分化して、g=1からKまでのFgの和集合={1,・・・、N}となるようにするグループを形成する。θgをグループFgの態度とし(Fgの全てのメンバーが、同じ態度θgを共有する)、fg=|Fg|とする。同様に、各項目iについて、rigをR(i,j)=1と設定するFg内の人の数とする、つまり、rig=|{j|Fg内のj及びR(i,j)=1}|とする。こうしたグループ化が与えられた場合、尤度関数は、
Figure 2012527671

のように書くことができる。
定数を無視した後、対応する対数尤度関数は、
Figure 2012527671

となる。
項目パラメータξi=(αi,βi)は、対数尤度関数を最大化するように推定される。一実施形態において、ニュートン・ラプソン法が用いられる。ニュートン・ラプソン法は、偏導関数:
Figure 2012527671

が与えられた場合、パラメータξi=(αi,βi)を反復的に推定する方法である。反復(t+1)において、
Figure 2012527671

で示されるパラメータの推定値は、以下の:
Figure 2012527671

のような反復tにおける対応する推定値から計算される。
反復(t+1)において、導関数L1、L2、L11、L22、L12、及びL21の値は、反復tにおいて計算されたαi及びβiの推定値を用いて計算される。
{1,・・・,n}内の全ての項目iについてのξi=(αi,βi)を計算するための一実施形態において、態度〜θを有するN人のユーザの集合が、K個のグループに区分化される。区分化により、それらの態度に基づいて、K個のクラスタへのユーザの1次元のクラスタ化が実施され、これは、動的プログラミングを用いて最適に行なうことができる。
この手順の結果は、K個のグループ{F1,...,FK}へのユーザのグループ化であり、グループの態度θgは、Kより少ないか又はKに等しいgより1だけ少ないか又はgに等しい。このグループ化が与えられた場合、nより小さいか又はnに等しいiより1だけ小さいか又はiと等しいfgの値、及び、Kより小さいか又はKに等しいgより1だけ小さいか又はgと等しいrigの値が、計算される。これらの値が与えられた場合、項目NR推定は、n個の項目のそれぞれについて上記の式を実行する。
Figure 2012527671
項目パラメータ推定のためのEMアルゴリズム
一実施形態においては、ユーザの態度を知ることなく、よって、入力として応答行列Rのみを有した状態で、項目パラメータを計算することができる。〜ξ=(ξ1,...,ξn)を、全ての項目についてのパラメータのベクトルとする。従って、応答行列Rが与えられた場合、〜ξが推定される(すなわち、P(R|〜ξ)を最大化する〜ξ)。〜θを隠れた観測できない変数とする。従って、P(R|〜ξ)=(P(R,〜θ|〜ξ)の〜θについての和)である。期待値−最大化法(EM)を用いて、〜ξが計算され、上記の限界は、以下の期待値関数:
Figure 2012527671

を最大化することによって、局大に達する。
K個のグループへのユーザのグループ化については、
Figure 2012527671

となる。
この期待値Eをとることにより:
Figure 2012527671

が生成される。
EMアルゴリズムを用いて式を最大化して、反復(t+1)におけるパラメータの推定値が、次の漸化式:
Figure 2012527671

を用いて反復tにおける推定されたパラメータから、計算される。
EMアルゴリズムについての疑似コードが、以下のアルゴリズム2において与えられる。アルゴリズムの各々の反復は、期待値ステップ(Expectation step)及び最大化ステップ(Maximization step)からなる。
Figure 2012527671
固定された推定値〜ξについては、期待値ステップにおいて、〜θが、事後確率分布P(θ|R,ξ)からサンプリングされ、期待値が計算される。最初に、K個のグループの仮定の下での〜θのサンプリングは、あらゆるグループg∈{1,...,K}について、分布P(θg|R,〜ξ)から態度θgをサンプリングできることを意味する。確率の計算が既知であると仮定すると、期待値の定義を用いて、あらゆる項目i及びグループg∈{1,...,K}についての項E[fig]及びE[rig]を計算することができる。つまり、
Figure 2012527671

となる。
グループ内のユーザのメンバーシップは、確率論的である。つまり、あらゆる個人は、何らかの確率であらゆるグループに所属する。これらのメンバーシップ確率の和は、全てのグループについてのfig及びrigの値を知ることに等しく、全ての項目は、期待値の式の評価を可能にする。最大化ステップにおいては、期待値を最大化する新しい〜ξが計算される。あらゆる項目iについてパラメータξiを独立に計算することによって、ベクトル〜ξが形成される。
態度〜θの事後確率:EMフレームワークを適用するために、事後確率分布P(〜θ|R,〜ξ)から、ベクトル〜θがサンプリングされる。実際には、この確率分布は未知のものである可能性があるが、サンプリングは依然として行なうことができる。ベクトル〜θは、各個人j∈{1,...,N}の態度レベルからなる。さらに、g=1からKまでの態度{θg}を有するK個のグループの存在の仮定が存在する。サンプリングは、次のように進む。:すなわち、各グループgについて、能力レベルθgがサンプリングされ、任意のユーザj∈{1,...,N}が能力レベルθj=θgを有する事後確率が計算される。確率の定義により、この事後確率は:
Figure 2012527671

となる。
関数g(θj)は、ユーザの母集団における態度の確率密度関数である。この確率密度関数は、ユーザの態度についての事前知識をモデル化するために用いられる(ユーザの態度の事前分布と呼ばれる)。標準的な慣習に従って、事前分布は、全てのユーザについて同じであると仮定される。さらに、関数gは、正規分布の密度関数であると仮定される。
あらゆる態度θjの事後確率の評価は、積分の評価を必要とする。この問題は、次のように克服される。すなわち、K個のグループの存在が仮定されるので、K個の点X1,...XKだけが、能力尺度でサンプリングされる。各々のt∈{1,...,K}について、態度の値Xtにおける態度関数の密度について、g(Xt)が計算される。次に、A(Xt)が、点(Xt−0.5,0)、(Xt+0.5,0)、(Xt−0.5,g(Xt))及び(Xt+0.5,g(Xt))によって定められた矩形の面積として設定される。A(Xt)の値は、(t=1からKまでのA(Xt)の和)=1となるように正規化される。そのようにして、Xtの事後確率は、次の式:
Figure 2012527671

によって得られる。
可視性のIRTベースの計算
可視性の計算は、P(i,j)=Prob(R(i,j)=1)の評価を必要とする。
項目パラメータ〜α=(α1,...,αn)及び〜β=(β1,...,βn)が与えられた場合、個人の態度を計算するためのニュートン−ラプソン手順である、NR態度推定アルゴリズムが説明される。これらの項目パラメータは、入力として与えることができ、又はEMアルゴリズム(アルゴリズム2を参照されたい)を用いて計算することができる。各個人jについて、NR態度推定は、i=1からnまでのP(i,j)^(R(i,j))(1−P(i,j))^(1−R(i,j)の乗積級数として定義された尤度、又は、対応する次の:
Figure 2012527671

のような対数尤度を最大化するθjを計算する。
〜α及び〜βは、入力の一部であるので、最大化するための変数は、θjである。^θjで示されるθjの推定値は、再びニュートン−ラプソン法を用いて反復的に得られる。より具体的には、反復(t+1)における推定値^θj、すなわち[^θj]t+1は、次の:
Figure 2012527671

のように反復tにおける推定値[^θj]tを用いて計算される。
多値設定におけるプライバシー・リスク
入力が2値応答行列Rであるときのユーザのプライバシー・リスクの計算が説明された。以下で、多値応答行列を扱うために、前のセクションで説明された定義及び方法が拡張される。多値行列においては、あらゆるエントリR(i,j)=kであり、k∈{1,...,l}である。R(i,j)の値が小さいほど、プロファイル項目iに関するユーザjのプライバシー設定は、より保守的になる。前に与えられたプライバシー・リスクの定義が、多値の場合に拡張される。同様に、素朴な手法及びIRTベースの手法を用いてプライバシー・リスクをどのように計算できるかも、以下に示される。
2値の場合におけるように、プロファイル項目iに関するユーザjのプライバシー・リスクは、項目iの感受性及び可視性の関数であり、項目iは、jによってソーシャル・ネットワークの中に入る。多値の場合においては、感受性及び可視性の両方とも、項目自体と、項目に割り当てられたプライバシー・レベルkとによって決まる。従って、プライバシー・レベルkに関する項目の感受性は、次のように定められる。
定義3:プライバシー・レベルk∈{1,...,l}に対する項目i∈{1,...,n}の感受性は、βikで示される。関数βikは、kに対して単調に増加し、項目iについて選択されたプライバシー・レベルkが大きいほど、その感受性が高くなる。
定義3の妥当性が、次の例において示される。
例5:ユーザj及びプロファイル項目i={携帯電話番号}と仮定する。R(i,j)=3の設定により、項目iは、R(i,j)=1の設定よりも高感受性になる。前者の場合、項目iはさらに多くのユーザに開示されるので、これが誤用される可能性も多くなる。
同様に、項目の可視性が、そのプライバシー・レベルの関数になる。従って、定義2を次のように拡張することができる。
定義4:Pi,j,k=Prob{R(i,j)=k}である場合、レベルkにおける可視性は、V(i,j,k)=Pi,j,k×kである。
定義3及び定義4が与えられた場合、ユーザjのプライバシー・リスクは:
Figure 2012527671

のように計算される。
多値設定においてプライバシー・リスクを計算するための素朴な手法
多値の場合、項目の感受性は、各レベルkについて別個に計算される。従って、感受性の素朴な計算値は、次の:
Figure 2012527671

である。
多値の場合の可視性は、確率Pi,j,k=Prob{R(i,j)=k}の計算を必要とする。項目とユーザとの間の独立性を仮定することによって、この確率は、次の:
Figure 2012527671

のように計算することができる。
確率Pijkは、行iにおいて観測される値kの確率と列jにおいて観測される値kの確率との積である。2値の場合におけるように、上記の式を用いて計算されたスコアは、Pr素朴スコア(Pr Naive score)である。
多値設定においてプライバシー・リスク・スコアを求めるためのIRベースの手法
多値応答行列の取り扱いは、IRTベースのプライバシー・リスクについては、わずかにより複雑である。プライバシー・リスクの計算は、(l+1)個の2値応答行列R*0、R*1,...,R*lへの多値応答行列Rの変換である。各々の行列R*k(k∈{1,...,l}に対して)は、R(i,j)≧kの場合にはR*k(i,j)=1であり、他の場合にはR*k(i,j)=0となるように構成される。P*ijk=Prob{R(i,j)≧k}とする。行列R*i0が、1に等しい全てのエントリを有するので、全てのユーザについてPij0=1である。k∈{1,...,l}である他の2値応答行列R*kについては、R*k(i,j)=1の設定の確率は:
Figure 2012527671

のように与えられる。
構成により、あらゆるk’,k∈{1,...,l}及びk’<kについて、行列R*kは、行列R*k’内に現れる1−エントリのサブセットのみを含む。従って、P*ijk’≧Pijkである。従って、k∈{1,...,l}の場合のP*ijkのICC曲線は交差しない。この観測は、次の推論をもたらす。すなわち、
推論1:項目i及びプライバシー・レベルk∈{1,...,l}について、β*i1<...<...β*ik<...<β*ilである。
さらに、曲線Pijkは、交差しないので、α*i1=...=α*ik=...=α*il=α*iである。
Pij0=1であるので、α*i0及びβ*i0は定められない。
プライバシー・リスクの計算は、Pijk=Pro{R(i,j)=k}の計算を必要とし得る。この確率はP*ijkとは異なるが、なぜなら、前者はエントリR(i,j)=kの確率を指し、後者は累積確率P*ijk=(k’=kからlまでのPijkの和)であるためである。
代替的に:
Figure 2012527671

である。
上記の式は、P*ikとPikとの間の次の関係に一般化することができる:すなわち、あらゆる項目i、態度θj及びプライバシー・レベルk∈{1,...,l}について、
Figure 2012527671

である。
k=lの場合、Pil(θj)=Pil(θj)である。
命題1:k∈{1,...,l−1}の場合、βik=(β*ik+β*i(k+1)/2である。同様に、βi0=β*i1及びβil=β*ilである。
命題1及び推論1は、推論2をもたらす。:
推論2:k∈{1,...,l}の場合、βi0<βi1<...<βilである。
多値設定についてのIRTベースの感受性:プライバシー・レベルkに対する項目iの感受性βikは、Pijk曲線の感受性パラメータである。これは、最初に、感受性パラメータβ*ik及びβ*i(k+1)を計算することにより計算される。次に、命題1を用いてβikを計算する。
目標は、各項目iについての感受性パラメータβ*i1,...,β*ilを計算することである。2つの場合が考えられる:すなわち、ユーザの態度〜θが応答行列Rと共にその一部として与えられる場合、及び、入力がRだけからなる場合である。第2の場合について言及すると、1≦k≦lの場合の全ての(l+1)個の未知のパラメータα*i及びβ*ikが同時に計算される。N人の個人の集合をK個のグループに区分化でき、g番目のグループ内の全ての個人が同じ態度θgを有すると仮定する。同様に、Pik(θg)を、グループg内の個人jが、R(i,j)=kを設定する確率とする。最終的に、fgにより、g番目のグループ内のユーザの総数が示され、rgkにより、R(i,j)=kを設定するg番目のグループ内の人の数が示される。このグループ化が与えられた場合、多値の場合におけるデータの尤度は:
Figure 2012527671

のように書くことができる。
定数を無視した後、対応する対数尤度関数は:
Figure 2012527671

となる。
最後の3つの式に関する減算を用いて、Lを、未知数が(l+1)個のパラメータ(α*i,β*i1,...,β*il)のみである関数に変換することができる。これらのパラメータの計算は、既述のものに類似した反復ニュートン−ラプソン手順を用いて行なわれるが、但し、ここでは対数尤度関数Lの偏導関数を計算するためのより多くの未知のパラメータが存在するという違いがある。
多値設定におけるIRTベースの可視性:多値の場合の可視性値の計算は、全ての個人について態度〜θの計算を必要とする。項目パラメータα*i,β*i1,...,β*ilが与えられた場合、NR態度推定に類似した手順を用いて、各ユーザごとに独立に計算を行なうことができる。違いは、計算のために用いられる尤度関数が、前の式において与えられたものであるという点である。
多値型応答行列についての感受性及び可視性のIRTベースの計算は、あらゆるユーザに対してプライバシー・リスク・スコアを与える。2値型IRT計算におけるように、このように得られたスコアは、Pr IRTスコアと呼ばれる。
システム及び方法の実施のための例示的なコンピュータ・アーキテクチャ
図4は、プライバシー設定及び/又はプライバシー環境の計算を実施するための例示的なコンピュータ・アーキテクチャを示す。一実施形態においては、コンピュータ・アーキテクチャは、図2のコンソール205の一例である。図4の例示的なコンピュータ・アーキテクチャは、1)1つ又は複数のプロセッサ401;2)メモリ制御ハブ(MCH)402;3)システム・メモリ403(DDR RAM、EDO RAM等のような異なるタイプが存在する);4)キャッシュ404;5)I/O制御ハブ(ICH)405;6)グラフィックス・プロセッサ406;7)ディスプレイ/スクリーン407(陰極線管(CRT)、薄膜トランジスタ(TFT)、液晶ディスプレイ(LCD)、DPL等のような異なるタイプが存在する);及び/又は8)1つ又は複数のI/Oデバイス408を含む。
1つ又は複数のプロセッサ401は、コンピュータ・システムが実施するどのようなソフトウェア・ルーチンをも実行するために、命令を実行する。例えば、プロセッサ401は、インジケータを決定及び翻訳し、又はプライバシー・リスク・スコアを求める動作を実行することができる。命令は、データを用いて実行されるある種の動作を必要とすることが多い。データも命令も、システム・メモリ403及びキャッシュ404内に格納される。データは、インジケータを含むことができる。キャッシュ404は、典型的には、システム・メモリ403よりも短い待ち時間を有するように設計される。例えば、キャッシュ404は、プロセッサと同じシリコン・チップの上に統合することができ、及び/又は、より速いSRAMセルを有するように構成することができ、システム・メモリ403は、より遅いDRAMセルを有するように構成することができる。システム・メモリ403とは対照的に、より頻繁に使用される命令及びデータをキャッシュ404内に格納する傾向により、コンピューティング・システムの全体的な性能効率が改善する。
システム・メモリ403が、意図的に、コンピューティング・システム内の他のコンポーネントに利用できるようにされる。例えば、種々のインターフェースからコンピューティング・システム(例えば、キーボード及びマウス、プリンタ・ポート、LANポート、モデム・ポート等)に受け取った、又は、コンピューティング・システムの内部格納要素(例えば、ハードディスク)から取り出したデータは、ソフトウェア・プログラムの実施において1つ又は複数のプロセッサ401により動作される前に、システム・メモリ403内に一時的にキューに入れられることが多い。同様に、ソフトウェア・プログラムが決定するデータは、コンピューティング・システム・インターフェースの1つを通して、コンピューティング・システムから外部エンティティに送るか、又は内部格納要素内に格納すべきであり、伝送又は格納される前に、システム・メモリ403内に一時的にキューに入れられることが多い。
ICH405は、こうしたデータが、システム・メモリ403と適切な対応するコンピューティング・システム・インターフェース(とコンピューティング・システムがそのように設計される場合には、内部格納装置)との間で適切に送られることを保証する役割を担う。MCH402は、互いに対して遅れずに近接して発生し得る、プロセッサ401と、インターフェースと、内部格納要素との間のシステム・メモリ403のアクセスに対する種々の競合する要求を管理する役割を担う。
1つ又は複数のI/Oデバイス408はまた、典型的なコンピューティング・システム内にも実装される。I/Oデバイスは、一般に、コンピューティング・システム(例えば、ネットワーキング・アダプタ)間のデータ転送、或いは、コンピューティング・システム(例えば、ハードディスク・ドライブ)内の大規模な不揮発性ストレージの役割を担う。ICH405は、これ自体と観測されるI/Oデバイス408との間に二方向の2地点間リンクを有する。一実施形態において、I/Oデバイスは、ソーシャル・ネットワーキング・サイトから情報を送受信して、ユーザについてのプライバシー設定を定める。
特許請求されるシステムの異なる実施形態のモジュールは、ソフトウェア、ハードウェア、ファームウェア、又はこれらのいずれかの組み合わせを含むことができる。モジュールは、著作権のある(proprietary)ソフトウェア又は一般に公開されている(public)ソフトウェアを実行している、公共用プロセッサ又は専用プロセッサ、或いは汎用プロセッサが利用できるソフトウェア・プログラムとすることができる。ソフトウェアはまた、署名の作成及び編成、並びに再コンパイル管理専用に書かれた特化したプログラムとすることもできる。例えば、システムのストレージは、これらに限られるものではないが、ハードウェア(フロッピーディスケット、光ディスク、CD−ROM及び光磁気ディスク、ROM、RAM、EPROM、EEPROM、フラッシュ、磁気又は光カード、伝播媒体、又は他のタイプの媒体/機械可読媒体など)、ソフトウェア(ハードウェア・ストレージ・ユニット上への情報の格納を必要とする命令など)、又はこれらのいずれかの組み合わせを含むことができる。
さらに、本発明の要素は、機械実行可能命令を格納するための機械可読媒体として提供することもできる。機械可読媒体は、これらに限られるものではないが、フロッピーディスケット、光ディスク、CD−ROM、光磁気ディスク、ROM、RAM、EPROM、EEPROM、フラッシュ、磁気又は光カード、伝播媒体、又は電子命令の格納に適した他のタイプの媒体/機械可読媒体を含むことができる。
図に示される例示的な方法の場合、本発明の実施形態は、上述したような種々のプロセスを含むことができる。このプロセスは、汎用プロセッサ又は専用プロセッサに特定のステップを実行させる機械実行可能命令の形で具体化することができる、代替的に、これらのプロセスは、該プロセスを実行するための配線論理を含む特定のハードウェア・コンポーネントによって、又は、プログラムされたコンピュータ・コンポーネントとカスタム・ハードウェア・コンポーネントのいずれかの組み合わせによって実行することができる。
本発明の実施形態は、提示される種々のプロセスの全てを必要とするものではなく、提示される特定のプロセスを用いずに、又は提示されていない追加のプロセスを用いて、本発明の実施形態を実施する方法に関して、当業者が思い付くことが可能である。
概要
本発明の実施形態の上記の説明は、図示及び説明目的のためだけに提示されるものであり、網羅的であること、又は、本発明を開示される精密な形態に制限することを意図するものではない。本発明の精神及び範囲から逸脱することなく、多数の修正及び変形が可能であることが、当業者には明らかである。例えば、ソーシャル・ネットワーク内で又はソーシャル・ネットワーク間でプライバシー設定を伝搬するように説明されたが、設定の伝搬は、プライバシー設定を共有する2つのコンピュータのようなデバイス間で行なうことができる。
100:ソーシャル・グラフ
101、203:ユーザ
102、103、104、105、106、114、201:人
107、108、109、110、111、112、115:リンク
202、204:ソーシャル・ネットワーク
205:コンソール
401:プロセッサ
403:システム・メモリ
404:キャッシュ
407:ディスプレイ
406:グラフィックス・プロセッサ
408:I/Oデバイス

Claims (20)

  1. セキュリティ設定及び/又はプライバシー設定を管理する方法であって、
    第1のクライアントを第2のクライアントに通信可能に結合することと、
    前記第1のクライアントについての複数のセキュリティ設定及び/又はプライバシー設定の部分を、前記第1のクライアントから前記第2のクライアントに伝搬することと、
    前記第2のクライアントにおいて、前記第1のクライアントについての前記複数のセキュリティ設定及び/又はプライバシー設定の前記部分を受信したとき、前記第1のクライアントについての前記複数のセキュリティ設定及び/又はプライバシー設定の前記受信した部分を、前記第2のクライアントについての複数のセキュリティ設定及び/又はプライバシー設定に組み込むことと、
    を含む方法。
  2. 前記第1のクライアント及び前記第2のクライアントは、ソーシャル・ネットワーク上のプロファイルである、請求項1に記載の方法。
  3. 前記第1のクライアントは、第1のソーシャル・ネットワーク上のプロファイルであり、前記第2のクライアントは、第2のソーシャル・ネットワーク上のプロファイルである、請求項1に記載の方法。
  4. 前記第1のクライアントについての前記複数のセキュリティ設定及び/又はプライバシー設定を、前記第2のクライアントについての前記複数のセキュリティ設定及び/又はプライバシー設定と比較することと、
    前記比較から、前記第2のクライアントに伝搬される前記複数のセキュリティ設定及び/又はプライバシー設定の前記部分を決定することと、
    をさらに含む、請求項1に記載の方法。
  5. 複数のクライアントを前記第2のクライアントと通信可能に結合することと、
    前記第2のクライアントについての前記複数のセキュリティ設定及び/又はプライバシー設定を、前記複数のクライアントの各々についての複数のセキュリティ設定及び/又はプライバシー設定と比較することと、
    前記比較から、前記複数のクライアントについてのどのセキュリティ設定及び/又はプライバシー設定が、前記第2のクライアントについての前記複数のセキュリティ設定及び/又はプライバシー設定に組み込まれるかを決定することと、
    組み込まれる前記セキュリティ設定及び/又はプライバシー設定を前記第2のクライアントに伝搬することと、
    前記第2のクライアントにおいて、組み込まれる前記セキュリティ設定及び/又はプライバシー設定を受信したとき、前記受信したセキュリティ設定及び/又はプライバシー設定を、前記第2のクライアントについての前記複数のセキュリティ設定及び/又はプライバシー設定に組み込むことと、
    をさらに含む、請求項1に記載の方法。
  6. 前記複数のクライアント及び前記第2のクライアントは、前記第2のクライアントについてのソーシャル・グラフを形成する、ソーシャル・ネットワーク上の複数のプロファイルである、請求項5に記載の方法。
  7. 前記複数のセキュリティ設定及び/又はプライバシー設定を比較することは、第1のクライアントのプライバシー・リスクを計算することを含む、請求項6に記載の方法。
  8. セキュリティ設定及び/又はプライバシー設定を管理するためのシステムであって、
    第1のクライアントを第2のクライアントに通信可能に結合するように構成された結合モジュールと、
    前記第1のクライアントについての複数のセキュリティ設定及び/又はプライバシー設定の部分を、前記第1のクライアントから前記第2のクライアントに伝搬するように構成された伝搬モジュールと、
    前記第2のクライアントにおいて、前記第1のクライアントについてのセキュリティ設定及び/又はプライバシー設定の前記部分を受信したとき、前記第1のクライアントについての前記複数のセキュリティ設定及び/又はプライバシー設定の前記受信した部分を、前記第2のクライアントについての複数のセキュリティ設定及び/又はプライバシー設定に組み込むように構成された統合モジュールと、
    を含むシステム。
  9. 前記第1のクライアント及び前記第2のクライアントは、ソーシャル・ネットワーク上のプロファイルである、請求項8に記載のシステム。
  10. 前記第1のクライアントは、第1のソーシャル・ネットワーク上のプロファイルであり、前記第2のクライアントは、第2のソーシャル・ネットワーク上のプロファイルである、請求項8に記載のシステム。
  11. 前記第1のクライアントについての前記複数のセキュリティ設定及び/又はプライバシー設定を、前記第2のクライアントについての前記複数のセキュリティ設定及び/又はプライバシー設定と比較し、
    前記比較から、前記第2のクライアントに伝搬される前記複数のセキュリティ設定及び/又はプライバシー設定の前記部分を決定する、
    ように構成された比較モジュールをさらに含む、請求項8に記載のシステム。
  12. 前記結合モジュールは、複数のクライアントを前記第2のクライアントと通信可能に結合するようにさらに構成され、
    前記比較モジュールは、
    前記第2のクライアントについての前記複数のセキュリティ設定及び/又はプライバシー設定を、前記複数のクライアントの各々についての複数のセキュリティ設定及び/又はプライバシー設定と比較し、
    前記比較から、前記複数のクライアントについてのどのセキュリティ設定及び/又はプライバシー設定をが、前記第2のクライアントについての前記複数のセキュリティ設定及び/又はプライバシー設定に組み込まれるかを決定する、
    ようにさらに構成され、
    前記伝搬モジュールは、組み込まれる前記セキュリティ設定及び/又はプライバシー設定を前記第2のクライアントに伝搬するようにさらに構成され、
    前記統合モジュールは、前記第2のクライアントにおいて、組み込まれる前記セキュリティ設定及び/又はプライバシー設定を受信したとき、前記受信したセキュリティ設定及び/又はプライバシー設定を、前記第2のクライアントについての前記複数のセキュリティ設定及び/又はプライバシー設定に組み込むようにさらに構成される、請求項8に記載のシステム。
  13. 前記複数のクライアント及び前記第2のクライアントは、前記第2のクライアントについてのソーシャル・グラフを形成する、ソーシャル・ネットワーク上の複数のプロファイルである、請求項12に記載のシステム。
  14. 前記複数のセキュリティ設定及び/又はプライバシー設定の比較の際、第1のクライアントについてプライバシー・リスク・スコアが計算される、請求項13に記載のシステム。
  15. コンピュータ可読プログラムを格納するためのコンピュータ使用可能ストレージ媒体を含むコンピュータ・プログラム製品であって、前記コンピュータ可読プログラムは、コンピュータ上で実行されるとき、前記コンピュータに、
    第1のクライアントを第2のクライアントに通信可能に結合することと、
    前記第1のクライアントについての複数のセキュリティ設定及び/又はプライバシー設定の部分を、前記第1のクライアントから前記第2のクライアントに伝搬することと、
    前記第2のクライアントにおいて、前記第1のクライアントについての前記複数のセキュリティ設定及び/又はプライバシー設定の前記部分を受信したとき、前記第1のクライアントについての複数のセキュリティ設定及び/又はプライバシー設定の前記受信した部分を、前記第2のクライアントについての複数のセキュリティ設定及び/又はプライバシー設定に組み込むことと、
    を含む動作を実行させる、コンピュータ・プログラム製品。
  16. 前記第1のクライアント及び前記第2のクライアントは、ソーシャル・ネットワーク上のプロファイルである、請求項15に記載のコンピュータ・プログラム製品。
  17. 前記第1のクライアントは、第1のソーシャル・ネットワーク上のプロファイルであり、前記第2のクライアントは、第2のソーシャル・ネットワーク上のプロファイルである、請求項15に記載のコンピュータ・プログラム製品。
  18. 前記コンピュータ可読プログラムは、前記コンピュータに、
    前記第1のクライアントについての前記複数のセキュリティ設定及び/又はプライバシー設定を、前記第2のクライアントについての前記複数のセキュリティ設定及び/又はプライバシー設定と比較することと、
    前記比較から、前記第2のクライアントに伝搬される前記複数のセキュリティ設定及び/又はプライバシー設定の前記部分を決定することと、
    をさらに含む動作を実行させる、請求項15に記載のコンピュータ・プログラム製品。
  19. 前記コンピュータ可読プログラムは、前記コンピュータに、
    複数のクライアントを前記第2のクライアントと通信可能に結合することと、
    前記第2のクライアントについての前記複数のセキュリティ設定及び/又はプライバシー設定を、前記複数のクライアントの各々についての複数のセキュリティ設定及び/又はプライバシー設定と比較することと、
    前記比較から、前記複数のクライアントについてのどのセキュリティ設定及び/又はプライバシー設定を、前記第2のクライアントについての前記複数のセキュリティ設定及び/又はプライバシー設定に組み込むかを決定することと、
    組み込まれる前記セキュリティ設定及び/又はプライバシー設定を前記第2のクライアントに伝搬することと、
    前記第2のクライアントにおいて、組み込まれる前記セキュリティ設定及び/又はプライバシー設定を受信したとき、前記受信したセキュリティ設定及び/又はプライバシー設定を前記第2のクライアントについての前記複数のセキュリティ設定及び/又はプライバシー設定に組み込むことと、
    をさらに含む動作を実行させる、請求項15に記載のコンピュータ・プログラム製品。
  20. 前記複数のクライアント及び前記第2のクライアントは、前記第2のクライアントについてのソーシャル・グラフを形成するソーシャル・ネットワーク上の複数のプロファイルである、請求項15に記載のコンピュータ・プログラム製品。
JP2012511225A 2009-05-19 2010-04-29 セキュリティ設定及び/又はプライバシー設定を管理するためのシステム及び方法 Expired - Fee Related JP5623510B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/468,738 US20100306834A1 (en) 2009-05-19 2009-05-19 Systems and methods for managing security and/or privacy settings
US12/468,738 2009-05-19
PCT/EP2010/055854 WO2010133440A2 (en) 2009-05-19 2010-04-29 Systems and methods for managing security and/or privacy settings

Publications (2)

Publication Number Publication Date
JP2012527671A true JP2012527671A (ja) 2012-11-08
JP5623510B2 JP5623510B2 (ja) 2014-11-12

Family

ID=42988393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012511225A Expired - Fee Related JP5623510B2 (ja) 2009-05-19 2010-04-29 セキュリティ設定及び/又はプライバシー設定を管理するためのシステム及び方法

Country Status (7)

Country Link
US (1) US20100306834A1 (ja)
JP (1) JP5623510B2 (ja)
KR (1) KR101599099B1 (ja)
CN (1) CN102428475B (ja)
CA (1) CA2741981A1 (ja)
TW (1) TWI505122B (ja)
WO (1) WO2010133440A2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014519104A (ja) * 2011-05-20 2014-08-07 グーグル インコーポレイテッド ソーシャルネットワークのためのフィード翻訳
JP2016502726A (ja) * 2012-12-06 2016-01-28 トムソン ライセンシングThomson Licensing ソーシャルネットワークプライバシーオーディタ
JP5970739B1 (ja) * 2015-08-22 2016-08-17 正吾 鈴木 マッチングシステム

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8832556B2 (en) * 2007-02-21 2014-09-09 Facebook, Inc. Systems and methods for implementation of a structured query language interface in a distributed database environment
US9990674B1 (en) 2007-12-14 2018-06-05 Consumerinfo.Com, Inc. Card registry systems and methods
US8312033B1 (en) 2008-06-26 2012-11-13 Experian Marketing Solutions, Inc. Systems and methods for providing an integrated identifier
US8060424B2 (en) 2008-11-05 2011-11-15 Consumerinfo.Com, Inc. On-line method and system for monitoring and reporting unused available credit
US8752186B2 (en) * 2009-07-23 2014-06-10 Facebook, Inc. Dynamic enforcement of privacy settings by a social networking system on information shared with an external system
US9704203B2 (en) * 2009-07-31 2017-07-11 International Business Machines Corporation Providing and managing privacy scores
US9037711B2 (en) 2009-12-02 2015-05-19 Metasecure Corporation Policy directed security-centric model driven architecture to secure client and cloud hosted web service enabled processes
US8612891B2 (en) * 2010-02-16 2013-12-17 Yahoo! Inc. System and method for rewarding a user for sharing activity information with a third party
US9154564B2 (en) * 2010-11-18 2015-10-06 Qualcomm Incorporated Interacting with a subscriber to a social networking service based on passive behavior of the subscriber
US9497154B2 (en) * 2010-12-13 2016-11-15 Facebook, Inc. Measuring social network-based interaction with web content external to a social networking system
US8504910B2 (en) * 2011-01-07 2013-08-06 Facebook, Inc. Mapping a third-party web page to an object in a social networking system
WO2012106496A2 (en) * 2011-02-02 2012-08-09 Metasecure Corporation Secure social web orchestration via a security model
US20120210244A1 (en) * 2011-02-10 2012-08-16 Alcatel-Lucent Usa Inc. Cross-Domain Privacy Management Service For Social Networking Sites
US9483606B1 (en) 2011-07-08 2016-11-01 Consumerinfo.Com, Inc. Lifescore
US9106691B1 (en) 2011-09-16 2015-08-11 Consumerinfo.Com, Inc. Systems and methods of identity protection and management
US8966643B2 (en) * 2011-10-08 2015-02-24 Broadcom Corporation Content security in a social network
US8738516B1 (en) 2011-10-13 2014-05-27 Consumerinfo.Com, Inc. Debt services candidate locator
US9853959B1 (en) 2012-05-07 2017-12-26 Consumerinfo.Com, Inc. Storage and maintenance of personal data
US8732802B2 (en) * 2012-08-04 2014-05-20 Facebook, Inc. Receiving information about a user from a third party application based on action types
US20140052795A1 (en) * 2012-08-20 2014-02-20 Jenny Q. Ta Social network system and method
US9654541B1 (en) 2012-11-12 2017-05-16 Consumerinfo.Com, Inc. Aggregating user web browsing data
US9916621B1 (en) 2012-11-30 2018-03-13 Consumerinfo.Com, Inc. Presentation of credit score factors
US10237325B2 (en) 2013-01-04 2019-03-19 Avaya Inc. Multiple device co-browsing of a single website instance
US20140237612A1 (en) * 2013-02-20 2014-08-21 Avaya Inc. Privacy setting implementation in a co-browsing environment
US9665653B2 (en) 2013-03-07 2017-05-30 Avaya Inc. Presentation of contextual information in a co-browsing environment
US8925099B1 (en) * 2013-03-14 2014-12-30 Reputation.Com, Inc. Privacy scoring
US10102570B1 (en) 2013-03-14 2018-10-16 Consumerinfo.Com, Inc. Account vulnerability alerts
US9406085B1 (en) 2013-03-14 2016-08-02 Consumerinfo.Com, Inc. System and methods for credit dispute processing, resolution, and reporting
US10685398B1 (en) 2013-04-23 2020-06-16 Consumerinfo.Com, Inc. Presenting credit score information
US9697381B2 (en) * 2013-09-03 2017-07-04 Samsung Electronics Co., Ltd. Computing system with identity protection mechanism and method of operation thereof
US10325314B1 (en) 2013-11-15 2019-06-18 Consumerinfo.Com, Inc. Payment reporting systems
US9477737B1 (en) 2013-11-20 2016-10-25 Consumerinfo.Com, Inc. Systems and user interfaces for dynamic access of multiple remote databases and synchronization of data based on user rules
WO2015094287A1 (en) * 2013-12-19 2015-06-25 Intel Corporation Secure vehicular data management with enhanced privacy
WO2015120567A1 (zh) * 2014-02-13 2015-08-20 连迪思 保证隐私且满足社会活动功能的方法及系统
US9892457B1 (en) 2014-04-16 2018-02-13 Consumerinfo.Com, Inc. Providing credit data in search results
US9860281B2 (en) 2014-06-28 2018-01-02 Mcafee, Llc Social-graph aware policy suggestion engine
CN104091131B (zh) * 2014-07-09 2017-09-12 北京智谷睿拓技术服务有限公司 应用程序与权限的关系确定方法及确定装置
US9544325B2 (en) * 2014-12-11 2017-01-10 Zerofox, Inc. Social network security monitoring
US20160182556A1 (en) * 2014-12-23 2016-06-23 Igor Tatourian Security risk score determination for fraud detection and reputation improvement
US10516567B2 (en) 2015-07-10 2019-12-24 Zerofox, Inc. Identification of vulnerability to social phishing
US10176263B2 (en) 2015-09-25 2019-01-08 Microsoft Technology Licensing, Llc Identifying paths using social networking data and application data
US20170111364A1 (en) * 2015-10-14 2017-04-20 Uber Technologies, Inc. Determining fraudulent user accounts using contact information
US10868824B2 (en) 2017-07-31 2020-12-15 Zerofox, Inc. Organizational social threat reporting
US11165801B2 (en) 2017-08-15 2021-11-02 Zerofox, Inc. Social threat correlation
US11418527B2 (en) 2017-08-22 2022-08-16 ZeroFOX, Inc Malicious social media account identification
US11403400B2 (en) 2017-08-31 2022-08-02 Zerofox, Inc. Troll account detection
US20200074541A1 (en) 2018-09-05 2020-03-05 Consumerinfo.Com, Inc. Generation of data structures based on categories of matched data items
US10733473B2 (en) 2018-09-20 2020-08-04 Uber Technologies Inc. Object verification for a network-based service
US10999299B2 (en) 2018-10-09 2021-05-04 Uber Technologies, Inc. Location-spoofing detection system for a network service
US11315179B1 (en) 2018-11-16 2022-04-26 Consumerinfo.Com, Inc. Methods and apparatuses for customized card recommendations
US11238656B1 (en) 2019-02-22 2022-02-01 Consumerinfo.Com, Inc. System and method for an augmented reality experience via an artificial intelligence bot
US11941065B1 (en) 2019-09-13 2024-03-26 Experian Information Solutions, Inc. Single identifier platform for storing entity data
EP4049164A4 (en) 2019-10-21 2022-12-07 Universal Electronics Inc. CONSENT MANAGEMENT SYSTEM WITH REGISTRATION AND SYNCHRONIZATION PROCESS
KR102257403B1 (ko) 2020-01-06 2021-05-27 주식회사 에스앤피랩 개인정보 관리 장치, 개인정보 관리 시스템, 그 개인정보 관리 방법, 및 이를 기록한 컴퓨터 판독가능 기록매체

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146314A (ja) * 2004-11-16 2006-06-08 Canon Inc セキュリティ設定付ファイルの作成方法
JP2006309737A (ja) * 2005-03-28 2006-11-09 Ntt Communications Kk 開示情報提示装置、個人特定度算出装置、id度取得装置、アクセス制御システム、開示情報提示方法、個人特定度算出方法、id度取得方法、及びプログラム
JP2007233610A (ja) * 2006-02-28 2007-09-13 Canon Inc 情報処理装置、ポリシー管理方法、記憶媒体、プログラム
JP2007328766A (ja) * 2006-05-09 2007-12-20 Ricoh Co Ltd コンピュータ装置
WO2007148562A1 (ja) * 2006-06-22 2007-12-27 Nec Corporation 共有管理システム、共有管理方法およびプログラム
JP2008097485A (ja) * 2006-10-16 2008-04-24 Nec Saitama Ltd 携帯端末設定システム、携帯端末設定方法および携帯端末設定プログラム
JP2008519332A (ja) * 2004-10-28 2008-06-05 ヤフー! インコーポレイテッド 信頼ネットワークを含むユーザ判断を一体化したサーチシステム及び方法
US20080155534A1 (en) * 2006-12-21 2008-06-26 International Business Machines Corporation System and Methods for Applying Social Computing Paradigm to Software Installation and Configuration
WO2009033182A1 (en) * 2007-09-07 2009-03-12 Facebook, Inc. Dynamically updating privacy settings in a social network

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE236428T1 (de) * 1999-04-28 2003-04-15 Tranxition Corp Verfahren und system für automatische übersetzung von konfigurierungseinstellungen zwischen rechnersystemen
US6963908B1 (en) * 2000-03-29 2005-11-08 Symantec Corporation System for transferring customized hardware and software settings from one computer to another computer to provide personalized operating environments
US20020111972A1 (en) * 2000-12-15 2002-08-15 Virtual Access Networks. Inc. Virtual access
ATE502457T1 (de) * 2002-12-20 2011-04-15 Ibm System und verfahren zum sicheren verwalten von speicherbereichsnetzen in einer nicht vertrauten serverumgebung
TWI255123B (en) * 2004-07-26 2006-05-11 Icp Electronics Inc Network safety management method and its system
US20060047605A1 (en) * 2004-08-27 2006-03-02 Omar Ahmad Privacy management method and apparatus
US20060173963A1 (en) * 2005-02-03 2006-08-03 Microsoft Corporation Propagating and responding to announcements in an environment having pre-established social groups
US7765257B2 (en) * 2005-06-29 2010-07-27 Cisco Technology, Inc. Methods and apparatuses for selectively providing privacy through a dynamic social network system
US20070073725A1 (en) * 2005-08-05 2007-03-29 Realnetworks, Inc. System and method for sharing personas
CN101063968A (zh) * 2006-04-24 2007-10-31 腾讯科技(深圳)有限公司 一种用户资料搜索方法及系统
US7917947B2 (en) * 2006-05-26 2011-03-29 O2Micro International Limited Secured communication channel between IT administrators using network management software as the basis to manage networks
US10007895B2 (en) * 2007-01-30 2018-06-26 Jonathan Brian Vanasco System and method for indexing, correlating, managing, referencing and syndicating identities and relationships across systems
US8775561B2 (en) * 2007-04-03 2014-07-08 Yahoo! Inc. Expanding a social network by the action of a single user

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008519332A (ja) * 2004-10-28 2008-06-05 ヤフー! インコーポレイテッド 信頼ネットワークを含むユーザ判断を一体化したサーチシステム及び方法
JP2006146314A (ja) * 2004-11-16 2006-06-08 Canon Inc セキュリティ設定付ファイルの作成方法
JP2006309737A (ja) * 2005-03-28 2006-11-09 Ntt Communications Kk 開示情報提示装置、個人特定度算出装置、id度取得装置、アクセス制御システム、開示情報提示方法、個人特定度算出方法、id度取得方法、及びプログラム
JP2007233610A (ja) * 2006-02-28 2007-09-13 Canon Inc 情報処理装置、ポリシー管理方法、記憶媒体、プログラム
JP2007328766A (ja) * 2006-05-09 2007-12-20 Ricoh Co Ltd コンピュータ装置
WO2007148562A1 (ja) * 2006-06-22 2007-12-27 Nec Corporation 共有管理システム、共有管理方法およびプログラム
JP2008097485A (ja) * 2006-10-16 2008-04-24 Nec Saitama Ltd 携帯端末設定システム、携帯端末設定方法および携帯端末設定プログラム
US20080155534A1 (en) * 2006-12-21 2008-06-26 International Business Machines Corporation System and Methods for Applying Social Computing Paradigm to Software Installation and Configuration
WO2009033182A1 (en) * 2007-09-07 2009-03-12 Facebook, Inc. Dynamically updating privacy settings in a social network

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014519104A (ja) * 2011-05-20 2014-08-07 グーグル インコーポレイテッド ソーシャルネットワークのためのフィード翻訳
JP2016502726A (ja) * 2012-12-06 2016-01-28 トムソン ライセンシングThomson Licensing ソーシャルネットワークプライバシーオーディタ
JP5970739B1 (ja) * 2015-08-22 2016-08-17 正吾 鈴木 マッチングシステム
JP2017041862A (ja) * 2015-08-22 2017-02-23 正吾 鈴木 マッチングシステム
WO2017033903A1 (ja) * 2015-08-22 2017-03-02 正吾 鈴木 マッチングシステム

Also Published As

Publication number Publication date
US20100306834A1 (en) 2010-12-02
JP5623510B2 (ja) 2014-11-12
CN102428475B (zh) 2015-06-24
WO2010133440A3 (en) 2011-02-03
CA2741981A1 (en) 2010-11-25
KR20120015326A (ko) 2012-02-21
TW201108024A (en) 2011-03-01
KR101599099B1 (ko) 2016-03-02
WO2010133440A2 (en) 2010-11-25
TWI505122B (zh) 2015-10-21
CN102428475A (zh) 2012-04-25

Similar Documents

Publication Publication Date Title
JP5623510B2 (ja) セキュリティ設定及び/又はプライバシー設定を管理するためのシステム及び方法
Mayer et al. Evaluating the privacy properties of telephone metadata
Pensa et al. A privacy self-assessment framework for online social networks
JP6013653B2 (ja) オンライン・ソーシャル・ネットワークにおけるネットワーク指向の製品ロールアウト
Henry et al. Emergence of segregation in evolving social networks
US8819009B2 (en) Automatic social graph calculation
CN105051719B (zh) 用于使得众包内容动态失效的装置和方法
WO2020192460A1 (zh) 数据处理的方法、端侧设备、云侧设备和端云协同系统
Sattar et al. A general framework for privacy preserving data publishing
Sangogboye et al. A framework for privacy-preserving data publishing with enhanced utility for cyber-physical systems
CN110148053B (zh) 用户信贷额度评估方法、装置、电子设备和可读介质
US20090157589A1 (en) System for opinion reconciliation
Bennett Inference for dominance relations
Juarez et al. “You Can’t Fix What You Can’t Measure”: Privately Measuring Demographic Performance Disparities in Federated Learning
Wang et al. A regularized convex nonnegative matrix factorization model for signed network analysis
Yang et al. Anchor link prediction across social networks based on multiple consistency
Shaham et al. Holistic Survey of Privacy and Fairness in Machine Learning
US11475318B2 (en) Automated resolution of over and under-specification in a knowledge graph
WO2022199612A1 (en) Learning to transform sensitive data with variable distribution preservation
Fu et al. Privacy risk estimation of online social networks
Sauer et al. Optimal allocation in stratified cluster‐based outcome‐dependent sampling designs
US20100250367A1 (en) Relevancy of virtual markers
Juwara et al. A hybrid covariate microaggregation approach for privacy-preserving logistic regression
Tong et al. A Bayesian approach for estimating the survivor average causal effect when outcomes are truncated by death in cluster-randomized trials
Hoffmann et al. Inference of a universal social scale and segregation measures using social connectivity kernels

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140924

R150 Certificate of patent or registration of utility model

Ref document number: 5623510

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees