JP6549128B2 - ガイドされたユーザアクションのためのシステムおよび方法 - Google Patents

ガイドされたユーザアクションのためのシステムおよび方法

Info

Publication number
JP6549128B2
JP6549128B2 JP2016541367A JP2016541367A JP6549128B2 JP 6549128 B2 JP6549128 B2 JP 6549128B2 JP 2016541367 A JP2016541367 A JP 2016541367A JP 2016541367 A JP2016541367 A JP 2016541367A JP 6549128 B2 JP6549128 B2 JP 6549128B2
Authority
JP
Japan
Prior art keywords
action
user
information
prediction model
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016541367A
Other languages
English (en)
Other versions
JP2017510867A5 (ja
JP2017510867A (ja
Inventor
ショーメイカー,ガース
アイエロ,マイケル・ユージーン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2017510867A publication Critical patent/JP2017510867A/ja
Publication of JP2017510867A5 publication Critical patent/JP2017510867A5/ja
Application granted granted Critical
Publication of JP6549128B2 publication Critical patent/JP6549128B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/02Comparing digital values
    • G06F7/023Comparing digital values adaptive, e.g. self learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

背景
分野
本願明細書において論じられる主題は、一般にデータ処理に関し、より特定的には、ガイドされたユーザアクションのためのシステムおよび方法に関する。
関連する背景
ユーザはしばしば、家族、友達、知人および他のユーザと共有するために、新しい写真、ビデオおよびポストといったコンテンツを作成する。しかしながら、共有プロセスは煩わしくなり得る。たとえば、ユーザが、連絡先のグループまたはソーシャルサークルが既にセットアップされている電子メールシステムまたはソーシャルネットワーク上に存在する場合であっても、ユーザは手動で、特定の写真、ビデオ、ポストまたは他のコンテンツを共有したいユーザを識別および選択しなければならない。
たとえば、ある人物(たとえばアリス)が旅行中であり、毎日写真を撮っているとする。アリスは、ほとんど毎日、写真のうちのいくつかを彼女の家族と共有することを望んでいる。アリスは、家族と写真を共有するたびに、共有されるべき写真を選択し、共有の方法(たとえば電子メール、ソーシャルネットワークなどを介する)を選択し、受信者として彼女の家族を選択する必要がある。
概要
主題は、ガイドされたユーザアクションのための方法を含んでおり、当該方法は、ユーザによって行われる第1のアクションを検出することと、第1のアクションに関連付けられる情報を集めることと、情報に基づいて予測モデルを抽出することと、第1のアクションへの予測モデルの適用可能性レベルを判定することとを含み、予測モデルは第2のアクションを提案し、上記方法はさらに、適用可能性レベルがしきい値レベルに合致する場合、ユーザインターフェイスにおいて第2のアクションを提供することと、第2のアクションまたは第3のアクションを選択するユーザから入力を受け取ることとを含む。
上記方法は、1つ以上のコンピューティングデバイスおよび/またはシステムを使用して実現される。上記方法は、コンピュータ読取可能媒体に格納され得る。
いくつかの実現例に従った例示的なシステムのデータフロー図を示す図である。 予測モデル生成の例示的な実現例のデータフロー図を示す図である。 ユーザアクション予測の例示的な実現例のデータフロー図を示す図である。 いくつかの例示的な実現例に従った例示的なユーザインターフェイスを示す図である。 プロセス実現例の例を示す図である。 いくつかの例示的な実現例に好適な例示的な環境を示す図である。 いくつかの例示的な実現例における使用に好適な例示的なコンピューティングデバイスを有する例示的なコンピュータ環境を示す図である。
詳細な説明
本願明細書において記載される主題は、例示的な実現例として教示される。明瞭さのために、および、主題を不明瞭にすることを回避するために、さまざまな詳細が省略されている。以下に示される例は、システムを実現するための構造および機能と、ガイドされたユーザアクションのための方法とに関する。
図1は、いくつかの例示的な実現例に従った例示的なシステムのデータフロー図を示す。システム100は、モデル生成部110〜130およびモデルアプリケーション部130〜180を含む。いくつかの実現例では、モデル生成部は110〜135であり、モデルアプリケーション部は135〜180であり、予測モデル130および予測エンジン150の機能が組み合わせられて予測ジェネレータ135が得られる。モデル生成部はたとえば、ユーザの以前のアクション、ユーザの挙動および/または習慣、ならびに、ユーザに関連付けられるデータ(まとめてユーザ履歴110と称される)を分析し、かつ、ユーザに関連付けられる予測モデル130を生成するよう機械学習120を使用することを含む。たとえば、ユーザの許可により、システム100(たとえば機械学習120)は、ユーザによる共有挙動の過去の所見(たとえば過去の共有アクション)を使用および分析して、ユーザに関連付けられる所望のオーディエンスおよび/またはユーザによる新しい共有アクションのための所望の共有方法の1つ以上の予測(たとえば予測モデル)を生成する。履歴110は、ユーザの使用履歴およびユーザアクションを集める許可または同意をユーザが与えた1つ以上のアプリケーション、ウェブサイト、異なるプロバイダのサービスなどの履歴であり得る。図2Aにおいて、システム100のモデル生成部はさらに以下に記載される。
図1を引き続き参照して、システム100のモデルアプリケーション部において、ユーザがデータ(たとえば写真、ビデオなど)を共有するか、または、1つ以上の共有アクション140を行うことを試みる場合、システム100(たとえば予測エンジン150)は、アクション140に基づいて1つ以上の予測モデル130を識別および使用し、これにより、ユーザに1つ以上の予測160を与える。1つ以上の予測160は、共有予測(たとえば電子メールによるユーザの家族との共有)および1つ以上の他の共有オプション(たとえばユーザが選択した方法によるユーザの家族との共有、ユーザのソーシャルネットワークアカウントを通じて共有するという予測方法によるユーザが選択した受信者との共有、第3の共有オプションなど)といった1つ以上のアクションオプションを含み得る。ユーザがアクション140を使用する許可を与えていれば、アクション140はユーザ履歴110の一部になる。
ユーザは、予測160またはアクションオプションのうちの1つを選択または変更するために、たとえばユーザインターフェイス(図示せず)を介して、ユーザ入力170を提供し得る。ユーザは、予測エンジン150によって予測された共有予測を選択し得る。ユーザは、共有予測の何らかの部分を変更し得るか、または、他の共有オプションのうちの1つを選択し得る。ユーザの選択は最終アクション180になる。いくつかの実現例において、最終アクション180(たとえばユーザの選択)は履歴110にフィードバックとして提供される。図2Bにおいて、システム100のモデルアプリケーション部をさらに以下に記載する。
コンテンツを共有することは、本願明細書において主題を説明するために例として使用される。なお、本願明細書における主題は、すべてのユーザアクションに適用されており、コンテンツの共有に限定されない。たとえば、ユーザアクションのうちの1つはインターネット上でのブラウジングであり得る。多くのブラウザは、ユーザがプライベートブラウジングモード(たとえばChrome(登録商標)における匿名ブラウジング(incognito browsing)、インターネットエクスプローラ(登録商標)におけるインプライベートブラウジング(InPrivate browsing)、Firefox(登録商標)およびSafari(登録商標)におけるプライベートブラウジング(Private Browsing))でブラウズすることを可能にする。
モデル生成部またはシステム100は、1つ以上の予測モデルを生成するよう、ユーザのブラウジングの習慣および履歴から学習し得る。たとえば、ユーザは、いくつかの種類のウェブサイト(たとえば学校、報道機関、政府などのウェブサイト)をオープンモードでブラウズし得、他の種類のウェブサイト(たとえばパーソナルファイナンス、健康、オンラインショッピングなどに関係のあるウェブサイト)をプライベートモードでブラウズし得る。
ユーザが金融機関のウェブサイトをブラウズし始める場合、システム100は、1つ以上のモデルに基づいて、ユーザはプライベートモードでブラウズすることを望んでいるかもしれないと予測し、オプションのうちの1つにおいて当該予測を提供し得る。ユーザはその予測を受け入れ、プライベートモードでブラウズし始め得る。ユーザが別のモードでブラウズし始めるか、または、当該予測のいずれかの部分を変更する場合、ユーザのアクションまたは選択のフィードバックがシステム100(たとえば履歴110)に提供され、システム100(たとえば機械学習エンジンおよび/またはモデル)を微調整する。
図2Aは、予測モデル生成の例示的な実現例のデータフロー図を示す。ユーザ履歴110(たとえば以前のアクション、挙動、習慣、ユーザに関連付けられるデータ)はたとえば、予測モデル(たとえばプライバシーモデルまたはプレファレンス)130を生成するよう、機械学習エンジン120に提供される(たとえば機械学習エンジン120によって読み出される)以前のアクション111〜114を含む。予測ジェネレータ135およびユーザの承認を伴う実現例において、予測ジェネレータ135に出力を提供するために、ユーザ履歴110が機械学習120に入力される。予測ジェネレータ135は機械学習120をトリガして、履歴110を処理、および/または、予測ジェネレータ135に出力を提供し得る。以前のアクション111〜114は、以前のアクションのコンテンツまたはアクションに関する情報(IACA: information about content or action)によって表わされる。
本願明細書において使用されるように、「コンテンツまたはアクションに関する情報」すなわち「IACA」は、コンテンツに関する任意の情報、コンテンツに関連して行なわれる1つ以上のアクションに関する任意の情報、またはその両方である。本願明細書において使用されるように、「コンテンツ」は任意のデジタルまたはデジタル化されたコンテンツである。コンテンツは、デジタルフォームで表わされる(すなわちバイナリデータで表わされる)情報の任意の集合である。コンテンツの例は、1つ以上のファイル、ドキュメント、画像、ビデオ、オーディオ、ポスト、通信メッセージ(たとえば電子メール、ショートメッセージテキスト、ビデオメッセージ、オーディオメッセージなど、その任意の組合せ)、ゲーム、その任意の部分、および、その任意の組合せを含むがこれらに限定されない。
本願明細書において使用されるように、「コンテンツに関する情報」はコンテンツに関連する任意の情報である。コンテンツに関する情報は、アプリケーションメタデータ(たとえばHTML(HyperText Markup Language:ハイパーテキストマークアップ言語)、JPEG(Joint Photographic Experts Group:ジョイントフォトグラフィックエキスパート)などといった言語またはファイルフォーマットで規定されるメタデータ)、記述メタデータ(descriptive metadata)(たとえばファイル名、タイトル、著者および要約などといった識別および抽出のためのリソースの記述)、構造メタデータ(structural metadata)(たとえばパラグラフ、ページ、チャプタなどといったオブジェクト内およびオブジェクト間の関係)、(たとえばバージョニング、タイムスタンプ、アクセスコントロール、ストレージディレクトリまたは位置などといったリソースの管理のための)管理メタデータ(administrative metadata)を含むがこれに限定されないメタデータであり得る。当該例示的な実現例において、この情報は、ユーザの同意が存在する場合にのみ、使用される。
いくつかの例示的な実現例において、コンテンツに関する情報は、コンテンツに関して記録または生成される任意のデータを含む。たとえば、情報は、ユーザが訪れたウェブページ(たとえばウェブページのユニフォームリソースロケータすなわちURL)、ユーザが訪れた最後のウェブページ(たとえばハイパーテキストトランスファプロトコル(Hypertext Transfer Protocol)すなわちHTTPにおけるリファラ(referrer))、ウェブページを訪れた時間、ウェブページを訪れた時のユーザの位置、ブラウザのプライベートモードのようなツールのモード、ウェブページのタイプ、ウェブページが認証を必要とするかどうかなどを含み得る。
本願明細書におけるウェブページに関する上記の例およびユーザに関連する他の例は、上記の情報を記録することについて当該実現例がユーザの同意を得ているという前提で説明される。ある情報に関連してユーザから同意が得られない場合、当該情報は記録されない。さらに、ユーザは、ユーザの履歴110または全履歴110におけるデータを削除し得る。
コンテンツに関して記録または生成されるデータの他の例は、ユーザが生成した情報、デバイスが生成した情報、アプリケーションが生成した情報を含むがこれらに限定されない。たとえば、ユーザが生成した情報は、任意のユーザまたはアドミニストレータによって生成される情報を含む。ユーザは、何らかのコンテンツに関して、説明、フィードバックおよび/またはコメントを提供し得る。アドミニストレータは、何らかのコンテンツに関してインシデント(incident)を記録し得る。デバイスが生成した情報は、たとえば、デバイスのタイプ、デバイスに含まれるリソース、コンテンツを開くのに用いられるアプリケーション、デバイスの状態などを含み得る。
アプリケーションが生成した情報はたとえば、画像のテキスト情報を含み得る。アプリケーションは、画像(たとえばピクセルデータ、メタデータおよび/またはベクトルデータ)を分析し、当該画像に関するテキスト情報を生成し得る。たとえば公園でのピクニックの画像の場合、当該生成されたテキストデータは、(たとえば顔認識から)その写真またはビデオにおける人々の名前または身元と、当該画像の説明(たとえばコンテンツ分析による、「ソーダを飲む、木および芝のある公園でのピクニックパーティ」)と、メタデータ(たとえば、当該画像があるモデルのカメラによってあるFストップを使用してある画像解像度で撮られる)とを含み得る。
いくつかの例示的な実現例では、コンテンツに関する情報は、構造化されたコンテンツの1つ以上のフィールドを含む。たとえば、コンテンツがデータベースに格納された情報であるか、または、データベースから抽出された情報である場合、コンテンツの任意のフィールドは、コンテンツに関する情報として使用され得る。コンテンツが電子メールメッセージである場合、フィールド(たとえば宛先、差出人、件名、CC、BCC、本文など)がコンテンツに関する情報として使用され得る。
本願明細書において使用されるように、コンテンツに関連して得られる「1つ以上のアクションに関する情報」は、アクションに関連付けられる任意の情報またはアクションに関する任意の情報である。アクションに関する情報は、履歴使用情報(たとえば使用記録または使用ログ)、アクションを実行するために使用されるネットワーク、システム、デバイス、オペレーティングシステム、アプリケーション、モジュール、ソフトウェアなどに関する情報、アクションが実行された時の環境、日付、時間、位置に関する情報、他の使用可能な情報(たとえば受信者情報、アクションを実行するために使用されるアプリケーションの言語など)を含むがこれらに限定されない。アクションに関する情報は、いくつかの実現例におけるコンテンツに関する情報と重なる部分を有し得る。たとえば、何らかのコンテンツ(たとえば写真、ビデオ、ポスト、リンク)について共有許可をユーザが設定するたび、当該ユーザの許可はコンテンツに関連付けられる(たとえば、メタデータとして許可を格納)。いくつかの実現例において、ユーザから与えられた同意により、ユーザの環境が記録され得る。その例としては、(それらのデバイスまたは位置をトラッキングすることによる)ユーザの近傍にいる他の既知のユーザの識別がある。
図2Aを参照して、以前のアクション(たとえばアクション111〜114)はたとえば、表1に示されるように、コンテンツまたはアクションに関する情報(IACA)を含む。
表1は、たとえば8ピースまたは8フィールドのIACA(1〜7行)を考慮する実現例を示す。実現例は、任意のIACA情報(たとえば任意のフィールドおよび任意数のフィールド)を考慮し得る。フィールドはコンテンツに基づいて異なり得る。たとえば、アクション112は、ターゲットとしてのURLと、リンクのデータタイプ(たとえばレファレンス)についてのプライベートブラウズアクションとを含んでおり、これらは、写真およびビデオのデータタイプでは、アクション111、113および114に含まれずまたは使用されない。
アクション111〜114に示されるIACA情報は単に例示的なIACAである。異なるおよび/または他のIACAフィールドが存在し得る。たとえば、電話、タブレット、ラップトップまたは他のデバイスといったデバイス情報を提供するためのIACAデバイスフィールド(図示せず)が存在し得る。
位置フィールドのような所与のIACAフィールドの場合でも、異なるまたは他の情報が存在し得る。たとえば、位置フィールドの場合、緯度および経度、ある物(たとえばビルディング)の内部または外部、プライベートスペース内または公共スペース内といった、異なるまたは他の種類の位置情報が存在し得る。互いから独立し得る、関連する「位置」情報をキャプチャする異なる方法が存在し得る(たとえば、予測モデル130を生成する際の使用のための位置情報の任意の組合せまたはすべてに対して実現され得る)。
システム、デバイス、アプリケーションまたはソフトウェアモジュールであり得る機械学習120は、予測または予測モデル130を作り出すためにユーザ履歴110を処理するブラックボックスとして実現され得る。機械学習120は、任意の1つ以上のアルゴリズムの指示を実行するよう、任意の態様で実現され得る。たとえば、これらのアルゴリズムのうちの1つは、「共有相手(shared with)」および/または「共有方法(shared by)」モデル130をたとえば50%のしきい値で生成する(たとえば50%以上のしきい値に合致した場合にモデルを生成する)よう、ユーザ履歴110(たとえばアクション111〜114)を処理し得る。
アクション111〜114が処理された後、機械学習120はたとえば、コンテンツの1つ以上の属性に基づいて、誰とコンテンツを共有するべきであるかおよび/またはコンテンツをどのように共有するべきであるかを予測するために、表2に示される例示的なモデルを生成する。
たとえば、表2は、3つのモデルすなわち予測モデル130M1〜M3が履歴110(たとえばアクション111〜114)から生成されることを示す。説明における明瞭さのため、4つのアクション111〜114が示されるとともに記載される。M1は、アクション111および114のIACAを使用して生成され得る。M2およびM3は各々、1つのアクション112または113のみのIACAを使用してそれぞれ生成され得る。いくつかの実現例において、モデルは、モデルをサポートするデータセット(すなわちモデルを生成するために使用されるIACA)があるサンプルサイズのデータセットである場合にのみ、生成される。たとえば、表2の例において、データセットサイズまたはサンプルサイズ要件が2である場合、モデルM2およびM3は、データセットが1である不十分さにより生成されない。それでも、モデルM1は、データセットサイズが2であること(アクション111および114)により生成される。いくつかの実現例において、予測強度は、サンプルサイズに基づいて推定され得る。予測強度はさらに、システム100によって使用される1つ以上のアルゴリズムによって推定され得る。
モデルM1〜M3および本願明細書において記載される他のモデルは単に例である。実際の実現例において、異なるおよび/または他のモデルが存在し得る。さらに、異なるモデルが組み合わされてより少ないモデルが得られ得る。さらに他の実現例において、モデルは概念モデルまたはオンザフライで生成される動的モデルである。
上述したように、機械学習120は、ユーザ履歴110に基づいて1つ以上の予測を提供するブラックボックスとして実現され得る。任意数のアルゴリズムのうち1つ以上は、このブラックボックスにおいて動的に適用され得る。データ110(図2A)が入力され、モデル130が出力される(図2A)ことが一般的である。いくつかの実現例では、モデル130の代わりにまたはモデル130に加えて、機械学習120は、1つ以上の予測を生成するよう予測ジェネレータ135のための出力を作り出す。たとえば、いくつかの実現例において、モデルM1〜M3のいずれも生成されない場合がある。たとえば、システム100(図1)は、異なるドメインについて異なるパイプラインまたはプロセスにより実現され得る。1つのプロセスパイプラインはブラウズのためのもの(たとえば1つ以上のブラウザを使用)であり得、別のパイプラインはソーシャルネットワーク上に共有するものであり得、第3のパイプラインは電子メール通信に関係のあるものであり得、1つ以上のパイプラインがコンテンツタイプに基づき得る(たとえば写真のためのパイプライン、オーディオおよび/またはビデオのための1つのパイプラインなど)。
たとえば、写真を共有する際、機械学習アルゴリズムは、受け取った履歴データ110に基づいて、何が関連しているか内部で判定し、予測ジェネレータ135に出力を提供し、これにより、予測が作り出される。同様に、ブラウジングのような他の処理ドメインについて、異なる機械学習アルゴリズムが、機械学習120が処理する履歴データ110に基づいて、使用するべき関連しているブラウザセッティングは何であるかを内部で判定する。
実際の実現例において、履歴110は、使用履歴および/またはユーザアクションの非常に大きなセットの情報を含む。履歴110は、時間にわたって大きくなる傾向があり、履歴110に関連付けられるコンテンツまたはアクションに関する情報(IACA)の量も大きくなる。一般に、データセットが大きくなると、より正確なモデルが生成される。データセットサイズを含む実現例において、データセットが十分に大きい(たとえば少なくとも必要なデータセットサイズ)場合、システムは、以前のアクションに基づいて、ユーザアクションの予測を行い始め得る(たとえば、履歴110に基づいて予測モデルを生成および適用)。
別の例として、ユーザであるアリスについて、アリスの写真のうちの100枚がアリスの親類を含む場合、アリスは、アリスの「家族」オンラインソーシャルサークル(たとえば「家族」というラベルを有するグループに加えられている1つ以上の連絡先)と当該100枚の写真のうちの90枚を共有し、アリスの「同僚」オンラインソーシャルサークルと100枚の写真のうちの10枚を共有したとする。アリスによって承認されたシステムは、アリスがアリスの「家族」オンラインソーシャルサークルとアリスの親類の写真を共有する傾向があるということを判定または「学習」する(たとえば、機械学習120は、その学習に基づいてモデルM4を生成する)。アリスは、家で50枚の写真を撮った場合、アリスの「家族」オンラインソーシャルサークルと当該50枚の写真のうちの45枚を共有し、またアリスの「広範囲の友達(extended friend)」オンラインソーシャルサークルと50枚の写真のうち5枚を共有したとする。システムは、アリスが、家で撮った写真をアリスの「家族」オンラインソーシャルサークルと共有する傾向があることを学習する(たとえば、機械学習120は、その学習に基づいてモデルM5を生成する)。結果として、概して、アリスは、異なる種類のIACA(たとえば位置、時間、人々の身元など)を異なる共有プレファレンスに関連付けることができる多次元モデル(たとえばM4およびM5)を有する。
いくつかの実現例において、予測モデル130は、ユーザのプライバシープレファレンスに基づいて生成され得る。これらの予測モデルまたはプライバシープレファレンスモデルは、所望のプライバシー共有セッティングまたはプレファレンスの予測を行うために使用され得る。たとえば、アリスは、公園で午後3:30にアリスの親類の写真を撮り、それ(3:30の写真)を共有することを望む。システムは、同様のIACAを有する過去の共有アクション(たとえば履歴110)を分析する。システムは、アリスは、写真およびビデオが公共で撮られた場合に「広範囲の友達」と共有する(モデルM7)場合を除いて、アリスの親類の写真およびビデオを「家族」オンラインソーシャルサークルと共有する傾向がある(モデルM6)ということを学習し、その結果に対する1つ以上のモデルを作成する。午後に撮影された媒体(たとえば写真およびビデオ)は、より広く共有される傾向がある(モデルM8)。3:30の写真の例において、当該写真はその日の間において公共の場所で撮られているので、プライバシープレファレンスモデルM6およびM7またはM8は、アリスが、彼女の「家族」(M6)オンラインソーシャルサークルおよび「広範囲の友達」(M7,公園=公共、または、M8,3:30PM=午後)オンラインソーシャルサークルと親類の3:30の写真を共有することを望むであろうという予測につながる。上記のすべては、ユーザの同意により実行される。
実現例に依存して、モデル130を生成するために、ユーザのプライバシープレファレンスに基づき得る異なるアルゴリズムが使用され得る。たとえば、「データ入力、予測出力(data in, predictions out)」の機械学習ブラックボックスは、異なるアルゴリズムを使用して、多くの異なる態様で機能し得る。(たとえば、最終アクションに基づいた)最も正確な予測を作り出すアルゴリズムは、アルゴリズムアプリケーション優先順序列のトップに保持または変動(float)され得る。ユーザは、この例示的な実現例に参加するよう自身のプライバシープレファレンス(たとえば同意)をセットするかどうかをどの時点でも決定することができる。
図2Bは、ユーザアクション予測の例示的な実現例のデータフロー図を示す。ユーザ(たとえばアリス)はアクション240として写真を選択し得る。いくつかの実現例では、写真を撮るまたは保存することは、予測ジェネレータ135または予測エンジン150のプロセスをトリガするアクション240と考えられ得る。
予測エンジン150が実現される場合、ブロック252にて、アクション240および/または対応する写真(たとえばコンテンツ)に関連付けられるIACAが抽出される。抽出されたIACAのいくつかの例示的なフィールドは、写真のデータタイプ、タイムスタンプ、家の位置、および、親類である写真上の人物の識別を含み得る。ブロック254では、1つ以上のモデルが、抽出されたIACAに基づいて識別または選択される。たとえば、表2に示されるモデルM1は、写真のデータタイプ、家の位置、および/または、家族の一員である人々(たとえばこの例示的な実現例では親類は家族の一員である)に基づいて識別され得る。
いくつかの実現例では、ソーシャルネットワーク共有、電子メール送信、ブラウジングなどといったアクションまたは潜在的なアクションに基づいて1つ以上のモデルが識別され得る。いくつかの実現例では、モデルは、ソーシャルネットワーク上での写真の共有、ソーシャルネットワーク上でのオーディオコンテンツの共有などといったアクションおよびデータタイプの両方に基づいて選択され得る。
モデルM6〜M8を用いる上記の3:30写真の場合でのように、1つより多いモデルが254にて識別される場合、ブロック256にて、識別されたモデルの1つ以上を使用するよう判定がなされる。ブロック256の一つの例示的な実現例は、1つ以上の抽出されたIACAまたは抽出されたIACAの1つ以上のフィールドに重みを割り当てることを伴い得る。たとえば、データタイプにはXの重みが割り当てられ、位置にはYの重みが割り当てられ、人々にはZの重みが割り当てられる。X、Y、Zの各々がしきい値レベルに合致するのに十分な場合、最も高い重みを有するモデルが選ばれる。そのしきい値レベルに合致するのに2つ以上の重みX、YおよびZの組合せをとる場合、そのしきい値レベルに合致する重みの合計に寄与するモデルが選ばれる。選ばれたモデルから1つより多い予測が予測され得る場合、以下に記載される図3のスクリーンショット300Bにおいて示されるように、重みまたは重みの合計が減少する順で、予測がユーザに提示され得る。いくつかの実現例において、判定は、重みを使用せず、任意のファクタであり得る異なるファクタを使用してなされる。
予測ジェネレータ135が実現される場合、予測ジェネレータ135は、機械学習120(図1)からの既存の出力を処理し得るか、または、オンデマンドで、もしくは、必要とされるごとに、出力を提供するよう機械学習120に要求し得る。たとえば、ボックス252に記載されるように、予測ジェネレータ135はアクション140を処理し得る。ボックス254の代わりに、予測ジェネレータ135は、アクション140のIACAに基づいて履歴110から出力を生成するよう機械学習120に要求し得る。1つより多い予測が生成される場合、予測に優先順位が付けられ得るか、ランク付けされ得るか、または、低減され得る。機械学習120および予測ジェネレータ135は、履歴110および最終アクション180からのフィードバックに基づき成長し続けるブラックボックス予測エンジンとして機能し得る。いくつかの実現例において、異なるドメインについて異なるパイプラインまたはプロセスにより、135および150の両方が実現され得る。たとえば、予測ジェネレータ135は、写真を共有するドメインにおいて実現され得、予測エンジン150はインターネットをブラウズするドメインにおいて実現され得る。
ブロック160では、1つ以上の予測がユーザ(たとえばアリス)に提示され得る。いくつかの実現例では、ユーザは、予測のうちの1つが一定レベルに合致する場合(たとえば、80%または90%の重みまたは重みの合計を有する場合)、当該予測は、同意するユーザの入力なしで自動的に選択および使用され得る(たとえば、アリスはシステムに使用する以前に承諾しているが、選択のために予測をアリスに提示することなくアリスの「家族」オンラインソーシャルサークルに3:30写真を自動的に共有する)ことを(たとえば構成またはセッティングを通じて)決定し得る。1つ以上の予測が160にてユーザに提示される場合、ユーザは、予測のうちの1つを識別または選択するようユーザインターフェイス(図示せず)を使用して入力170を提供し得る。また、ユーザは、予測のうちのいずれにもない入力を提供し得る(たとえば、誰とコンテンツを共有するべきであるかおよび/またはコンテンツをどのように共有するべきであるかなど)。ユーザの入力は、たとえば図1における履歴110にフィードバックとして提供され得る。機械学習120は、モデルを生成する際に、および/または、既に生成された1つ以上のモデルを変更するために、ユーザのフィードバックを組み込むまたは考慮に入れ得る。いくつかの実現例では、予測モデル130は、ユーザフィードバックに基づいて1つ以上のモデルを変更または削除するマネージャによって管理され得る。
前述の例示的な実現例と同様に、ユーザは、この機能が使用されるかどうかをコントロールしたままであり(たとえば同意)、この機能を使用しないことをいつでも決定することができる。
ブロック180では、ソーシャルネットワーク上のアリスの「家族」オンラインソーシャルサークルと3:30写真を共有すること、識別された受信者へ電子メールによってドキュメントを送信すること、あるウェブサイトを訪れるためにブラウザをプライベートモードに切り替えまたは使用することなどといった、最終アクションが行なわれる。
図3は、いくつかの例示的な実現例に従った例示的なユーザインターフェイスを示す。ここでのユーザインターフェイスは、モバイルデバイスのスクリーンショット300A〜300Cを使用して記載される。スクリーンショット300Aにおいて、ユーザは、写真を撮ること、写真を保存すること、または、写真を選択することであり得るアクション(240,図2B)を行う。いくつかの実現例において、スクリーンショット300Bにおいて示されるように、アクション240は、ユーザが「共有」ボタン310をタップするといったユーザのより確かな意図にマッピングされる。次に、図2Bに記載されるように、予測エンジンのプロセス(たとえばブロック252〜256)が実行されて1つ以上の予測160に到達する。図3において、予測160はスクリーンショット300Bおよび300Cに示される。スクリーンショット300Bは「共有方法」予測を示し、また、スクリーンショット300Cは、スクリーンショット300Bにおける「共有方法」予測のユーザの選択に基づき得る「共有相手」予測を示す。
スクリーンショット300Bにおける例示的な「共有方法」予測は、「Bluetooth(登録商標)」、「Soc-network-Z.com」、「電子メール」、および、「すべてを見る」サブメニューに隠されているその他の予測である。当該「共有方法」予測は、予測確実性または重みスコアの最も高いものから最も低いものの順で提示され得る。たとえば、「Bluetooth」は90%のスコアを有し得、「Soc-network-Z.com」は88%のスコアを有し得、「電子メール」は65%のスコアを有し得る。最小の要件しきい値(たとえば50%)に合致する他の予測は、「すべてを見る」サブメニューに隠され得る。
スクリーンショット300Bにおいて、たとえば、ユーザは、「Soc-network-Z.com」オプションを選択するよう、上述したようにシステムにフィードバックとして提供され得る入力を提供する。ユーザの選択はスクリーンショット300Cに繋がり、スクリーンショット300Cにおいて「共有相手」予測がユーザに提示され得る。Soc-network-Z.com330による共有が示され、この例におけるユーザはジョンXYZである。ジョンXYZが彼の「家族」オンラインソーシャルサークル320と写真を共有することを望むであろうということを予測する1つの予測が示される。ジョンはより多くの受信者を入力し得、および/または、「家族」オンラインソーシャルサークルを置換し得、これは、上述したようにシステムにフィードバックとして提供され得る。上で開示されるように、例示的な実現例は、ユーザ(この場合はジョンXYZ)の同意によってのみ実行される。
スクリーンショット300Cでは、ジョンの「家族」オンラインソーシャルサークルと共有するという予測は、ジョンが予測を変更しないことに基づく正しいデフォルト予測である。ジョンが「共有」ボタンまたはウィジェット340を押すと、スクリーンショット300Aにおいて撮られた写真が、Soc-network-Z.com上のジョンの「家族」オンラインソーシャルサークルと共有される。
いくつかの実現例では、「共有方法」予測および「共有相手」予測は、1つのユーザインターフェイスまたはスクリーンにおいて一緒に提示され得る。たとえばスクリーンショット300Bにおいて、各「共有方法」オプションの隣には1つ以上の「共有相手」オプションが存在し得る。
実現例に依存して、異なるデバイスまたは1つのデバイスの異なるアプリケーションは、異なる態様で予測を利用し得る。たとえば、カメラアプリケーションは、予測されたプライバシープレファレンス(たとえば「家族」オンラインソーシャルサークル)を1つ以上の共有セッティングに事前に実装(pre-populate)し得る。いくつかの実現例では、予測またはプライバシープレファレンスは、ショートカットおよび/または提案として(たとえば1つ以上のデフォルト設定または予測に加えて)提供され得、これにより、単一のタップまたはクリックによってユーザがアクセスすることが可能になる。すべての例示的な実現例において、ユーザは、参加または同意しないことを決定し得る。
いくつかの実現例では、ユーザアクション予測は、バッチ共有(たとえば、媒体の共有または電子メール送信)に適用するように実現され得る。たとえば、アリスがアリスの親類の写真を10枚を撮り、その後、同僚の写真を5枚撮り、その後、アリスの親類の写真をさらに10枚撮る場合、ユーザアクション予測の実現例は、まず、アリスの親類の20枚の写真すべてをソーシャルネットワーク上のアリスの「家族」オンラインソーシャルサークルと共有するようアリスに促し、その後、(1つ以上の電子メールアドレスを使用して)アリスの同僚の5枚の写真をアリスの職場のチームに電子メールで送信するようにアリスに促す。すべての例示的な実現例において、ユーザは参加についてコントロールを残したままであり、同意することまたは同意しないことをいつでも決定し得る。
上述したように、ユーザアクション予測は、任意のアプリケーションを使用して、かつ、任意のユーザアクションに関連して、任意のコンテンツに適用するよう実現され得る。たとえば、アリスのブラウジングに基づいたプライバシープレファレンスモデルが、アリスのブラウジングの習慣および履歴に基づいて生成され得る。アリスがブラウジングをするごとに、これらのモデルが使用され得る。1つのモデルは、アリスは、いくつかの種類のウェブサイト(たとえば健康情報ウェブサイト)をブラウズした場合に、ブラウザのプライベートモードでブラウズする傾向があるということを示し得る。このモデルを適用して、アリスが典型的にプライベートモードでブラウズする種類のウェブサイトをブラウズし始めるたびに、ブラウザは、アリスにプライベートモードを使用することを提案するか、または、アリスのブラウザ上の構成またはセッティングに基づいて自動的にプライベートモードを有効化する。上に示されるように、アリスは、同意することまたは同意しないことを決定し得る。
図4はプロセス実現例の例を示す。プロセス400は、図2Bおよび/または図3に記載されるオペレーションを実現し得る。ブロック405では、ユーザによって実行されるアクション(たとえばアクション240)が検出される。410において、第1のアクションに関連付けられる情報(たとえばIACA)および/または第1のアクションに関連するコンテンツが、集められるか、収集されるか、識別されるか、または抽出される。415において、410にて収集された情報に基づいた1つ以上の予測モデルが識別されるか、選択されるか、または、抽出される。420において、たとえば、図2Bのブロック256に記載されるように、重みを使用して、第1のアクションへの予測モデルの適用可能性レベルが判定される。各予測モデルは、少なくとも予測されたアクション(たとえば、誰とコンテンツを共有するべきであるかという選択のアクション、および/または、たとえばどのアプリケーションを用いてコンテンツを共有するかといったような、コンテンツがどのように共有されるかを選択するアクション)を提案または予測する。
425において、しきい値レベルに合致する適用可能性レベルに基づいて使用されることが判定された、当該モデルからの予測された1つ以上のアクションが、ユーザインターフェイスにおいて提供または提示される。430において、1つの予測されたアクションまたは別の予測されたアクションを選択する(または、予測されたアクションを修正するか、もしくは、予測されないアクションを提供する)ユーザからの入力が受け取られる。430において選択されたアクションが実行される。ユーザの選択または入力は、たとえば、システム(たとえば正確性、性能、予測など)を向上させるよう、システムに対するフィードバックとして提供され得る。
いくつかの例において、プロセス400は、異なるブロック、より少ないブロック、またはより多くのブロックにより実現され得る。プロセス400は、媒体上に格納され得、1つ以上のコンピューティングデバイスの1つ以上のプロセッサにロードされ得、かつ、コンピュータにより実現された方法として実行され得るコンピュータ実行可能命令として実現され得る。
図5は、いくつかの例示的な実現例に好適な例示的な環境を示す。環境500は、デバイス505〜545を含んでおり、各々はたとえば、(たとえば有線および/または無線接続によって)ネットワーク560を介して少なくとも1つの他のデバイスに通信可能に接続される。いくつかのデバイスは、1つ以上のストレージデバイス530および545に通信可能に接続され得る。
1つ以上のデバイス505〜545の例は、図6において以下に記載されるコンピューティングデバイス605であり得る。デバイス505〜545は、コンピュータ505(たとえばラップトップコンピューティングデバイス)、モバイルデバイス510(たとえばスマートフォンまたはタブレット)、テレビ515、車両520に関連付けられるデバイス、サーバコンピュータ525、コンピューティングデバイス535〜540、ストレージデバイス530および545を含み得るがこれらに限定されない。
いくつかの実現例では、デバイス505〜520は、コンテンツを作成および/またはソーシャルネットワーク上にコンテンツを共有するといった要求を発行するようユーザによって使用されるデバイスのようなユーザデバイスと考えられ得る。デバイス525〜545は、サービスプロバイダに関連付けられる(たとえば、サービスを提供するよう、ならびに/または、ウェブページ、テキスト、テキスト部分、画像、画像部分、オーディオ、オーディオセグメント、ビデオ、ビデオセグメントおよび/もしくはそれらについての情報のようなデータを格納するよう、サービスプロバイダによって使用される)デバイスであり得る。
たとえば、ユーザ(たとえばアリス)は、ユーザデバイス510を使用して、1つ以上のデバイス525〜545によってサポートされるソーシャルネットワーク上において、コンテンツまたは写真にアクセスし、閲覧し、および/または、共有し得る。デバイス510は、ガイドされたユーザアクションまたはユーザアクション予測を実現するアプリケーションを実行し得る。アリスがデバイス510を用いて写真を撮った後、図3に示されるように、アリスは「共有」ボタン310をタップする。ガイドされたユーザアクションを実現するアプリケーションは、スクリーンショット300B〜Cに示されるように、アリスの履歴データに基づいて生成されるモデルを用いて、1つ以上の予測を提供する。アリスは、誰と写真を共有するべきであるかと、どのように写真を共有するべきであるか(たとえば、どのアプリケーションまたはサービスを使用して写真を共有するか)とを含み得るデフォルトまたは予測された共有アクションを受け入れるよう「共有」ボタン340をタップする。
図6は、いくつかの例示的な実現例における使用に好適な例示的なコンピューティングデバイスを有する例示的なコンピュータ環境を示す。コンピュータ環境600におけるコンピューティングデバイス605は、1つ以上の処理ユニット、コアもしくはプロセッサ610、メモリ615(たとえばRAMおよび/もしくはROMなど)、内部ストレージ620(たとえば磁気ストレージ、光学ストレージ、ソリッドステートストレージおよび/もしくは有機ストレージ)、および/またはI/Oインターフェイス625とを含み得、これらのいずれもが、情報を通信するための通信メカニズムもしくはバス630上に結合され得るか、または、コンピューティングデバイス605に埋め込まれ得る。
コンピューティングデバイス605は、入力/ユーザインターフェイス635および出力デバイス/インターフェイス640に通信可能に結合され得る。入力/ユーザインターフェイス635および出力デバイス/インターフェイス640のいずれか一方または両方は、有線または無線インターフェイスであり得、取り外し可能であり得る。入力/ユーザインターフェイス635は、入力を提供するために使用され得る物理的または仮想的である任意のデバイス、コンポーネント、センサまたはインターフェイス(たとえば、ボタン、タッチスクリーンインターフェイス、キーボード、ポインティング/カーソル制御、マイクロフォン、カメラ、点字、モーションセンサ、および/または、光学リーダなど)を含み得る。出力デバイス/インターフェイス640は、ディスプレイ、テレビ、モニタ、プリンタ、スピーカ、または点字などを含み得る。いくつかの例示的な実現例において、入力/ユーザインターフェイス635および出力デバイス/インターフェイス640は、コンピューティングデバイス605に埋め込まれ得るか、または、コンピューティングデバイス605に物理的に結合され得る。他の例示的な実現例において、他のコンピューティングデバイスが、コンピューティングデバイス605のための入力/ユーザインターフェイス635および出力デバイス/インターフェイス640として機能するか、または、それらの機能を提供し得る。
コンピューティングデバイス605の例は、非常にモバイルなデバイス(たとえばスマートフォン、車両および他のマシンにおけるデバイス、ならびに、人間および動物によって携帯されるデバイスなど)と、モバイルデバイス(たとえばタブレット、ノートブック、ラップトップ、パーソナルコンピュータ、ポータブルテレビ、および、ラジオなど)と、モビリティのために設計されていないデバイス(たとえば、デスクトップコンピュータ、他のコンピュータ、情報キオスク、1つ以上のプロセッサが埋め込まれ、および/または、1つ以上のプロセッサに結合されるテレビ、ならびに、ラジオなど)とを含み得るがこれらに限定されない。
コンピューティングデバイス605は、外部ストレージ645と、同じまたは異なる構成の1つ以上のコンピューティングデバイスを含む任意数のネットワーク接続されたコンポーネント、デバイスおよびシステムと通信するためのネットワーク650とに(たとえばI/Oインターフェイス625を介して)通信可能に結合され得る。コンピューティングデバイス605または任意の接続されるコンピューティングデバイスは、サーバ、クライアント、シンサーバ、一般的なマシン、専用目的のマシン、または、別の名称のもののとして機能し得るか、これらのサービスを提供し得るか、このように称され得る。
I/Oインターフェイス625は、コンピュータ環境600における少なくともすべての接続されたコンポーネント、デバイスおよびネットワークに情報を通信するとともに当該コンポーネント、デバイスおよびネットワークから情報を通信するための任意の通信またはI/Oプロトコルまたは規格(たとえばEthernet(登録商標)、802.11x、ユニバーサルシステムバス、WiMax、モデム、および、セルラーネットワークプロトコルなど)を用いる有線および/または無線インターフェイスを含み得るがこれらに限定されない。ネットワーク650は、任意のネットワークまたはネットワークの組合せであり得る(たとえばインターネット、ローカルエリアネットワーク、ワイドエリアネットワーク、電話ネットワーク、セルラーネットワーク、および衛星ネットワークなど)。
コンピューティングデバイス605は、一時的な媒体および一時的でない媒体を含むコンピュータ使用可能媒体もしくはコンピュータ読取可能媒体を使用、および/または、当該媒体を使用して通信し得る。一時的な媒体は、伝送媒体(たとえば金属ケーブル、ファイバーオプティクス)、信号、および搬送波などを含む。一時的でない媒体は、磁気媒体(たとえばディスクおよびテープ)、光学媒体(たとえばCDROM、デジタルビデオティスク、ブルーレイディスク)、ソリッドステート媒体(たとえばRAM、ROM、フラッシュメモリ、ソリッドステートストレージ)、および、他の不揮発性ストレージまたはメモリを含む。
コンピューティングデバイス605は、いくつかの例示的なコンピュータ環境において、技術、方法、アプリケーション、プロセスまたはコンピュータ実行可能命令を実現するために使用され得る。コンピュータ実行可能命令は、一時的な媒体から抽出され得るとともに、一時的でない媒体上に格納されて当該媒体から抽出され得る。実行可能命令は、任意のプログラミング言語、スクリプト言語、およびマシン言語(たとえばC、C++、C#、Java(登録商標)、Visual Basic、Python、Perl、およびJavaScript(登録商標)など)のうちの1つ以上に由来し得る。
プロセッサ610は、ネイティブまたはバーチャル環境において、任意のオペレーティングシステム(OS)(図示せず)の下で実行し得る。論理ユニット660と、アプリケーションプログラミングインターフェイス(API: application programming interface)ユニット665と、入力ユニット670と、出力ユニット675と、モデル管理680と、アクション処理685と、予測エンジン690と、異なるユニットが互いに通信し、OSと通信し、他のアプリケーション(図示せず)と通信するためのユニット間通信メカニズム695とを含む1つ以上のアプリケーションが展開され得る。たとえば、モデル管理680、アクション処理685および予測エンジン690は、図1〜図5に記載および示される1つ以上のプロセスを実現し得る。記載されたユニットおよび要素は、設計、機能、構成または実装において変更され得、与えられた記載に限定されない。
いくつかの例示的な実現例において、情報または実行指示は、APIユニット665によって受け取られると、1つ以上の他のユニット(たとえば論理ユニット660、入力ユニット670、出力ユニット675、モデル管理680、アクション処理685および予測エンジン690)に通信され得る。たとえば、入力ユニット670がユーザアクションを検出した後、予測エンジン690はそのアクションを処理し、モデル管理680とインターフェイス接続し、これにより、1つ以上の予測モデルを抽出して1つ以上の予測されたアクションを提供する。モデルは、以前のアクションまたはユーザ履歴に基づいてアクション処理685によって生成され得る。その後、入力ユニット670は、予測されたアクションのうちの1つを選択または修正するユーザからの入力を提供し得る。その後、出力ユニット675は、ユーザの入力に基づいて最終アクションを実行する。
いくつかの場合では、上記のいくつかの例示的な実現例において、論理ユニット660は、ユニット間での情報フローを制御し、かつ、APIユニット665、入力ユニット670、出力ユニット675、モデル管理680、アクション処理685および予測エンジン690によって提供されるサービスを指示するように構成され得る。たとえば、1つ以上のプロセスまたは実現例のフローは、論理ユニット660によって単独でまたはAPIユニット665に関連して制御され得る。
ここで論じられるシステムがユーザに関する個人情報を収集または利用し得る状況において、ユーザには、プログラムまたは機能がユーザ情報(たとえば、ユーザのソーシャルネットワーク、ソーシャルアクションもしくはアクティビティ、職業、ユーザのプレファレンス、またはユーザの現在の位置に関する情報)を収集するかどうかをコントロールする機会、または、コンテンツサーバからユーザにより関連するコンテンツを受け取るかどうかおよび/もしくはどのようにコンテンツを受け取るかをコントロールする機会が与えられ得る。さらに、あるデータは、格納または使用される前に、個人が識別できる情報が除去されるように1つ以上の態様で扱われ得る。たとえば、ユーザの身元は、個人が識別できる情報が当該ユーザについて特定され得ないように扱われ得るか、または、位置情報が得られるユーザの特定の位置が特定され得ないように、ユーザの地理的位置が(たとえば都市レベル、ZIPコードレベルまたは州レベルまで)一般化され得る。したがって、ユーザは、情報がユーザに関してどのように収集されるか、および、コンテンツサーバによってどのように使用されるかについてコントロールを有し得る。
いくつかの例示的な実現例を示して記載したが、これらの例示的な実現例は、当業者に本願明細書において記載される主題を伝えるために提供されている。本願明細書において記載された主題は、記載された例示的な実現例に限定されることなく、さまざまな形態で実現されてもよいということが理解されるべきである。本願明細書において記載される主題は、それらの具体的に規定または記載された事項なしで実施され得るか、または、記載されていない他の異なる要素または事項とともに実施され得る。当業者であれば、添付の請求の範囲およびそれらの均等物において規定されるような、本願明細書において記載された主題から逸脱することがなければ、これらの例示的な実現例において変更がなされてもよいということが認識されるであろう。

Claims (18)

  1. コンピュータによって実現される方法であって、
    ユーザによって行われる第1のアクションを検出することと、
    前記第1のアクションに関連付けられる情報を集めることと、
    前記情報に基づいて予測モデルを抽出することと、
    前記第1のアクションへの前記予測モデルの適用可能性レベルを判定することとを含み、前記予測モデルは第2のアクションを提案し、前記方法はさらに、
    前記適用可能性レベルがしきい値レベルに合致する場合、ユーザインターフェイスにおいて前記第2のアクションを提供することと、
    前記第2のアクションまたは第3のアクションを選択する前記ユーザから入力を受け取ることとを含み、
    前記ユーザが個人を識別できる情報の使用をコントロールした場合に、前記第1のアクションに関連付けられる情報は、当該情報から個人を識別できる情報が除去されるように修正された後で前記予測モデルの生成に利用される、方法。
  2. 前記第1のアクションはコンテンツを識別することを含み、前記第2のアクションは、前記コンテンツを共有するべき1人以上の受信者を選択することを含む、請求項1に記載の方法。
  3. 前記第1のアクションはコンテンツを識別することを含み、前記第2のアクションは、前記コンテンツを処理するべきアプリケーションを選択することを含む、請求項1または2に記載の方法。
  4. 前記第1のアクションはウェブサイトにアクセスすることを含み、前記第2のアクションは、前記ウェブサイトにアクセスするブラウザのモードを選択することを含む、請求項1から3のいずれか1項に記載の方法。
  5. 前記予測モデルは、前記ユーザに関連付けられる複数の以前のアクションに基づく、請求項1から4のいずれか1項に記載の方法。
  6. 前記第1のアクションへの前記予測モデルの前記適用可能性レベルを判定することは、
    前記予測モデルに関連付けられる属性の重み付けされた計算を行うことと、
    前記属性の重み付けされた計算のうちの少なくともいくつかの組合せが前記しきい値レベルに合致することを判定することとを含む、請求項1から5のいずれか1項に記載の方法。
  7. 前記第2のアクションまたは第3のアクションを選択する前記ユーザからの入力は前記予測モデルを修正する、請求項1から6のいずれか1項に記載の方法。
  8. 請求項1から7のいずれか1項に記載の方法をコンピュータに実行させるためのプログラム。
  9. ストレージとプロセッサとを含む少なくとも1つのコンピューティングデバイスであって、前記プロセッサは、
    ユーザによって行われる第1のアクションを検出することと、
    前記第1のアクションに関連付けられる情報を集めることと、
    前記情報に基づいて予測モデルを抽出することと、
    前記第1のアクションへの前記予測モデルの適用可能性レベルを判定することとを行うよう構成されており、前記予測モデルは第2のアクションを提案し、前記プロセッサはさらに、
    前記適用可能性レベルがしきい値レベルに合致する場合、ユーザインターフェイスにおいて前記第2のアクションを提供することと、
    前記第2のアクションまたは第3のアクションを選択する前記ユーザから入力を受け取ることとを行うよう構成されており、
    前記ユーザが個人を識別できる情報の使用をコントロールした場合に、前記第1のアクションに関連付けられる情報は、当該情報から個人を識別できる情報が除去されるように修正された後で前記予測モデルの生成に利用される、少なくとも1つのコンピューティングデバイス。
  10. 前記第1のアクションはコンテンツを識別することを含み、前記第2のアクションは、前記コンテンツを共有するべき1人以上の受信者を選択することを含む、請求項9に記載の少なくとも1つのコンピューティングデバイス。
  11. 前記第1のアクションはコンテンツを識別することを含み、前記第2のアクションは、前記コンテンツを処理するべきアプリケーションを選択することを含む、請求項9または10に記載の少なくとも1つのコンピューティングデバイス。
  12. 前記第1のアクションはウェブサイトにアクセスすることを含み、前記第2のアクションは、前記ウェブサイトにアクセスするブラウザのモードを選択することを含む、請求項9から11のいずれか1項に記載の少なくとも1つのコンピューティングデバイス。
  13. 前記予測モデルは、前記ユーザに関連付けられる複数の以前のアクションに基づく、請求項9から12のいずれか1項に記載の少なくとも1つのコンピューティングデバイス。
  14. 前記第1のアクションへの前記予測モデルの前記適用可能性レベルを判定することは、
    前記予測モデルに関連付けられる属性の重み付けされた計算を行うことと、
    前記属性の重み付けされた計算のうちの少なくともいくつかの組合せが前記しきい値レベルに合致することを判定することとを含む、請求項9から13のいずれか1項に記載の少なくとも1つのコンピューティングデバイス。
  15. 前記第2のアクションまたは第3のアクションを選択する前記ユーザからの入力は前記予測モデルを修正する、請求項9から14のいずれか1項に記載の少なくとも1つのコンピューティングデバイス。
  16. コンピュータによって実現される方法であって、
    ユーザによって行われる第1のアクションを検出することと、
    前記第1のアクションに関連付けられる情報を集めることと、
    前記情報と、前記情報に関連付けられる過去の共有アクションとに基づいて、前記ユーザのプライバシープレファレンスおよび予測モデルを生成するために機械学習を適用することとを含み、前記機械学習は、前記情報を受け取り前記予測モデルを出力するブラックボックスとして適用されており、複数のパイプラインが複数のそれぞれのドメインについて提供されており、前記パイプラインの各々は前記機械学習を適用しており、前記方法はさらに、
    前記第1のアクションへの前記予測モデルの適用可能性レベルを判定することとを含み、前記予測モデルは第2のアクションを提案し、前記方法はさらに、
    前記第1のアクションに関連付けられるコンテンツの共有の程度に関連付けられる第1のしきい値レベルを上回る前記適用可能性レベルについて、ユーザインターフェイスにおいて前記第2のアクションを提供することと、
    前記第1のしきい値レベルを上回り、かつ、前記第1のしきい値レベルを上回る第2のしきい値レベルを上回らない前記適用可能性レベルについて、前記第2のアクションまたは第3のアクションを選択する前記ユーザから入力を受け取ることと、
    前記第2のしきい値レベルを上回る前記適用可能性レベルについて、前記ユーザから前記入力を受け取ることなく、前記第2のアクションまたは提供される前記第2のアクションに基づいた前記第3のアクションを自動的に選択することとを含む、方法。
  17. 請求項16に記載の方法をコンピュータに実行させるためのプログラム。
  18. ストレージとプロセッサとを含む少なくとも1つのコンピューティングデバイスであって、前記プロセッサは、
    ユーザによって行われる第1のアクションを検出することと、
    前記第1のアクションに関連付けられる情報を集めることと、
    前記情報と、前記情報に関連付けられる過去の共有アクションとに基づいて、前記ユーザのプライバシープレファレンスおよび予測モデルを生成するために機械学習を適用することとを行うように構成されており、前記機械学習は、前記情報を受け取り前記予測モデルを出力するブラックボックスとして適用されており、複数のパイプラインが複数のそれぞれのドメインについて提供されており、前記パイプラインの各々は前記機械学習を適用しており、前記プロセッサはさらに、
    前記第1のアクションへの前記予測モデルの適用可能性レベルを判定することを行うように構成されており、前記予測モデルは第2のアクションを提案し、前記プロセッサはさらに、
    前記第1のアクションに関連付けられるコンテンツの共有の程度に関連付けられる第1のしきい値レベルを上回る前記適用可能性レベルについて、ユーザインターフェイスにおいて前記第2のアクションを提供することと、
    前記第1のしきい値レベルを上回り、かつ、前記第1のしきい値レベルを上回る第2のしきい値レベルを上回らない前記適用可能性レベルについて、前記第2のアクションまたは第3のアクションを選択する前記ユーザから入力を受け取ることと、
    前記第2のしきい値レベルを上回る前記適用可能性レベルについて、前記ユーザから前記入力を受け取ることなく、前記第2のアクションまたは提供される前記第2のアクションに基づいた前記第3のアクションを自動的に選択することとを行うように構成される、少なくとも1つのコンピューティングデバイス。
JP2016541367A 2013-12-31 2014-12-18 ガイドされたユーザアクションのためのシステムおよび方法 Active JP6549128B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/145,596 US9519408B2 (en) 2013-12-31 2013-12-31 Systems and methods for guided user actions
US14/145,596 2013-12-31
PCT/US2014/071265 WO2015102931A1 (en) 2013-12-31 2014-12-18 Systems and methods for guided user actions

Publications (3)

Publication Number Publication Date
JP2017510867A JP2017510867A (ja) 2017-04-13
JP2017510867A5 JP2017510867A5 (ja) 2017-12-07
JP6549128B2 true JP6549128B2 (ja) 2019-07-24

Family

ID=52355225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016541367A Active JP6549128B2 (ja) 2013-12-31 2014-12-18 ガイドされたユーザアクションのためのシステムおよび方法

Country Status (7)

Country Link
US (1) US9519408B2 (ja)
EP (2) EP3090353B1 (ja)
JP (1) JP6549128B2 (ja)
KR (1) KR102149017B1 (ja)
CN (1) CN105874447B (ja)
BR (1) BR112016014653B1 (ja)
WO (1) WO2015102931A1 (ja)

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8106856B2 (en) 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
US8698762B2 (en) 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface for navigating and displaying content in context
US9459781B2 (en) 2012-05-09 2016-10-04 Apple Inc. Context-specific user interfaces for displaying animated sequences
WO2014143776A2 (en) 2013-03-15 2014-09-18 Bodhi Technology Ventures Llc Providing remote interactions with host device using a wireless device
US10270898B2 (en) 2014-05-30 2019-04-23 Apple Inc. Wellness aggregator
US9824079B1 (en) 2014-07-11 2017-11-21 Google Llc Providing actions for mobile onscreen content
US10452253B2 (en) 2014-08-15 2019-10-22 Apple Inc. Weather user interface
US10949507B2 (en) 2014-10-17 2021-03-16 Vulpecula, Llc. Methods, systems, and computer program products for web browsing
US10073976B2 (en) * 2014-10-24 2018-09-11 Samsung Electronics Co., Ltd. Application executing method and device, and recording medium thereof
EP3254452B1 (en) 2015-02-02 2018-12-26 Apple Inc. Device, method, and graphical user interface for establishing a relationship and connection between two devices
WO2016144385A1 (en) * 2015-03-08 2016-09-15 Apple Inc. Sharing user-configurable graphical constructs
US10275116B2 (en) 2015-06-07 2019-04-30 Apple Inc. Browser with docked tabs
US10003938B2 (en) 2015-08-14 2018-06-19 Apple Inc. Easy location sharing
WO2017030646A1 (en) 2015-08-20 2017-02-23 Apple Inc. Exercise-based watch face and complications
US10445425B2 (en) 2015-09-15 2019-10-15 Apple Inc. Emoji and canned responses
WO2017074398A1 (en) * 2015-10-29 2017-05-04 Hewlett Packard Enterprise Development Lp Models based on data augmented with conceivable transitions
US10146397B2 (en) 2015-11-27 2018-12-04 International Business Machines Corporation User experience steering
US10613707B2 (en) * 2015-12-10 2020-04-07 International Business Machines Corporation Auditing icons via image recognition to provide individualized assets to software project teams
KR20180070659A (ko) 2015-12-21 2018-06-26 구글 엘엘씨 메시징 애플리케이션들을 위한 자동적인 제안들 및 다른 콘텐츠
US10530723B2 (en) 2015-12-21 2020-01-07 Google Llc Automatic suggestions for message exchange threads
US10880833B2 (en) * 2016-04-25 2020-12-29 Sensory, Incorporated Smart listening modes supporting quasi always-on listening
AU2017100667A4 (en) 2016-06-11 2017-07-06 Apple Inc. Activity and workout updates
DK201670608A1 (en) 2016-06-12 2018-01-02 Apple Inc User interfaces for retrieving contextually relevant media content
AU2017100670C4 (en) 2016-06-12 2019-11-21 Apple Inc. User interfaces for retrieving contextually relevant media content
US10873786B2 (en) 2016-06-12 2020-12-22 Apple Inc. Recording and broadcasting application visual output
US20190252061A1 (en) * 2016-06-28 2019-08-15 Koninklijke Philips N.V. System and architecture for seamless workflow integration and orchestration of clinical intelligence
US10419381B2 (en) * 2016-08-30 2019-09-17 Facebook, Inc. Prompt ranking
CN109952572B (zh) 2016-09-20 2023-11-24 谷歌有限责任公司 基于消息贴纸的建议响应
US10511450B2 (en) 2016-09-20 2019-12-17 Google Llc Bot permissions
US11538099B2 (en) 2016-09-21 2022-12-27 Iunu, Inc. Online data market for automated plant growth input curve scripts
US10635274B2 (en) * 2016-09-21 2020-04-28 Iunu, Inc. Horticultural care tracking, validation and verification
US11244398B2 (en) 2016-09-21 2022-02-08 Iunu, Inc. Plant provenance and data products from computer object recognition driven tracking
US10791037B2 (en) 2016-09-21 2020-09-29 Iunu, Inc. Reliable transfer of numerous geographically distributed large files to a centralized store
US9805306B1 (en) * 2016-11-23 2017-10-31 Accenture Global Solutions Limited Cognitive robotics analyzer
US10356200B2 (en) 2016-12-28 2019-07-16 Google Llc Optimizing user interface data caching for future actions
EP3579160A1 (en) * 2017-02-03 2019-12-11 Panasonic Intellectual Property Management Co., Ltd. Learned model generating method, learned model generating device, and learned model use device
US10439966B2 (en) 2017-02-17 2019-10-08 Google Llc Transitioning between private and non-private state
DK179412B1 (en) 2017-05-12 2018-06-06 Apple Inc Context-Specific User Interfaces
WO2018212822A1 (en) * 2017-05-16 2018-11-22 Google Inc. Suggested actions for images
US10769291B2 (en) * 2017-06-12 2020-09-08 Microsoft Technology Licensing, Llc Automatic data access from derived trust level
US10873545B2 (en) * 2017-06-12 2020-12-22 Microsoft Technology Licensing, Llc Automatic action responses
US10348658B2 (en) 2017-06-15 2019-07-09 Google Llc Suggested items for use with embedded applications in chat conversations
US10404636B2 (en) 2017-06-15 2019-09-03 Google Llc Embedded programs and interfaces for chat conversations
CN107220094B (zh) * 2017-06-27 2019-06-28 北京金山安全软件有限公司 页面加载方法、装置和电子设备
US11556548B2 (en) 2017-08-08 2023-01-17 Microsoft Technology Licensing, Llc Intelligent query system for attachments
US10650306B1 (en) * 2017-09-29 2020-05-12 Amazon Technologies, Inc. User representation using a generative adversarial network
US10992773B2 (en) * 2017-10-30 2021-04-27 Microsoft Technology Licensing, Llc Action prompt transmission based on attribute affinity
US11113604B2 (en) * 2017-11-06 2021-09-07 Google Llc Training and/or utilizing an interaction prediction model to determine when to interact, and/or prompt for interaction, with an application on the basis of an electronic communication
US10891526B2 (en) 2017-12-22 2021-01-12 Google Llc Functional image archiving
US11062516B2 (en) 2018-02-07 2021-07-13 Iunu, Inc. Augmented reality based horticultural care tracking
US10884769B2 (en) * 2018-02-17 2021-01-05 Adobe Inc. Photo-editing application recommendations
US11036811B2 (en) 2018-03-16 2021-06-15 Adobe Inc. Categorical data transformation and clustering for machine learning using data repository systems
US11327650B2 (en) 2018-05-07 2022-05-10 Apple Inc. User interfaces having a collection of complications
CN114327225A (zh) * 2018-05-07 2022-04-12 苹果公司 用于共享上下文相关的媒体内容的用户界面
DK180171B1 (en) 2018-05-07 2020-07-14 Apple Inc USER INTERFACES FOR SHARING CONTEXTUALLY RELEVANT MEDIA CONTENT
US10680979B2 (en) * 2018-06-08 2020-06-09 Capital One Services, Llc System and method for proactive intervention to reduce high cost channel usage
US20190384622A1 (en) * 2018-06-14 2019-12-19 Microsoft Technology Licensing, Llc Predictive application functionality surfacing
US10949272B2 (en) 2018-06-14 2021-03-16 Microsoft Technology Licensing, Llc Inter-application context seeding
US20190384460A1 (en) * 2018-06-14 2019-12-19 Microsoft Technology Licensing, Llc Surfacing application functionality for an object
US20190384621A1 (en) * 2018-06-14 2019-12-19 Microsoft Technology Licensing, Llc Next operation prediction for a workflow
US10885905B2 (en) * 2018-07-13 2021-01-05 Samsung Electronics Co., Ltd. Predicting user actions on ubiquitous devices
US11163617B2 (en) * 2018-09-21 2021-11-02 Microsoft Technology Licensing, Llc Proactive notification of relevant feature suggestions based on contextual analysis
US11093510B2 (en) 2018-09-21 2021-08-17 Microsoft Technology Licensing, Llc Relevance ranking of productivity features for determined context
CN112368723A (zh) * 2018-11-26 2021-02-12 华为技术有限公司 一种模型选择方法和终端
US11960701B2 (en) 2019-05-06 2024-04-16 Apple Inc. Using an illustration to show the passing of time
DK201970535A1 (en) 2019-05-06 2020-12-21 Apple Inc Media browsing user interface with intelligently selected representative media items
US11131967B2 (en) 2019-05-06 2021-09-28 Apple Inc. Clock faces for an electronic device
EP3827323B1 (en) 2019-05-06 2023-12-13 Apple Inc. Restricted operation of an electronic device
US11194467B2 (en) 2019-06-01 2021-12-07 Apple Inc. Keyboard management user interfaces
US11074408B2 (en) 2019-06-01 2021-07-27 Apple Inc. Mail application features
US20200380432A1 (en) * 2019-06-03 2020-12-03 Sap Se Predictive workflow control powered by machine learning in digital workplace
EP3783537A1 (en) 2019-08-23 2021-02-24 Nokia Technologies Oy Controlling submission of content
US11797880B1 (en) * 2019-08-27 2023-10-24 Meta Platforms, Inc. Systems and methods for digital content provision
DK180392B1 (en) 2019-09-09 2021-03-12 Apple Inc Techniques for managing display usage
US11720980B2 (en) 2020-03-25 2023-08-08 Iunu, Inc. Crowdsourced informatics for horticultural workflow and exchange
WO2021231345A1 (en) 2020-05-11 2021-11-18 Apple Inc. User interfaces for managing user interface sharing
DK181103B1 (en) 2020-05-11 2022-12-15 Apple Inc User interfaces related to time
US11372659B2 (en) 2020-05-11 2022-06-28 Apple Inc. User interfaces for managing user interface sharing
US11694590B2 (en) 2020-12-21 2023-07-04 Apple Inc. Dynamic user interface with time indicator
US11720239B2 (en) 2021-01-07 2023-08-08 Apple Inc. Techniques for user interfaces related to an event
US11921992B2 (en) 2021-05-14 2024-03-05 Apple Inc. User interfaces related to time
US11938376B2 (en) 2021-05-15 2024-03-26 Apple Inc. User interfaces for group workouts

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6400996B1 (en) * 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
JP2009514075A (ja) 2005-10-28 2009-04-02 テレコム・イタリア・エッセ・ピー・アー 選択されたコンテンツアイテムをユーザーに提供する方法
US8447020B2 (en) * 2007-08-09 2013-05-21 Google Inc. Speed-dial and speed-contact with predictive logic
US8010676B1 (en) * 2008-01-03 2011-08-30 Desktonc, Inc. Virtual computing services deployment network
US20090234876A1 (en) * 2008-03-14 2009-09-17 Timothy Schigel Systems and methods for content sharing
JP5235160B2 (ja) 2009-04-20 2013-07-10 日本電信電話株式会社 行動予測装置とそのプログラム
JP5316363B2 (ja) * 2009-10-20 2013-10-16 ソニー株式会社 情報処理装置、機能管理方法、コンピュータプログラム及び情報処理システム
US20110196853A1 (en) 2010-02-08 2011-08-11 International Business Machines Corporation System, method, and apparatus for generating a script to perform a task at a target web interface instance
US20110208822A1 (en) * 2010-02-22 2011-08-25 Yogesh Chunilal Rathod Method and system for customized, contextual, dynamic and unified communication, zero click advertisement and prospective customers search engine
KR20120045415A (ko) 2010-10-29 2012-05-09 삼성에스디에스 주식회사 지능형서비스제공 라이프로깅장치 및 방법
US9338197B2 (en) * 2010-11-01 2016-05-10 Google Inc. Social circles in social networks
US8866701B2 (en) * 2011-03-03 2014-10-21 Citrix Systems, Inc. Transparent user interface integration between local and remote computing environments
US8464350B2 (en) * 2011-03-14 2013-06-11 International Business Machines Corporation System and method for in-private browsing
US10366341B2 (en) 2011-05-11 2019-07-30 Oath Inc. Mining email inboxes for suggesting actions
US20130091087A1 (en) 2011-10-10 2013-04-11 Topsy Labs, Inc. Systems and methods for prediction-based crawling of social media network
TWI522815B (zh) * 2011-10-19 2016-02-21 致伸科技股份有限公司 直接相片分享系統
US8812416B2 (en) 2011-11-08 2014-08-19 Nokia Corporation Predictive service for third party application developers
US20130132330A1 (en) 2011-11-22 2013-05-23 Motorola Mobility, Inc. Management of privacy settings for a user device
US8849730B2 (en) 2011-12-15 2014-09-30 Microsoft Corporation Prediction of user response actions to received data
US20130218637A1 (en) * 2012-02-20 2013-08-22 Katalus Advisors, LLC Systems and methods for collecting and analyzing customer feedback information
KR102150514B1 (ko) * 2012-08-22 2020-09-21 삼성전자주식회사 디바이스 및 그를 이용한 컨텐츠 공유 방법
US9338622B2 (en) * 2012-10-04 2016-05-10 Bernt Erik Bjontegard Contextually intelligent communication systems and processes
US20140130076A1 (en) * 2012-11-05 2014-05-08 Immersive Labs, Inc. System and Method of Media Content Selection Using Adaptive Recommendation Engine
US20140279793A1 (en) * 2013-03-14 2014-09-18 Balderdash Inc. Systems and methods for providing relevant pathways through linked information
US11074618B2 (en) * 2013-06-13 2021-07-27 Blackberry Limited Method and apparatus pertaining to history-based content-sharing recommendations
US10049342B2 (en) * 2013-06-13 2018-08-14 Blackberry Limited Method and apparatus pertaining to sharing content with scheduled-event participants
CN103345513B (zh) * 2013-07-09 2017-07-18 清华大学 一种社交网络中的基于朋友关系传播的朋友推荐方法
US20150081470A1 (en) * 2013-09-18 2015-03-19 W.W. Grainger, Inc. Methods and apparatus for providing supplemental content in communications sharing a webpage

Also Published As

Publication number Publication date
EP3090353A4 (en) 2017-07-19
KR102149017B1 (ko) 2020-08-27
KR20160105395A (ko) 2016-09-06
CN105874447A (zh) 2016-08-17
WO2015102931A1 (en) 2015-07-09
BR112016014653A8 (pt) 2018-01-02
EP3090353B1 (en) 2019-12-04
JP2017510867A (ja) 2017-04-13
BR112016014653B1 (pt) 2023-02-23
EP3090353A1 (en) 2016-11-09
BR112016014653A2 (ja) 2017-08-08
US9519408B2 (en) 2016-12-13
US20150185995A1 (en) 2015-07-02
EP3633524A1 (en) 2020-04-08
CN105874447B (zh) 2019-09-17

Similar Documents

Publication Publication Date Title
JP6549128B2 (ja) ガイドされたユーザアクションのためのシステムおよび方法
US20210103837A1 (en) Systems and methods for guided user actions
US11681654B2 (en) Context-based file selection
US11481427B2 (en) Systems and methods for a scalable, collaborative, real-time, graphical life-management interface
KR101754639B1 (ko) 상호작용 히스토리에 기반한 사용자 경험/사용자 인터페이스
US20170250930A1 (en) Interactive content recommendation personalization assistant
JP6227011B2 (ja) 閲覧セッション履歴を共有するためのアーキテクチャ
US11436521B2 (en) Systems and methods for providing contextual recommendations for pages based on user intent
US10154312B2 (en) Systems and methods for ranking and providing related media content based on signals
US20150365497A1 (en) Providing access to information across multiple computing devices
KR20160144481A (ko) 컨텐츠의 사용자 공유 유도
US10382500B2 (en) Systems and methods for binding online content accounts
JP2019530087A (ja) コンテンツエンゲージメントのためのシステムおよび方法
US20170052926A1 (en) System, method, and computer program product for recommending content to users
US20150074599A1 (en) Mobile video channel-based gestural user interface
US20170097978A1 (en) Systems and methods for accessing categorized content
CN107430609B (zh) 针对企业环境的浏览器新标签页的生成
US10521732B2 (en) Systems and methods for content presentation
US11658926B2 (en) Generating smart replies involving image files
US9898178B2 (en) Systems and methods for utilizing available map resources to generate previews for map portions

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171024

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171024

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180717

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190626

R150 Certificate of patent or registration of utility model

Ref document number: 6549128

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250