JP7108795B2 - ネットワークベースのサービスのための対象検証 - Google Patents

ネットワークベースのサービスのための対象検証 Download PDF

Info

Publication number
JP7108795B2
JP7108795B2 JP2021540772A JP2021540772A JP7108795B2 JP 7108795 B2 JP7108795 B2 JP 7108795B2 JP 2021540772 A JP2021540772 A JP 2021540772A JP 2021540772 A JP2021540772 A JP 2021540772A JP 7108795 B2 JP7108795 B2 JP 7108795B2
Authority
JP
Japan
Prior art keywords
mobile computing
computing device
verification
user
network system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021540772A
Other languages
English (en)
Other versions
JP2022500679A (ja
Inventor
アッシュ,リチャード
エヴァンス,レニー
オングチン,デリック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Uber Technologies Inc
Original Assignee
Uber Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Uber Technologies Inc filed Critical Uber Technologies Inc
Publication of JP2022500679A publication Critical patent/JP2022500679A/ja
Application granted granted Critical
Publication of JP7108795B2 publication Critical patent/JP7108795B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Telephone Function (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Description

関連出願の相互参照
本出願は、2018年9月20日に出願された米国特許出願第16/136,946号に対する優先権を主張するものであり、上述の出願は参照によりその全体が本明細書に組み込まれるものである。
ネットワークベースのサービスは、ユーザを、ユーザに要求されたサービスを提供できる利用可能なサービス提供者と結び付けることができる。ネットワークベースのサービスの特定のユーザは、ネットワークベースのサービスを要求できるようになる前に、対象(object)(例えば、支払いカード)を物理的に所有していることを示すように求められうる。従来の対象検証方法は、ユーザに対象の画像をキャプチャして対象を物理的に所有していることを示すように促すだけである。
所定の領域(例えば、サンフランシスコ・ベイエリア)にわたる要求元ユーザ(例えば、乗客、サービス要求者)と利用可能なサービス提供者(例えば、運転手および/または自律車両(AV))とをリンクする、ネットワークベースのサービス(例えば、輸送サービス、配達サービス等)を管理するネットワークシステムが本明細書で提供される。これを行う際、ネットワークシステムは、ユーザのモバイルコンピューティング装置(「ユーザ装置」)上で実行される専用ユーザアプリケーションを介して、要求元ユーザからのサービスの要求を受信できる。開始位置(例えば、サービス提供者が要求元のユーザと待ち合わせるピックアップ位置)に基づいて、ネットワークシステムは、利用可能なサービス提供者を特定し、特定されたサービス提供者のモバイルコンピューティング装置(「提供者装置」)に案内を送信できる。特定されたサービス提供者が案内を受け入れると、ネットワークシステムは提供者装置に道順を送信して、サービス提供者を開始位置に、続いて開始位置からサービス位置(例えば、サービス提供者が要求されたサービスを完了する降車位置)まで誘導することができる。開始位置は、リクエストで指定でき、ユーザ入力からまたはユーザ装置上の1つまたは複数の地理認識(geo-aware)リソースから特定できる。サービス位置もリクエストで指定できる。
所与のサービス要求を満たすための最適なサービス提供者を決定する際に、ネットワークシステムは、サービス要求に示された開始位置に基づいて、サービス要求を満たすための複数の候補サービス提供者を特定することができる。例えば、ネットワークシステムは、開始位置を囲むジオフェンス(または開始位置からの半径によって定められるジオフェンス)を決定し、候補サービス提供者のセット(例えば、ジオフェンス内の20または30のサービス提供者)を特定し、サービス要求を処理するために候補サービス提供者から最適なサービス提供者(例えば、開始位置に最も近いサービス提供者、開始位置からの推定移動時間が最も短いサービス提供者、サービス位置まで指定された距離または指定された移動時間内の位置に移動中または途中のサービス提供者等)を選択できる。多くの例では、サービス提供者は、例えば、ルートが長すぎるかまたはサービス提供者にとって実行不可能であることに基づいて、案内を受諾するまたは拒否することができる。
特定の実装形態において、ユーザアプリケーションを使用すると、ユーザはサービス要求を送信する前にネットワークベースのサービスの状況をプレビューすることができる。例えば、オンデマンド輸送サービスのとの関連において、ユーザは、開始位置およびサービス位置を入力して、ネットワークベースのサービスの予想コスト、サービス位置への到着予定時刻などをプレビューすることができる。ユーザアプリケーションとやりとりすることにより、ユーザは、例えば、エコノミーサービスクラス、ライドシェアプーリングサービスクラス、リムジンサービスクラスなどを含む、異なるサービスタイプまたはクラスの状況をプレビューすることができる。より詳細には、ネットワークベースのサービスをプレビューするためのこれらのやりとり中に、ユーザ装置は、所望の開始位置およびサービス位置を示すセッションデータをネットワークシステムに送信することができる。次いで、ネットワークシステムは、受信したセッションデータに基づいて、ネットワークベースのサービスのさまざまな状況を計算および判断できる。次に、データがネットワークシステムからユーザ装置に送信され、ユーザ装置が、図形および文字を描写および表示して、ユーザがネットワークベースのサービスをプレビューできるようにする。次に、ユーザは、ユーザアプリケーションとやりとりしてサービス要求を送信し、ネットワークシステムに要求されたサービスを実行するのに最適なサービス提供者を特定させることができる。サービスをプレビューするためにセッションデータに応答してネットワークシステムによって決定されたパラメータおよび変数を、ユーザによって要求されたサービスに適用することができる。
さまざまな態様で、ネットワークベースのサービスをプレビューするためのユーザセッションの開始に応じてまたはサービス要求に応じて、ユーザセッションを続行する前にまたは要求の処理と共に対象の検証を要求するかを決定するようにネットワークシステムを構成できる。本明細書で使用される場合、対象検証は、ネットワークベースのサービスで使用するために、ユーザが対象(例えば、支払いカードなど)を物理的に所有していることを検証することを称しうる。
実施形態によれば、所与のセッションまたは所与のサービス要求に対して対象検証を要求する決定をすることに応答して、ネットワークシステムは、ネットワークを介して対応するユーザ装置に検証要求を送信することができる。検証要求の受信に応答して、ユーザ装置は、ユーザ装置のディスプレイ上に検証ユーザインターフェースを表示することができる。検証ユーザインターフェースが表示されている間に1つまたは複数のユーザアクションを検出することに応答して、ユーザ装置は、検証されている対象の複数の画像をキャプチャすることができる。例えば、ユーザは、検証ユーザインターフェース上のファインダー機能を使用して対象を位置合わせして、ユーザ装置に対象の複数の画像をキャプチャさせることができる。いくつかの実装形態では、対象のキャプチャされた複数の画像は、ユーザ装置のフラッシュライトが非アクティブ化されている(例えば、オフかつ非照射中)間にキャプチャされた第1の画像と、ユーザ装置のフラッシュライトがアクティブ化されている間(例えば、オンかつ照射中)にキャプチャされた第2の画像を含んでもよい。フラッシュライトは、第1および第2の画像をキャプチャするときにユーザ装置によって自動的にトリガーされてもよい。例えば、1つまたは複数のユーザアクションに応答して、ユーザ装置は第1の画像をキャプチャし、フラッシュライトを自動的にアクティブ化して、第2の画像をキャプチャしうる。
ユーザ装置は、対象を検証するための検証データを生成してネットワークシステムに送信できる。検証データには、光反射率分析を行うことによって生成された光反射率メトリック(metrics)が含まれうる。光反射率メトリックは、光が対象の表面でどのように反射するかの1つまたは複数の態様の数値表現または統計表現であり、対象が予想される表面材料を有するかの指標でありうる。バリエーションによれば、ネットワークシステムまたはユーザ装置は、光反射率分析および/または他の分析を実行することができる。支払いカードを検証する例では、光反射率分析は、物理的なカード(例えば、プラスチックまたは金属)を、紙に印刷されたまたは画面に表示された支払いカードの画像と区別するのに役立つ。光反射率分析は、対象の光反射率特性(例えば、光反射の強度、光反射パターン)が、プラスチックまたは金属材料の表面を示す許容範囲内にあるかどうかを特定することができる。光反射率メトリックは、第1の画像(フラッシュオン)および第2の画像(フラッシュオフ)の分析に基づいて、ユーザ装置によって生成できる。例えば、ユーザ装置は、第1の画像と第2の画像を比較して、対象の表面の光反射の強度および/またはパターンを特定することができる。いくつかの実装形態では、光反射率メトリックは、2つの画像のピクセルごとの比較(または2つの画像のピクセル群ごとの比較)を用いて生成することができる。一例では、ユーザ装置は、第1の画像と第2の画像との間のピクセル値のデルタ(例えば、輝度値を表す)を含むピクセルデルタマップを生成することができる。
本明細書に記載の例では、検証データは、フィーチャロケーションマッピング(feature location mapping)分析の結果をさらに含むことができる。フィーチャロケーションマッピング分析では、対象の可視的特徴が対象の予想される位置にあるかどうかを判断できる。物理的な支払いカードを検証する状況で、可視的特徴は、ロゴ、署名ボックス、刻印された文字または番号(例えば、名前、カード番号、有効期限)などに対応することができる。一実装形態では、ユーザ装置は、様々なタイプの可視的特徴を認識し、それらのそれぞれの位置を決定することができる。検証データは、識別された特徴およびそれぞれの位置を示すことができる。検証データに基づいて、ネットワークシステムは、識別された特徴が予想される位置にあるかどうかを特定できる。そのために、ネットワークシステムは、識別された特徴の予想される位置を指定する対象テンプレートを取得できる。例えば、特定の支払いカードの対象テンプレートは、特定の支払いカードの発行者、支払いネットワーク、ブランドなどに基づいて取得できる。ネットワークシステムは、対象テンプレートを維持してもよい、または、金融機関(例えば、支払いカードの発行者)のコンピュータシステムと通信して対象テンプレートを取得してもよい。
実施形態によれば、ネットワークシステムは、ユーザ装置および/またはネットワークシステムによって実行されるいろいろな分析の様々な結果またはデータに基づいて、対象検証プロセスに合格したかどうかの総合的な決定を生成することができる。この総合的な決定は、対象検証プロセスの先の事例に基づいて時間の経過とともにトレーニングされる機械学習モデルを使用して行うことができる。
対象の所持を検証するための従来の方法と比較して、本明細書で説明する例は、重要な技術的利点を提供する。一態様では、光反射率分析を実行することによって(例えば、光反射率強度およびパターンを示す光反射率メトリックを特定する)、本明細書に記載の実施形態は、検証される対象が予想される表面材料で構成されているかどうかを特定し、それによって対象検証プロセスの完全性および精度を保証および改善することができる。さらに、本明細書で説明される例は、他の工程がネットワークシステムによって実行される間に、ユーザ装置によって特定の対象検証タスクを実行する。このようにして、機密データがネットワークを介してネットワークシステムに送信されないので、機密データ(例えば、検証される対象の未加工画像データ)のプライバシーを維持することができる。さらに、ネットワークシステムとモバイルコンピューティング装置の両方を利用して対象の信頼性を検証することにより、対象検証を実行するために必要な大量のデータ(例えば、フィーチャロケーションマッピング分析を実行するために必要な対象テンプレート、光反射率分析のための許容可能なベースラインデータなど)を、ネットワークシステムによって記憶できるため、モバイルコンピューティング装置の貴重なストレージスペースを占有する必要がない。
本明細書において用いられるコンピューティング装置とは、ネットワークを介してシステムと通信するためのネットワーク接続性および処理リソースを提供することができる、デスクトップコンピュータ、携帯電話装置またはスマートフォン、パーソナルデジタルアシスタント(PDA)、ラップトップコンピュータ、仮想現実(VR)または拡張現実(AR)ヘッドセット、タブレット装置、テレビ(IPテレビ)等に対応する装置を指す。コンピューティング装置は、カスタムハードウェア、車載装置、または車載コンピュータ等にも対応し得る。また、コンピューティング装置は、ネットワークサービスと通信するよう構成された専用アプリケーションを操作しうる。
本明細書に記載されている1つ以上の例では、コンピューティング装置によって行われる方法、技術、および動作は、プログラムによって、またはコンピュータによって実装される方法として行われる。本明細書において用いられる「プログラムによって」とは、コードまたはコンピュータが実行可能な命令を用いることを意味する。これらの命令は、コンピューティング装置の1以上のメモリリソースに格納され得る。プログラムによって行われる工程は、自動であってもよく、または自動でなくてもよい。
本明細書に記載されている1以上の例は、プログラムモジュール、エンジン、またはコンポーネントを用いて実装され得る。プログラムモジュール、エンジン、またはコンポーネントは、1以上の規定されたタスクもしくは機能を実行可能なプログラム、サブルーチン、プログラムの一部、またはソフトウェアコンポーネントもしくはハードウェアコンポーネントを含み得る。本明細書において用いられるモジュールまたはコンポーネントは、他のモジュールまたはコンポーネントから独立して、ハードウェアコンポーネント上に存在し得る。或いは、モジュールまたはコンポーネントは、他のモジュール、プログラム、またはマシンの共有要素または共有処理であってもよい。
本明細書に記載されている幾つかの例は、一般的に、処理リソースおよびメモリリソースを含むコンピューティング装置を用いることを必要とし得る。例えば、本明細書に記載されている1以上の例は、全体的にまたは部分的に、例えば、サーバ、デスクトップコンピュータ、携帯電話またはスマートフォン、パーソナルデジタルアシスタント(例えば、PDA)、ラップトップコンピュータ、VRまたはAR装置、プリンタ、デジタルピクチャーフレーム、ネットワーク機器(例えば、ルータ)、およびタブレット装置等のコンピューティング装置上において実装され得る。メモリリソース、処理リソース、およびネットワークリソースは全て、本明細書に記載されている任意の例の確立、使用、または実行(任意の方法の実行、または任意のシステムの実装を含む)に関連して用いられ得る。
さらに、本明細書に記載されている1以上の例は、1以上のプロセッサによって実行可能な命令を用いることによって実装され得る。これらの命令は、コンピュータ可読媒体に担持され得る。以下において図面と共に図示または説明されるマシンは、本明細書において開示されている例を実装するための命令が担持および/または実行され得る処理リソースおよびコンピュータ可読媒体の例を提供するものである。具体的には、本発明の例と共に示される多くのマシンは、プロセッサと、データおよび命令を保持するための様々な形態のメモリとを含む。コンピュータ可読媒体の例としては、パーソナルコンピュータまたはサーバのハードドライブ等の永続メモリストレージ装置が挙げられる。コンピュータストレージ媒体の他の例としては、CDまたはDVD装置等の携帯型ストレージ装置、フラッシュメモリ(スマートフォン、多機能装置、またはタブレットに搭載されているもの等)、および磁気メモリが挙げられる。コンピュータ、端末、ネットワーク対応装置(例えば、携帯電話等のモバイル装置)は全て、プロセッサ、メモリ、およびコンピュータ可読媒体に格納された命令を利用するマシンおよび装置の例である。更に、複数の例は、コンピュータプログラム、またはそのようなプログラムを担持可能なコンピュータが使用可能な担持媒体の形態で実装され得る。
本明細書の開示は添付図面の図において限定としてではなく例として例示され、図面では、同様の参照番号は類似の構成要素を指す。
本明細書に記載されている例による、ユーザ装置および提供者装置と通信する例示的なネットワークシステムを示すブロック図 本明細書に記載されている例による、例示的なネットワークシステムと通信する例示的なモバイルコンピューティング装置を示すブロック図 本明細書に記載されている例による、ネットワークベースのサービスのためにサービス要求を処理する例示的な方法を示すフローチャート 本明細書に記載されている例による、対象検証を実行する例示的な方法を示すフローチャート 本明細書に記載されている例による、光反射率分析を実行する例示的な方法を示すフローチャート 本明細書に記載されている例による、対象検証を実行するためのユーザ装置上に表示された例示的なユーザインターフェースを示す図 本明細書に記載されている例による、対象検証を実行するためのユーザ装置上に表示された例示的なユーザインターフェースを示す図 本明細書に記載されている例による、例示的なモバイルコンピューティング装置を示すブロック図 本明細書に記載されている例が実装されうるコンピュータシステムを示すブロック図
システムの説明
図1は本明細書に記載された実施例に係る提供者装置及び利用者装置と通信するネットワークシステムの例を例示するブロック図である。ネットワークシステム100は、要求元ユーザ182を、そのユーザのサービス要求183を実現するのに利用可能なサービス提供者192に接続するネットワークベースのサービス(例えば、オンデマンド輸送サービス、オンデマンド配達サービスなど)を実行または管理し得る。ネットワークシステム100は、オンデマンドサービスがユーザ装置180上で動作するユーザアプリケーション181と提供者装置190上で動作する提供者アプリケーション191とを介して利用可能なサービス提供者192により要求元ユーザ182に提供されるのを可能にするプラットフォームを提供できる。本明細書で使用されるように、ユーザ装置180および提供者装置190は、ネットワークシステム100により管理されるオンデマンドサービスに対応する専用アプリケーションを実行する機能を有するコンピューティング装置を含み得る。多くの例において、ユーザ装置180および提供者装置190は、スマートフォン、タブレットコンピュータ、VRまたはARヘッドセット、車両の車載コンピューティングシステム、スマートウォッチ等のモバイルコンピューティング装置を含み得る。1つの例では、サービス要求を実現するサービス提供者は、ユーザをピックアップするために開始位置(例えば、ピックアップ位置)でユーザと待ち合わせ、ユーザをサービス位置(例えば、目的位置)に輸送するサービス提供者を含む。
ネットワークシステム100は、ユーザアプリケーション181を介して1以上のネットワーク170に亘ってユーザ装置180と通信するためのユーザ装置インターフェース115を含み得る。複数の例によれば、ネットワークベースのサービスを利用することを望む要求元ユーザ182は、ユーザアプリケーション181を起動して、ユーザ装置180に、ユーザアプリケーション181を使用することにより、ネットワーク170を介してネットワークシステム100にサービス要求183を送信させることができる。特定の実装形態において、要求元ユーザ182は、ネットワークシステム100によって管理されている複数の異なるサービスタイプを閲覧できる。オンデマンド輸送サービスにおいて、サービスタイプは、ライドシェアサービス、エコノミーサービス、高級サービス、プロフェッショナルサービス提供者サービス(例えば、サービス提供者が有資格者である)、自動運転車両サービス等を含みうる。特定の実装形態において、利用可能なサービスタイプは、複数のユーザが1つのサービス提供者によりサービスされるようにマッチングされる、ライドシェア-プーリングサービスを含みうる。ユーザアプリケーション181は、ユーザ182が利用可能なサービスタイプをスクロールすることを可能にし得る。ユーザアプリケーション181はまた、ユーザ182が将来のサービス要求のために開始位置およびサービス位置を入力することを可能にし得る。ある態様において、サービス要求183は、将来のサービス要求183のためにユーザアプリケーション181内で開始位置およびサービス位置を入力するユーザに応答してユーザ装置180によって生成され得る。サービス要求183は、開始位置およびサービス位置を示し得る。サービス要求183の受信に応じて、ネットワークシステム100は、コンテンツデータ(例えば、コンテンツデータ133)を提供し、ユーザアプリケーション181のユーザインターフェース上において、そのサービスタイプについて最も近くにいるサービス提供者のETA、そのサービスタイプについて近くにいる利用可能な全サービス提供者の位置、および/または利用可能なサービスタイプのそれぞれを要求するための推定費用を示すETAデータをユーザ装置180に表示させ得る。ユーザが利用可能なサービスタイプをスクロールすると、ユーザインターフェースは、ユーザ182またはユーザによって設定された開始位置を中心とする地図上に、そのサービスタイプについてのサービス提供者の視覚的表現を示すように更新され得る。ユーザ182は、ユーザアプリケーション181のユーザインターフェースとやりとりして、特定のサービスタイプを選択し、サービス要求183を送信し得る。
実施形態によれば、ネットワークシステム100は、ユーザ装置180からのサービス要求183の受信に応答して多くの機能を実行することができるサービスエンジン125を含みうる。例えば、サービス要求183の受信に応答して、サービスエンジン125は、サービス要求183を満たすための候補サービス提供者192を識別することができる。サービスエンジン125は、提供者装置190から送信された提供者位置データ194を受信して、ユーザのサービス要求183にサービスを提供するための最適なサービス提供者192を識別することができる。最適なサービス提供者192は、サービス提供者192の位置、開始位置へのETA、ステータス、利用可能性などに基づいて識別することができる。
様々な態様において、サービスエンジン125は、選択されたサービス提供者192の提供者装置190に案内126を送信することができる。案内126は、提供者装置190と通信する提供者装置インターフェース120を介してネットワーク170によって送信することができる。案内126の受信に応答して、提供者アプリケーション191は、サービス提供者192に案内126を受諾するか拒否するかの催促を表示することができる。サービス提供者192が案内126を受諾する場合、提供者アプリケーション191は、提供者装置190に、受諾193をネットワークシステム100に送信させることができる。提供者装置190から受諾193を受信することに応答して、ネットワークシステム100およびサービスエンジン125は、サービス提供者192による要求されたサービスの履行を促進するためにいくつかの操作を実行することができる。一例として、サービスエンジン125は、サービス要求183を満たすために、サービス提供者192のための最適なルート127を生成する。ルート127は、データベース145内に格納された地図データ147に基づいて生成することができる。ルート127は、サービス提供者192の現在の位置から(例えば、提供者位置データ194に基づいて)開始位置までのセグメントと、開始位置からサービス位置までの別のセグメントを含むことができる。ルート127はまた、ライドシェア輸送サービスなどの別のユーザのための降車位置のような他の中間位置を含むことができる。提供者装置インターフェース120は、1つまたは複数のネットワーク170を介してルート127を提供者装置190に送信することができる。提供者装置190は、提供者アプリケーション191を介して、サービスエンジン125によって生成されたルート127に基づいて、サービス提供者192に進路変更ごとの方向を表示することができる。いくつかの実装形態では、サービスエンジン125は、開始位置およびサービス位置をサービス提供者装置190に送信することができ、提供者装置190および提供者アプリケーション191は、サービス要求183を満たすために必要なサービス提供者192のための1つまたは複数のルートおよび進路変更ごとの方向を生成することができる。
様々な例において、ネットワークシステム100は、ユーザプロファイルデータ146の形態で、データベース145内に要求元ユーザ182のユーザデータを維持することができる。ユーザプロファイルデータ146は、過去にユーザ182によって要求されたサービス、ネットワークベースのサービスに関連して頻繁に訪問される場所(例えば、自宅の位置、オフィスの住所など)などに関する情報を含むことができる。ユーザプロファイルデータ146はまた、ネットワークベースのサービスに対するユーザ182の支払いを処理するためにネットワークシステム100によって使用される支払い情報(例えば、クレジットカード/デビットカード情報など)を含むことができる。いくつかの実装形態では、ユーザ182は、ユーザアプリケーション181を介して支払い情報を入力することができる。例えば、ユーザ182は、ネットワークベースのサービスのためにユーザアカウントまたはプロファイルを設定している間、またはサービスのための要求を送信する前に、催促されうる。
実施形態によれば、ネットワークシステム100およびユーザ装置180は一緒に、ユーザ182からのサービス要求183の処理に進む前に、ユーザ182が対象175を所有していることを検証するために対象検証を実行することができる。一例として、対象検証アクションを用いて、ユーザ182が、ユーザ182のユーザプロファイルに関連付けられた支払いカードを所有していることを検証することができる。一実施形態では、サービス要求183に応答して、サービスエンジン125は、要求元ユーザ182のユーザプロファイルデータ146を検索することができる。サービスエンジン125(またはネットワークシステム100の別の構成要素)は、ユーザプロファイルデータ146の分析に基づいて、サービス要求183の処理に進む前にユーザ182に対象検証を実行することを要求するかどうかを決定することができる。他の実装形態では、サービスエンジン125は、ユーザがユーザアプリケーション181内でスタート位置からサービス位置までネットワークベースのサービスをプレビューするためにセッションを開始することに応答して、ユーザがユーザアプリケーション内で対象175に関する情報を入力することに応答して、または、ユーザ182ユーザアカウントまたはプロファイルを設定することに応答して、対象検証を要求するかどうかを決定することができる。ユーザ182が支払い情報を検証しなければならないと決定された場合、ネットワークシステム100は、ネットワーク170を介して検証要求128をユーザ装置180に送信することができる。
検証要求128の受信に応答して、ユーザ装置180は、ユーザ182が対象検証を実行するために使用できる検証ユーザインターフェースを表示することができる。いくつかの実装形態では、ユーザ装置180は、対象175の複数の画像をキャプチャすることができる。ユーザ装置180は、キャプチャされた画像を処理して、ネットワークシステム100に送信される検証データ185を生成する。機密データおよび情報を含み得るキャプチャされた画像、および他の生データが、ネットワーク170を介してネットワークシステム100に送信される必要がないように、特定の対象検証アクションをユーザ装置180上で実行することができる。ユーザ装置180はさらに、検証データ185を暗号化して、検証データ185の安全な供給を確実にすることができる。
実施形態によれば、ネットワークシステム100は、ユーザ装置180から検証データ185を受信し、対象検証に合格したか失敗したかについて決定を行う検証エンジン135を含む。検証エンジン135が、対象検証が合格したと判断した場合、検証エンジン135は、合格した検証結果136をサービスエンジン125に送信して、サービスエンジン125に、例えば、ユーザ182のサービス要求183の処理を続行させることができる。一方、検証エンジン135が、対象検証が失敗したと判断した場合、検証エンジン135は、失敗した検証結果137をユーザ装置180に送信することができる。それに応じて、ユーザ装置180は、別のクレジットカードまたはデビットカードの情報を入力する、発行金融機関に直接支払い情報を確認する、顧客担当者と話すなどの1つまたは複数の是正措置を実行することを進めるための様々なオプションをユーザ182に提示することができる。
対象検証プロセスは、ユーザ装置180のカメラによってキャプチャされた画像が真正の対象175を示すかどうかを決定するためのいくつかの分析を含むことができる。分析には、光反射率分析、フィーチャロケーションマッピング分析、対象情報マッチング分析、3D特徴認識などが含まれる。検証エンジン135は、これらの分析の組合せに基づいて、対象検証に合格したか失敗したかを決定することができる。例えば、ユーザ装置180は、1つまたは複数の分析を実行することができ、ネットワークシステム100に送信される検証データ185の一部として、その結果(例えば、スコア、メトリックなど)を送信することができる。検証エンジン135は、データベース145に格納された機械学習モデル149を利用して、ユーザ装置180によって画像にキャプチャされた対象175が本物であるかどうかに関する総合的な決定を生成することができる。追加的または代替的に、検証データ185は、検証エンジン135またはネットワークシステム100の他の構成が本明細書に記載される分析の1つまたは複数を実行することを可能にするデータ(例えば、キャプチャされた画像から抽出されたデータまたはキャプチャされたデータに基づいて計算された数値)を含むことができる。
一態様では、検証データ185は、検証されている対象の光反射率分析の結果を示すことができる。光反射率分析の結果は、対象175の表面が予想される材料で構成されているかどうかの指標となり得る。物理的な支払いカードの検証を試みる例では、光反射率分析は、物理的な(例えば、プラスチックまたは金属)クレジットカードを、紙に印刷されたまたは画面に表示されたカードの画像と区別するのに役立つ。分析により、対象の光反射特性(例えば、光反射の強度、光反射パターン)が、プラスチックまたは金属材料の表面を示す許容範囲内にあるかどうかを判断できる。反射率分析は、検証される対象物についてキャプチャされた少なくとも2つの画像を使用して、ユーザ装置180によって実行され得る-ユーザ装置180のフラッシュライトがオフでキャプチャされた第1の画像、および、フラッシュライトが点灯されてキャプチャされた別の画像。画像を実質的に同時にキャプチャすることができる。例えば、ユーザ装置180は、ユーザ入力に応答して両方の画像を迅速にキャプチャすることができ、その過程でフラッシュライトを自動的にオン(および/またはオフ)にすることができる。2つの画像を比較する(例えば、2つの画像のピクセル輝度値の平均差を計算する)ことによって、ユーザ装置180は、光反射率特性が許容範囲内にあるかどうかを決定することができる。
いくつかの実装形態では、ネットワークシステム100の検証エンジン135は、光反射率分析を実行することができる。これらの実装形態では、ユーザ装置180からネットワークシステム100に送信される検証データ185は、2つの画像のピクセル輝度値などのデータを含むことができ、検証エンジン135が光反射率分析を実行することを可能にする。別の実装形態では、ネットワークシステム100とユーザ装置180との組合せは、光反射率分析を実行することができる。例えば、ユーザ装置180は、キャプチャされた画像に基づいて検証されている対象175の光反射率特性を計算することができ、検証エンジン135は、光反射率特性が許容範囲内にあるかどうかを特定することができる。このようにして、光反射率分析は、ユーザ装置180の利用可能なリソースを依然として利用しながら、検証されている所与の対象175に合うように動的に調整することができる。例えば、ユーザ182が特定のブランドのクレジットカードを所有していることを検証する際に、検証エンジン135は、クレジットカードが金属カードとしてのみ発行されることを(例えば、カード発行者との通信に基づいて、または公に利用可能なデータに基づいて)特定することができる。この情報に基づいて、検証エンジン135は、それに応じて光反射率分析の許容範囲を設定することができる。
別の態様では、検証エンジン135は、検証データ185を分析して、フィーチャロケーションマッピング分析を実行することができる。そうすることで、検証エンジン135は、対象テンプレート(例えば、データベース145に対象データ148として格納される)を検索し、テンプレートを比較して、対象175上の特徴の位置が対象テンプレートと一致するかどうかを特定することができる。例えば、支払いカードを検証する際に、分析される特徴には、ロゴ、カード番号、有効期限、署名ボックスなどが含まれる。検証データ185は、対象175上の各特徴のそれぞれの位置(例えば、対象175の境界に対して、座標系において、など)を示すことができる。検証エンジン135は、対応する対象テンプレートを検索することができ、これは、検証されている対象175について予想される特徴の位置の既知であり検証されたベースラインを提供することができる。ロケーションマッピング分析の結果は、対象テンプレートデータに基づいて、対象175上の正しい位置にあると特定された特徴の割合を示すことができる。
検証エンジン135はまた、検証データ185を分析して、対象情報マッチング分析を実行するように構成することができる。検証データ185は、物体175のキャプチャされた画像に対して実行される光学式文字認識技術を使用して検出された物体175に関する検出されたテキスト情報を含むことができる。検証エンジン135は、検出されたテキスト情報を、データベースに格納された対象の既知の情報と比較することができる。対象175が本物の支払いカードであることを検証する例では、検出されたテキスト情報は、対象175上に示されているように支払いカードに関連付けられた名前を含むことができる。検証エンジン135は、名前を、ユーザプロファイルデータ146に格納されたユーザ182の名前と比較して、ユーザ182の名前が対象175に示されている名前と一致するかどうかを特定することができる。特定の実装形態では、検証エンジン135はさらに、検証データ185を分析して、3D特徴認識分析を実行することができる。この分析のために、ユーザ装置180は、対象175のキャプチャされた画像に対して分析を実行して、対象175の表面上の1つまたは複数の突起によって投影された画像内の影(もしあれば)を識別し、影が同一であるかどうか(例えば、それらが本物の影であり、生成された画像ではないこと)を特定することができる。これは、支払いカード番号を含む突起を有しうる支払いカードの信頼性を検証するのに役立つ。ユーザ装置180から送信された検証データ185は、3D特徴分析に合格したか失敗したかの表示を含むことができる。
実施形態によれば、検証エンジン135は、対象検証プロセスに合格したかどうか(例えば、ユーザ装置180のカメラによってキャプチャされた対象175が本物であるかどうか)に関する総合的な決定を生成するように構成される。そうすることで、検証エンジン135は、ユーザ装置180およびネットワークシステム100によって実行された様々な検証分析の結果を含む、利用可能なデータの集合に基づいて、対象検証プロセスに合格したかどうかを特定することができる。したがって、場合によっては、検証エンジン135は、1つまたは複数の分析が失敗したと見なされたとしても、対象検証プロセスが合格したと判断されうる。例えば、特定の対象175を検証する際に、3D特徴認識分析は失敗したスコアを示すが、他の分析(例えば、光反射率分析、フィーチャロケーションマッピング分析、対象情報マッチング分析など)は、それぞれの合格スコアまたはメトリックを示しうる。この特定の事例では、検証エンジン135は、利用可能な集合データに基づいて、対象175についての対象検証プロセスが合格したという総合的な決定を生成することができる。特定の実装形態では、検証エンジン135は、機械学習モデル149を使用して総合的な決定を生成することができる。機械学習モデル149への入力は、検証分析によって生成された結果またはメトリック(例えば、光反射率分析、フィーチャロケーションマッピング分析などの結果)であり得る。機械学習モデル149は、ネットワークベースのシステムのユーザによって実行された対象検証プロセスの過去の事例に基づいて、時間をかけて訓練することができる。支払いカードの検証に関して、機械学習モデル149は、例えば検証された支払いカードが最終的に金融機関によって受諾されたかまたは拒否されたか、または対象検証プロセスの失敗が誤検知であったかどうか(例えば、顧客サービス担当者と通信するユーザ182によって修正された)など、対象検証プロセス後にネットワークベースのサービスに関連するイベントを示すデータに基づいてさらにトレーニングできる。
図2は、本明細書に記載の実施例による、例示的なネットワークシステムと通信する例示的なモバイルコンピューティング装置を示すブロック図である。以下の図2の説明では、図1に関して図示および説明されている特徴および例が参照されうる。例えば、ネットワークシステム290は、図1に図示され図1に関して説明されたネットワークシステム100の実施形態であり得、図1のユーザ装置180は、図2に図示されるモバイルコンピューティング装置200の実施形態であり得る。モバイルコンピューティング装置200はさらに、図1の提供者装置190として動作することができる。
実施形態によれば、モバイルコンピューティング装置200は、サービスアプリケーション256を格納するメモリ250(または様々なメモリ要素の組み合わせ)を備えることができる。モバイルコンピューティング装置200は、サービスアプリケーション256を実行して、モバイルコンピューティング装置200のユーザに、ネットワークシステム290によって管理されるネットワークベースのサービスとやりとりし当該サービスを要求するための様々な機能を提供することができる。メモリ250はさらに、サービスアプリケーション256の動作をサポートするためのユーザの情報を含むローカルユーザプロファイル251を格納することができる。モバイルコンピューティング装置200がユーザ装置(例えば、図1のユーザ装置180)として動作する実装形態では、サービスアプリケーション256は、ユーザアプリケーションに対応することができる。モバイルコンピューティング装置200が提供者装置(例えば、図1の提供者装置190)として動作する他の実装形態では、サービスアプリケーションは、提供者アプリケーションに対応することができる。モバイルコンピューティング装置200は、ネットワーク280を介してネットワークシステム290とやりとりためのネットワークインターフェース210を含む。
様々な態様において、モバイルコンピューティング装置200は、サービスエンジン230を含むことができる。ユーザがサービスアプリケーション256のユーザインターフェースとやりとりしてネットワークベースのサービスを要求すると、サービスエンジン230は、ネットワークシステム290に送信されるサービス要求231を生成することができる。図1に戻ると、サービス要求231は、図1に示されるようにサービス要求183に対応することができる。サービス要求231の受信に応答して、ネットワークシステム290は、ユーザのためにサービス要求231を満たすためのサービス提供者を識別することができる。
いくつかの実装形態では、ネットワークシステム290は、1つまたは複数の検証アクションをユーザに対して実行する必要があると決定することができる。この決定は、サービス要求231の処理中に行うことができる、またはサービス要求231が生成および送信される前に行うことができる。例えば、この決定は、サービスのための要求を提出する前にユーザアプリケーション内でユーザがサービスオプションをプレビューしている(例えば、サービスクラス、ETA、価格などを見ている)間に行うことができる。この決定に応答して、ネットワークシステム290は、検証要求291をモバイルコンピューティング装置200に送信することができる。検証要求291は、サービス要求231に関連して請求される支払いオプションを検証する要求に対応することができる。検証要求291の受信に応答して、モバイルコンピューティング装置200は、本明細書に記載の様々な画像化技術を使用して、物理的な支払いカード(例えば、クレジットカード、デビットカードなど)を検証するためのいくつかの機能を実行することができる。検証プロセス中に生成されたデータは、暗号化され、検証プロセスに合格したか失敗したかを決定するためのさらなる処理のためにネットワークシステム290に送信され得る。それに応じて、ネットワークシステム290は、サービスの要求が満たされる前に、ユーザに1つまたは複数の是正措置を実行することを要求するかどうかを決定することができる。
本明細書で説明される例では、サービスエンジン230は、検証要求291を対象検証エンジン225に転送して、対象検証処理を開始することができる。対象検証処理の一例は、図4に図示されそれに関して説明されている。検証要求291の受信に応答して、対象検証エンジン225は、検証ユーザインターフェース(例えば、図5Aのユーザインターフェース500)をモバイルコンピューティング装置200の画面上に表示させることができる。このユーザインターフェース内で、ユーザは、検証プロセスを介して検証される物理的な支払いカードの画像をキャプチャするように命令されうる。
1つまたは複数の実装形態では、ユーザは、検証ユーザインターフェースにおいて、支払いカードを視覚ガイドと位置合わせするように促され得る。例えば、対象検証エンジン225は、モバイルコンピューティング装置200のカメラ215の出力を監視して、トリガー227を生成し、検証ユーザインターフェース内で対象275が視覚ガイドと位置合わせされたと判断されるとすぐに、カメラ215に対して、検証される対象275の画像を自動的にキャプチャさせることができる。追加的にまたは代替的に、モバイルコンピューティング装置200の画面に表示される検証ユーザインターフェースはまた、対象275の画像をキャプチャするためのユーザインターフェース機能(例えば、「画像のキャプチャ」ソフトボタン)を含むことができる。対象275のキャプチャされた画像217は、画像処理エンジン220によって処理することができる。画像処理エンジン220は、例えば、1つまたは複数の画像217をグレースケールに変換し、2つまたは複数の画像を位置合わせし、画像217などのコントラストを変更することができる。処理された画像221は、追加の処理のために対象検証エンジン225に送信される。
実施形態によれば、対象検証エンジン225は、1つまたは複数の分析を実行して、モバイルコンピューティング装置200のカメラ215によってキャプチャされた対象257が本物であるかどうかを特定することができる。対象検証エンジン225は、処理された画像221に基づいて検証分析を実行することができる。検証分析は、光反射分析、フィーチャロケーションマッピング分析、対象情報マッチング分析、3D特徴認識分析などを含むことができる。これらの分析は、少なくとも図1、4A、および4Bに図示されこれらに関して説明される。これらの分析を実行する際に、対象検証エンジン225は、検証データ226を生成することができる。検証データ226は、検証分析のメトリックまたは結果を含むことができる。検証データ226はまた、ネットワークシステム290が1つまたは複数の検証分析のステップのいくつかまたはすべてを実行できるように、検証分析に関連するデータを含むことができる。特定の実装形態では、モバイルコンピューティング装置200は、ネットワーク280を介してネットワークシステム290に送信するために検証データ226の一部またはすべてを暗号化するための暗号化エンジン235を含むことができる。暗号化された検証データ236は、ネットワークインターフェース210を介してネットワーク280を経てネットワークシステム290に送信することができる。
実施形態によれば、検証データ236の受信に応答して、ネットワークシステム290は、対象275についての対象検証プロセスに合格したか失敗したか(例えば、画像217でキャプチャされた対象275が本物であるかどうか)に関する総合的な決定を生成することができる。ネットワークシステム290が、対象検証プロセスが失敗したと判断した場合、ネットワークシステム290は、失敗信号292をモバイルコンピューティング装置200に送信することができる。失敗信号292の受信に応答して、モバイルコンピューティング装置200上で実行されているサービスアプリケーション256は、第2の検証ユーザインターフェースを表示させることができる。この第2の検証ユーザインターフェース(例えば、図5Bのユーザインターフェース550)は、顧客サービスへの連絡、支払い方法の変更、またはセッションまたはサービス要求のキャンセルなどのネットワークベースのサービスを進める際のオプションをユーザに提示することができる。
方法論
図3は、本明細書に記載の例による、ネットワークベースのサービスに対するサービス要求を処理する例示的な方法を示すフローチャートである。以下の図3の説明では、図1-2に関して図示され説明されている特徴および例が参照され得る。例えば、例示的な方法は、図1の例示的なネットワークシステム100によって、または、図2の例示的なネットワークシステム290によって、実行することができる。
図3を参照すると、ネットワークシステム(例えば、図1のネットワークシステム100)は、サービス要求(例えば、図1のサービス要求183)を受信することができる(310)。サービス要求は、ユーザアプリケーションを実行するユーザ装置(例えば、図1のユーザ装置180または図2のモバイルコンピューティング装置200)からネットワークを介して受信することができる。ユーザのユーザアプリケーションとのやりとりに応答して、ユーザアプリケーションおよびユーザ装置は、サービス要求をネットワークシステムに送信させることができる。サービス要求に対応するネットワークシステムに送信されたデータは、ユーザの情報を識別することが含まれ得る。例えば、ネットワークシステムによってユーザに割り当てられた一意のユーザIDを、サービス要求の一部として送信できる。サービス要求はまた、要求されているサービスに関連する他の情報を含んでもよい。例えば、オンデマンド輸送サービスに関して、サービス要求はまた、開始位置(例えば、輸送サービス提供者が要求元ユーザと待ち合わせる場所)およびサービス位置(例えば、輸送サービス提供者が要求元ユーザを降車する場所)を識別することができる。
サービス要求の受信に応答して、ネットワークシステムは、ユーザのプロファイルデータを検索することができる(320)。実施形態によれば、ネットワークシステムは、ネットワークベースのサービスの各ユーザにつき1つ、複数のユーザプロファイルを維持することができる。各ユーザプロファイルは、対応するユーザに関連する情報を含んでもよい。オンデマンド輸送サービスに関して、ユーザプロファイルは、ユーザが頻繁に訪問する場所、ユーザの自宅および/または職場の住所、ネットワークベースのサービスのユーザの利用履歴(例えば、過去の旅行など)を含んでもよい。様々な例において、ユーザプロファイル情報はまた、ユーザのクレジットカードまたはデビットカード情報などの支払い情報を含むことができる。ユーザのサービス要求を実行する際に、ネットワークシステムは、支払い情報を使用して、要求されたサービスと引き換えに支払いを処理できる。
受信したサービス要求を処理する前に、ネットワークシステムは、ユーザに支払い情報の検証を要求するかどうかを決定できる(330)。ユーザの支払い情報の検証は、物理的な支払いカード(クレジットカードやデビットカードなど)を検証する工程が含みうる。検証は、不正なユーザが対応する物理的な支払いカードを持っていない、偽造されたまたは盗まれた支払いカード情報を使用する不正な取引を防ぐために実行できる。したがって、ユーザに物理的な支払いカードの検証を要求することにより、ネットワークシステムは、ネットワークベースのサービスの要求に使用されている物理的な支払いカードをユーザが所有していることを確実にできる。このようにして、トランザクションおよびネットワークベースのサービスの整合性を維持できる。さまざまな例で、ネットワークシステムは、さまざまな基準を使用して、ユーザに支払い情報の検証を要求するかどうかを決定できる。ネットワークシステムは、ネットワークベースのサービスによるユーザの履歴に基づいてこの決定を行うことができる。例えば、新しく登録されたユーザまたはネットワークベースのサービスの利用において最近アクティブでないユーザは、ネットワークベースのサービスのプレビューまたはサービス要求の提示に進む前に、対象検証の実行を要求されうる。ネットワークシステムはまた、ユーザに関連する特定の情報または特定のセッションまたはサービス要求に基づいてこの決定を行うことができる。例えば、ネットワークシステムは、ユーザが開始位置または以前にユーザに関連付けられていないサービス位置についてネットワークベースのサービスを要求またはプレビューしている場合に、ユーザに対象検証を実行することを要求できる。別の例として、ネットワークシステムは、ユーザのアカウントで新しい支払い方法が使用されている場合、ユーザに対象検証を実行することを要求するよう決定できる。
ネットワークシステムが、ユーザが特定のセッションまたはサービス要求を続行するために対象検証が必要でないと判断した場合、ネットワークシステムは要求またはセッションの処理を続行することができる(380)。したがって、ネットワークシステムは、ネットワークベースのサービスをプレビューするため、またはサービス要求を満たすのに適したサービス提供者を識別するためのデータを生成できる。他方、ネットワークシステムが、ユーザに検証が必要であると判断した場合、ネットワークシステムは検証要求をユーザ装置に送信することができる(340)。検証要求に応答して、ユーザ装置上で実行されているユーザアプリケーションは、検証ユーザインターフェースをユーザ装置の画面上に表示させることができる。ユーザアプリケーションおよび検証ユーザインターフェースとやりとりすることにより、ユーザは1つまたは複数の検証ステップを実行して、1つまたは複数の物理的な支払いカードの所持を検証できる。
決定は、ユーザのプロファイル情報に基づいて行うことができる。一態様では、ネットワークシステムは、ユーザプロファイルの履歴に基づいてユーザに支払い情報の検証を要求するよう決定することができる。例えば、ユーザプロファイルは、ユーザが支払い情報を最近変更した(例えば、新しいクレジットカードを追加したなど)ことを示してもよく、この情報に基づいて、ネットワークシステムは、ユーザに支払い情報の検証を要求するよう決定することができる。別の例では、ネットワークシステムは、ユーザによって実行された1つまたは複数の疑わしい活動を示すユーザプロファイルに基づいて、ユーザに支払い情報の検証を要求するよう決定することができる。
ネットワークシステムがユーザからの検証を要求することを決定した場合、ネットワークシステムはユーザ装置に検証要求を送信することができる(340)。検証要求は、ユーザ装置に検証ユーザインターフェースを提示させることができ、これを用いて、ユーザは、物理的支払いカードの複数の画像をユーザ装置のカメラによってキャプチャさせることができる。ユーザ装置は、キャプチャされた画像を評価および分析して、ネットワークシステムに送信するための検証データを生成できる。ステップ350において、ネットワークシステムは、ユーザ装置から検証データを受信する。
検証データに基づいて、ネットワークシステムは、対象検証プロセスに合格したか失敗したかに関する総合的な決定を生成することができる(360)。ネットワークシステムが、対象検証プロセスが失敗したと判断した場合、ネットワークシステムは失敗信号または表示をユーザ装置に送信して、ユーザ装置に是正措置を実行するように促し、ネットワークベースのサービスを続行することができる(370)。ネットワークシステムが、対象検証プロセスが合格したと判断した場合、ネットワークシステムは、サービス要求(またはネットワークベースのサービスをプレビューするためのセッション)の処理を続行することができる(380)。
図4Aは、本明細書に記載の例による、対象検証を実行する例示的な方法を示すフローチャートである。図4Aの以下の説明では、図1-3に関して図示され説明されている特徴および例が参照され得る。例えば、例示的な方法は、図1の例示的なユーザ装置180によって、または図2の例示的なモバイルコンピューティング装置200の例によって実行され得る。
図4を参照すると、モバイルコンピューティング装置(例えば、図2のモバイルコンピューティング装置200)は、要求(例えば、図2の検証要求291)を受信し、ネットワークベースのサービスを管理するネットワークシステムから対象を検証することができる(410)。検証要求は、ネットワークを介して送信することができ、ユーザが対象(例えば、支払いカード)を物理的に所持していることを検証するための要求に対応しうる。
検証要求の受信に応答して、モバイルコンピューティング装置上で実行されるサービスアプリケーション(例えば、図1のユーザアプリケーション181、図2のサービスアプリケーション256など)は、検証ユーザインターフェースを、モバイルコンピューティング装置のディスプレイ上に表示させることができる(420)。例示的な検証ユーザインターフェースが図5Aに示されている。ユーザは、検証ユーザインターフェースとやりとりして、ネットワークシステムからの検証要求に応じて対象検証を実行できる。モバイルコンピューティング装置は、検証ユーザインターフェースが表示されている間に、1つまたは複数のユーザアクションに応答して検証されている対象の複数の画像をキャプチャすることができる(430)。例えば、ユーザは、検証ユーザインターフェース内のカメラビューファインダー機能において対象を1つまたは複数の視覚ガイドに位置合わせし(または検証ユーザインターフェース内で「画像のキャプチャ」ソフト選択をアクティブにし)、モバイルコンピューティング装置に、検証される対象の複数の画像をキャプチャさせることができる。モバイルコンピューティング装置は、モバイルコンピューティング装置のフラッシュライトが非アクティブ化されている(例えば、照射されていない)対象の第1の画像をキャプチャし(431)、モバイルコンピューティング装置のフラッシュライトがアクティブ化されている(例えば、照射されている)対象の第2の画像をキャプチャすることができる(432)。フラッシュライトは、第1および第2の画像をキャプチャするときにユーザ装置によって自動的にトリガーできる。例えば、1つまたは複数のユーザアクションに応答して、モバイルコンピューティング装置は、第1の画像をキャプチャし、フラッシュライトを自動的にアクティブにし、第2の画像をキャプチャすることができる。
モバイルコンピューティング装置は、キャプチャされた画像を分析することができる(440)。実行される分析には、光反射率分析(441)、フィーチャロケーションマッピング分析(442)、対象情報マッチング分析(443)、および3D特徴認識分析(444)が含まれ得る。続いて、モバイルコンピューティング装置は、検証データ(例えば、図1の検証データ185または図2の検証データ236)をネットワークシステムに送信することができる(450)。検証データは、ステップ440で実行された分析の結果に対応することができる。そうすることで、対象のキャプチャされた画像などの生データ-機密情報や個人情報が含まれている可能性がある-をネットワーク経由でネットワークシステムに送信する必要がない。いくつかの実装形態では、検証データは、モバイルコンピューティング装置によって実行される分析の複合メトリックに対応することができる。他の実装形態では、検証データは、ステップ440で実行された各分析の個々のメトリックまたはデータを含むことができる。このようにして、受信した検証データに基づいて、各分析の追加の処理をネットワークシステムによって実行することができる。
光反射率分析(441)に関して、モバイルコンピューティング装置は、対象の第1の画像(例えば、フラッシュライトが非アクティブ化されている)を第2の画像(例えば、フラッシュライトがアクティブ化されている)と比較することに基づいて、1つまたは複数の光反射率メトリックを計算することができる。光反射率分析は、検証されている対象からの光反射の強度(441-A)、並びに、検証されている対象からの光反射のパターン(441-B)を示すメトリックを生成できる。
フィーチャロケーションマッピング分析(442)について、モバイルコンピューティング装置は、画像にキャプチャされた対象の1つまたは複数の可視特徴を識別し、それらの可視特徴の位置を、それらの可視特徴の予想される位置を示す対象のテンプレートと比較することができる。モバイルコンピューティング装置は、内部データベースからまたは外部リソースから、対象に適切なテンプレートを検索できる。支払いカードを検証する例では、モバイルコンピューティング装置は、例えば、カード発行者、カードタイプ、カード番号の一部などに基づいて、適切な対象テンプレートを検索することができる。
対象情報マッチング分析(443)に関して、モバイルコンピューティング装置は、対象の画像にキャプチャされた検出テキスト情報を、対象の既知の情報と比較することができる。別の方法として、ネットワークシステムが対象情報マッチング分析を実行できるように、検出されたテキスト情報をネットワークシステムに送信することができる。支払いカードの検証に関して、ユーザの名前、カードの有効期限などの検出されたテキストを、ユーザのプロファイルに記憶されている情報と比較してもよい。
さらに、モバイルコンピューティング装置は、3D特徴認識分析(444)を実行するようにさらに構成されてもよく、この分析では、対象の突出した特徴(存在する場合)によって投影された影が識別され、一貫性について分析されて、検出された影が対象の表面上に作成された(例えば、描画またはペイントされた)ものでないことを確実にする。この技術は、カード番号などの突出した特徴を備えた本物の支払いカードを、2次元の模倣(例えば、紙に印刷されたまたは画面に表示されたカードの画像)と区別するのに役立つ。モバイルコンピューティングシステムは、フラッシュが非アクティブ化されてキャプチャされた第1の画像およびフラッシュがアクティブ化されてキャプチャされた第2の画像を含む複数の画像を分析して、突出する特徴によって投影される影を比較し、対象上の3次元特徴が本物であるかどうかを判断することができる。
ステップ450において、対象検証分析からのデータまたは結果は、ネットワークシステムに送信され、ネットワークシステムは、対象検証プロセスが合格したかどうかに関する総合的な決定を生成することができる。
図4Bは、本明細書に記載の例による、光反射率分析を実行する例示的な方法を示すフローチャートである。図4Bの以下の説明では、図1-4Bが参照され得る。例えば、図4Bに示される光反射率分析460は、図2のモバイルコンピューティング装置200によって実行することができる。さらに、図4Bに示される光反射率分析460はまた、図4Aに示される対象検証を実行する方法の一部であり得る。
図4Bを参照すると、光反射率分析460は、検証される対象のキャプチャされた少なくとも2つの画像-モバイルコンピューティング装置のフラッシュライトがオフでキャプチャされた第1の画像およびフラッシュライトが照射されてキャプチャされた第2の画像-に基づいて、モバイルコンピューティング装置によって実行され得る。第1および第2の画像は、実質的に同時にキャプチャすることができる。例えば、モバイルコンピューティング装置は、ユーザ入力に応じて両方の画像をすばやく連続してキャプチャすることができ、処理中にフラッシュライトを自動的にオン(および/またはオフ)にすることができる。これは、第1の画像および第2の画像が位置合わせされることを確実にするのに役立つ(例えば、モバイルコンピューティング装置および対象が、第1の画像および第2の画像を取る間で移動しない)。特定の実装形態では、モバイルコンピューティング装置は、第1および第2の画像をグレースケールに変換することができる(465)。このようにして、グレースケール画像の各ピクセルの値を輝度値にすることができる。別の方法として、第1および第2の画像は、モバイルコンピューティング装置のカメラによってグレースケール画像としてキャプチャすることができる。モバイルコンピューティング装置はまた、グレースケール画像が適切に位置合わせされていないと判断された場合にそれらを位置合わせするように構成することができる(470)。
モバイルコンピューティング装置は、グレースケール画像間のピクセル値デルタを表すピクセルデルタマップを生成することができる(475)。ピクセルデルタマップは、第1および第2の画像と同じ解像度(例えば、同じピクセル数)を有することができる。ピクセルデルタマップの各ピクセルは、その特定のピクセル位置でモバイルコンピューティング装置のカメラによって測定された対象の光反射強度を示す値を有することができる。より詳細には、ピクセルデルタマップの各ピクセル位置について、モバイルコンピューティング装置は、第1および第2の画像の対応するピクセル位置間の値の差を計算することによって、対応するピクセル値を特定することができる。例えば、ピクセルデルタマップ上の位置<100,100>(例えば、水平方向に0の位置から100番目のピクセル、垂直方向に0の位置から100番目のピクセル)における所定のピクセルについての値を特定するために、モバイルコンピューティング装置は、第1および第2の画像(または変換されたグレースケール画像)のピクセル位置<100,100>における対応するピクセル値間の差を計算することができる。モバイルコンピューティング装置は、ピクセル位置<100,100>での第2の画像の値からピクセル位置<100,100>での第1の画像の値を差し引いて、ピクセル位置<100,100>でのピクセルデルタマップの値を特定することができる。ピクセルデルタマップ上のこのピクセル値は、ピクセル位置<100,100>でカメラによってキャプチャされた対象の光反射の輝度値を表すことができる。ピクセルデルタマップを生成するために、モバイルコンピューティング装置は、ピクセルデルタマップ上のすべてのピクセルに対してこの計算を実行することができる。
ピクセルデルタマップに基づいて、モバイルコンピューティング装置は、対象の光反射率の強度の測定(480)および物体の光反射率のパターンの測定(485)を計算することができる。強度の測定に関して、モバイルコンピューティング装置は、ピクセルデルタマップのピクセル値の統計的測定を計算することができる。例えば、ユーザ装置は、以下のピクセルデルタマップの1つまたは複数を計算して、検証されている対象の光反射の強度を表すメトリックに到達できる:(i)平均または中央ピクセル(例えば、輝度)値、(ii)最大および/または最小ピクセル値、(iii)ピクセル値の合計など。光反射率のパターンの測定に関して、モバイルコンピューティング装置は、光反射の半径を特定することができる。一例では、ピクセルデルタマップの中心点が画定され、モバイルコンピューティング装置は、ピクセルデルタマップ上の各放射状セグメントについて中心点からの中間または平均加重距離を計算することができる。
いくつかの実装形態では、光反射率メトリック(例えば、強度および/またはパターン)が許容範囲にあると見なされるかどうかに関する決定は、モバイルコンピューティング装置によって実行することができる。例えば、モバイルコンピューティング装置は、光反射率メトリックに関連するベースライン値をローカルに記憶できる。ベースライン値は事前に決定でき、反射率メトリックについての許容範囲を示すことができる。例えば、物理的な支払いカードを検証する場合、ベースライン値には、プラスチックまたは金属の支払いカードについて通常測定される光反射率強度および半径の範囲が含まれうる。これらの実装形態では、モバイルコンピューティング装置によってネットワークシステムに送信される検証データは、特定された光反射率メトリックとベースライン値との比較の結果を含むことができる。したがって、検証データは、光反射率分析に合格したか失敗したかを示すことができる。
他の実装形態では、光反射率メトリックが許容範囲であると見なされるかどうかに関する決定は、ネットワークシステムによって実行することができる。これらの実装形態では、光反射率メトリックは、検証データの一部としてモバイルコンピューティング装置によってネットワークシステムに送信される。いくつかの例では、ネットワークシステム(またはモバイルコンピューティング装置)は、光反射率メトリックを、検証される対象に関連付けられた既知の情報に基づいて具体的に検索されたベースライン値と比較することができる。一例として、検証されている支払いカードに関する情報(例えば、タイプ、発行者、カードブランド、支払いカード番号の一部など)に基づいて、ネットワークシステムは、支払いカードが金属表面を有すると特定することができる。したがって、ネットワークシステムは、光の反射率メトリックを、金属表面を持つカードに関連付けられているベースライン値と比較できる。別の例として、ネットワークシステムは、ネットワークベースのシステムの他のユーザによって以前に検証された類似のカード(例えば、同じ発行者、同じブランドなど)の検証によって生成されたデータを使用して決定されたベースライン値を検索することもできる。
ユーザインターフェース
図5Aおよび5Bは、本明細書に記載の例による、対象検証を実行するためのユーザ装置上に表示される例示的なユーザインターフェースを示す。図4の以下の説明では、図1-3に関して図示され説明されている特徴および例が参照され得る。例えば、図5Aのユーザインターフェース500および図5Bのユーザインターフェース550は、図1のユーザ装置180または図2のモバイルコンピューティング装置200上に表示または提示することができる。
図5Aを参照すると、検証ユーザインターフェース500は、ネットワークシステムから受信された検証要求に応答して、ユーザ装置上に表示され得る。検証ユーザインターフェース500は、ネットワークベースのサービスで使用するためにユーザ装置上で実行されるサービスアプリケーション(例えば、ユーザアプリケーション)の一部として表示することができる。ユーザは、ユーザアプリケーションとやりとりして、ネットワークベースのサービスをプレビューしたり、サービス要求を送信したりできる。ネットワークベースのサービスをプレビューするために開始されたセッションに応答して、またはネットワークシステムに送信されたサービス要求に応答して、ネットワークシステムは、検証要求を生成してユーザ装置に送信し、ユーザ装置に検証ユーザインターフェース500を表示させることができる。検証ユーザインターフェース500は、検証されている対象の複数の画像をキャプチャする前に、ユーザ装置のカメラのビューをプレビューするカメラビューファインダー510を含むことができる。カメラファインダー510は、1つまたは複数の視覚ガイド520を含むことができる。ユーザは、対象を視覚ガイド522に位置合わせし、ユーザ装置をトリガーして、対象の複数の画像をキャプチャすることができる。検証ユーザインターフェース500はさらに、キャプチャソフト選択530を含み、装置をトリガーして対象の複数の画像をキャプチャすることができる。
図5Bを参照すると、検証ユーザインターフェース550は、ネットワークシステムからの失敗表示(例えば、図1の失敗137)に応答して、ユーザ装置上に表示され得る。例えば、ユーザ装置は、検証データをネットワークシステムに送信できる。また、検証データに基づいて、対象検証プロセスに合格したまたは失敗したと判断するかをシステムが特定することはできない。対象検証プロセスが失敗したと判断された場合、ネットワークシステムは、失敗表示をユーザ装置に送信して、ユーザ装置上で実行されるサービスアプリケーションの一部として検証ユーザインターフェース550をユーザ装置に提示させることができる。検証ユーザインターフェース550は、対象検証プロセスが失敗したことのテキストまたは視覚的表示を含むことができる。検証ユーザインターフェース550はまた、複数のソフト選択機能を含むことができ、これを用いてユーザは、ネットワークベースのサービスをプレビューまたは要求する際の次のステップを命令することができる。ソフト選択機能560とやりとりすることにより、ユーザは、ユーザ装置にネットワークベースのサービスの顧客サービスとの接触を開始させることができる。例えば、ソフト選択機能560のユーザ選択に応答して、ユーザ装置は、ネットワークベースのサービスの顧客サービスとの音声通信セッション(例えば、電話)を開始することができる。ユーザはまた、対象検証の失敗を解決するために、ネットワークベースのサービスに関連して使用される支払い方法を変更するソフト選択機能572を選択することができる。場合によっては、支払い方法を変更した後、ユーザは、追加の対象検証を実行することを要求されうる。さらに、検証ユーザインターフェース550は、ネットワークシステムからの対象検証要求をトリガーしたサービス要求をキャンセルするためのソフト選択機能570を含むことができる。ユーザがソフト選択機能570を選択することに応答して、ユーザ装置は、キャンセルをネットワークシステムに送信し、ネットワークシステムは、ユーザのサービス要求を破棄することができる。さらに、ユーザ装置で実行されているサービスアプリケーションは、終了するか、または以前の状態(例えば、サービスアプリケーションを最初に実行した際のデフォルト状態)に戻ることができる。
ハードウェアの図
図6は本明細書に記載された実施例によるモバイルコンピューティング装置の例を例示するブロック図である。多くの実施形態において、モバイルコンピューティング装置600は、スマートフォン、タブレットコンピュータ、ラップトップコンピュータ、VRまたはARヘッドセット装置などでありうる。図1の状況では、図6に例示し説明するように、ユーザ装置180および/または提供者装置190は、モバイルコンピューティング装置600を使用して実現されてよい。さらに、図2のモバイルコンピューティング装置200は、図6に例示されるモバイルコンピューティング装置600の実施形態でもよい。
実施形態によれば、モバイルコンピューティング装置600は、典型的な電話機の機能、例えば、マイクロフォン670、カメラ640、および、外部の実体(例えば、ネットワークベースのサービスを実行するネットワークシステム690)と任意の数の無線通信プロトコルを使用して通信する通信インターフェース610を含みうる。モバイルコンピューティング装置600は、指定されたアプリケーション(例えば、サービスアプリケーション632)をローカルメモリ630に記憶できる。サービスアプリケーション632は、ネットワークベースのサービスのためのユーザ装置としてのモバイルコンピューティング装置600の実施のための1つまたは複数のユーザアプリケーションに対応しうる。サービスアプリケーション632は、ネットワークベースのサービスのための提供者装置としてのモバイルコンピューティング装置600の実施のための1つまたは複数の提供者アプリケーションにも対応しうる。
入力618に応答して、プロセッサは、サービスアプリケーション632を実行することができ、これにより、モバイルコンピューティング装置600のディスプレイ画面620上にアプリケーションインターフェース642を生成させることができる。ユーザ装置としてのモバイルコンピューティング装置600の実施において、アプリケーションインターフェース642は、ユーザが、例えばネットワークベースのサービスを要求することを可能にする。サービスの要求は、発信サービスメッセージ667としてネットワークシステム690に送信されうる。
様々な例において、モバイルコンピューティング装置600は、モバイルコンピューティング装置600の現在位置を示す位置データ662を、ネットワーク680を介してネットワークシステム690に提供できるGPSモジュール660を含みうる。いくつかの実装形態では、他の位置認識またはジオロケーションリソース、例えばGLONASS、Galileo、またはBeiDouをGPSモジュール660に代えてまたは加えて使用できる。ユーザ装置として動作するモバイルコンピューティング装置600に関して、サービス要求を生成する際に位置データ662を使用してもよい。例えばユーザアプリケーションは、位置データ662により示される現在の位置を、デフォルトの開始位置(例えば、選択されたサービス提供者がユーザと待ち合わせる位置)として設定することができる。
モバイルコンピューティング装置600のカメラ640は、フラッシュ645と接続することができる。カメラ640を使用して、1つまたは複数の検証機能を実行し、モバイルコンピューティング装置600のユーザが1つまたは複数の対象を物理的に所有していることを検証することができる。モバイルコンピューティング装置600は、ネットワークシステムから、着信サービスメッセージ691として検証要求を受信することができる。検証要求に応答して、ユーザアプリケーションは、検証ユーザインターフェースをレンダリングし(render)、検証される対象の複数の写真をユーザが撮ることを可能にしうる。特に、ユーザアプリケーションは、1つまたは複数のユーザアクションに応答して(例えば、プロセッサ650からのトリガー信号653を介して)カメラ640およびフラッシュ645をトリガーすることができる。例えば、ユーザが画面620に表示されるカメラビューファインダー内の1つまたは複数の視覚ガイドと対象を位置合わせすることに応答して、ユーザアプリケーションおよびプロセッサ650は、検証される対象の複数の写真を撮るようにカメラ640をトリガーすることができる。検証ユーザインターフェースはまた、「キャプチャ画像」ソフト選択を表示することができ、これを使用して、ユーザは、プロセッサ650がカメラ640をトリガーして検証される対象の写真を撮ることを可能にする。検証される対象の画像のキャプチャにおいて、プロセッサ650は、フラッシュ645をトリガーして、対象の少なくとも1つの画像がフラッシュ645を非アクティブ化してキャプチャされ、対象の少なくとも1つの他の画像がフラッシュ645をアクティブ化してキャプチャされるようにすることができる。キャプチャされた画像データ641は、評価および処理のためにプロセッサ650に送信されてもよい。特定の実装形態では、プロセッサ650は、サービスアプリケーション632の命令を実行して、キャプチャされた画像データ641をソフトウェアで処理することができる。追加的または代替的に、プロセッサ650は、キャプチャされた画像データ641を少なくとも部分的にハードウェアで処理するための専用ハードウェア(例えば、デジタル信号プロセッサ(DPS)、グラフィックスプロセシングユニット(GPU)など)を含むことができる。
キャプチャされた画像データ641を評価および処理することによって、プロセッサ650は、ネットワークシステム690に送信される検証データ652を生成することができる。ネットワークシステム690は、検証データ652に基づいて、検証プロセスが合格したかどうかを決定することができる。モバイルコンピューティング装置600は、検証データ652内の任意の機密情報を暗号化するための暗号化エンジン(図6には図示せず)を含むことができる。
検証データ652の受信に応答して、ネットワークシステム690は、メッセージをモバイルコンピューティング装置600に送信することができる(例えば、着信サービスメッセージ691として)。メッセージが検証プロセスに合格したことを示す場合(例えば、ネットワークシステム690による決定に基づく)、サービスアプリケーション632によって、ユーザはネットワークベースのサービスを要求し続けることができる(例えば、サービス要求を提出するなど)。一方、メッセージが検証プロセスに失敗したことを示す場合、サービスアプリケーション632は、検証プロセスの失敗に応答して1つまたは複数の是正措置を実行するようにユーザに命令することができる。
図7は、本明細書で説明される例が実装され得るコンピュータシステムを示すブロック図である。コンピュータシステム700は、例えばサーバまたはサーバの組み合わせのためのハードウェアを表すことができ、オンデマンドサービスを提供するネットワークサービスの一部として実施されてよい。図1の状況では、ネットワークシステム100は、図7に示すようなコンピュータシステム700または複数のコンピュータシステム700の組合せを使用して実施されうる。さらに、図2のネットワークシステム290は、図7に示されるコンピュータシステム700の実施形態でありうる。
一態様では、コンピュータシステム700は、処理リソース(プロセッサ710)、主メモリ720、メモリ730、記憶装置740、および通信インターフェース750を含む。コンピュータシステム700は、情報およびプロセッサ710により実行可能な命令を記憶するための、ランダムアクセスメモリ(RAM)または他の動的記憶装置により提供されるような主メモリ720に記憶された情報を処理するための少なくとも1つのプロセッサ710を含む。主メモリ720はまた、プロセッサ710より実行される命令の実行中の一時的変数または他の中間情報を記憶するために使用されてよい。コンピュータシステム700はまた、メモリ730、または静的情報およびプロセッサ710用の命令を記憶するための他の静的記憶装置を含んでよい。磁気ディスクまたは光学ディスクなどの記憶装置740が、情報および命令を記憶するために提供される。
通信インターフェース750は、コンピュータシステム700が1つまたは複数のネットワーク780(例えば、セルラーネットワーク)とネットワーク接続(無線または有線)を使用して通信するのを可能にする。ネットワーク接続を使用して、コンピュータシステム700は1つまたは複数のコンピュータ装置、1つまたは複数のサーバ、および/または1つまたは複数の自動運転車両と通信できる。いくつかの例によれば、コンピュータシステム700は、個々のユーザのモバイルコンピューティング装置からサービス要求を受信する。メモリ730に記憶された実行可能な命令は、ルート決め命令722、提供者選択命令724、および検証命令726を含み、実行される際に本明細書に記載される方法の1つまたは複数を実行できる。
例として、メモリ720に記憶された命令およびデータは、プロセッサ710により実行されて図1の例示的なネットワークシステム100を実現できる。動作を実行する際、プロセッサ710はサービス要求および提供者状態を処理し、サービス案内を出してサービス要求を満たすことを促すことができる。プロセッサ710は、ソフトウェア用の命令および/または他のロジックを実行して、図1~3Bにより記載されるような実施形態で説明される1つまたは複数のプロセス、ステップ、および他の機能を実行する。
本明細書に記載されている例は、本明細書に記載されている技術を実装するためのコンピュータシステム700の使用に関するものである。一例によれば、これらの技術は、プロセッサ710が、主メモリ720に収容されている1つまたは複数の命令の1以上のシーケンスを実行することに応答して、コンピュータシステム700によって行われる。そのような命令は、記憶装置740のような別の機械可読媒体から主メモリ720に読み込まれてもよい。主メモリ720に収容されている命令のシーケンスが実行されると、プロセッサ710は、本明細書に記載されている処理ステップを行う。別の実装形態では、本明細書に記載されている例を実装するために、ソフトウェア命令の代わりに、またはソフトウェア命令と組み合わせて、ハードワイヤード回路が用いられ得る。従って、記載されている例は、ハードウェア回路およびソフトウェアの任意の特定の組合せに限定されない。
本明細書に記載されている例は、他の概念、アイデア、またはシステムとは独立して、本明細書に記載されている個々の要素および概念に及ぶこと、並びに、例えば、本願のどこかに記載されている要素の組合せを含むことが意図される。本明細書において、添付の図面を参照して複数の例を詳細に説明したが、本概念は、これらの正確な例に限定されないことを理解されたい。従って、当業者には、多くの修正および変形が自明であろう。従って、本概念の範囲は、以下の特許請求の範囲およびそれらの等価物によって定められることが意図される。さらに、個々にまたは例の一部として記載された特定の特徴は、たとえ他の特徴および例がその特定の特徴について言及していない場合であっても、他の個々に記載された特徴、または他の例の一部と組み合わされ得ることが意図される。従って、組合せが記載されていないことによって、そのような組合せに対する権利を主張することを排除すべきではない。
100、290、690 ネットワークシステム
170、280、680、780 ネットワーク
175、275 対象
180 ユーザ装置
181 ユーザアプリケーション
182 ユーザ
190 提供者装置
192 サービス提供者
200、600 モバイルコンピューティング装置

Claims (15)

  1. ディスプレイ;
    1つまたは複数のカメラ;
    1つまたは複数のプロセッサ;および
    命令を記憶する1つまたは複数のメモリリソース
    を備えるモバイルコンピューティング装置であって、
    前記命令は、前記モバイルコンピューティング装置の1つまたは複数のプロセッサにより実行される際に、該モバイルコンピューティング装置に
    ネットワークシステムからのネットワークを介して、対象を検証するための検証要求を受信させ、
    前記検証要求の受信に応答して、前記モバイルコンピューティング装置のディスプレイ上に検証ユーザインターフェースを表示させ、
    前記検証ユーザインターフェースが前記モバイルコンピューティング装置のディスプレイ上に表示されている間にユーザアクションを検出することに応答して、1つまたは複数のカメラを用いて、前記対象の複数の画像をキャプチャさせ、
    前記モバイルコンピューティング装置のフラッシュライトが非アクティブ化されている間にキャプチャされた前記複数の画像の第1の画像におけるピクセルおよび前記モバイルコンピューティング装置のフラッシュライトがアクティブ化されている間にキャプチャされた前記複数の画像の第2の画像における対応するピクセルを比較することによる光反射率メトリック特定に基づいて、前記対象の光反射率に基づいて生成される第1のセットの検証メトリックを含む検証データを生成させ、
    前記ネットワークを介して前記ネットワークシステムに前記検証データを送信させる、
    モバイルコンピューティング装置。
  2. 前記令によって、前記モバイルコンピューティング装置が、前記1つまたは複数のカメラを用いて、前記第2の画像をキャプチャする前に前記モバイルコンピューティング装置の前記フラッシュライトのアクティブ化を自動的にトリガーすることにより、前記第1の画像および第2の画像を含む複数の画像をキャプチャする、ことを特徴とする、請求項1に記載のモバイルコンピューティング装置。
  3. 前記令によって、前記モバイルコンピューティング装置が、
    前記複数の画像をキャプチャする前に、前記対象を位置合わせするための1つまたは複数のマーカを含むビューファインダー機能を表示することにより前記検証ユーザインターフェースを表示し、
    前記1つまたは複数のマーカが前記対象と位置合わせされたことを特定することにより、前記検証ユーザインターフェースが表示されている間に前記ユーザアクションを検出する、
    ことを特徴とする、請求項1に記載のモバイルコンピューティング装置。
  4. 前記令によって、前記モバイルコンピューティング装置が、前記第1の画像と前記第2の画像との間のピクセル値の差を計算することにより前記第1のセットの検証メトリックを特定することを特徴とする、請求項1に記載のモバイルコンピューティング装置。
  5. 前記令によって、前記モバイルコンピューティング装置が、複数の輝度を計算することにより前記第1の画像と前記第2の画像との間のピクセル値の差を計算し、前記複数の輝度のそれぞれが、前記第1の画像の領域と前記第2の画像の対応する領域との間の比較に基づいて計算されることを特徴とする、請求項に記載のモバイルコンピューティング装置。
  6. 前記検証データがさらに、第2のセットの検証メトリックを含み、
    前記令によって、前記モバイルコンピューティング装置が
    前記複数の画像を分析して、前記対象上に刻印された複数の特徴を識別する工程;
    前記複数の特徴の1つに少なくとも部分的に基づいて、特徴のテンプレートを検索する工程;および
    前記複数の特徴の少なくとも一部を前記検索された特徴のテンプレートと比較することにより、前記第2のセットの検証メトリックを特定する工程
    によって、前記第2のセットの検証メトリックを特定することにより前記検証データを生成する、
    ことを特徴とする、請求項1に記載のモバイルコンピューティング装置。
  7. 前記検証データがさらに、第2のセットの検証メトリックを含み、
    前記令によって、前記モバイルコンピューティング装置が
    前記複数の画像を分析して、前記対象上に刻印された複数の特徴を識別する工程;
    ユーザプロファイルを検索する工程;および
    前記複数の特徴の少なくとも一部を前記ユーザプロファイルに記憶された情報と比較することにより、前記第2のセットの検証メトリックを特定する工程
    によって、前記第2のセットの検証メトリックを特定することにより前記検証データを生成する、
    ことを特徴とする、請求項1に記載のモバイルコンピューティング装置。
  8. 前記命令によってさらに、前記モバイルコンピューティング装置が、前記ネットワークを介して前記ネットワークシステムに、ネットワークベースのサービスについてのサービス要求を送信し;かつ
    前記検証要求が、前記ネットワークシステムに送信された前記サービス要求に応答して、前記モバイルコンピューティング装置によって受信される、
    ことを特徴とする、請求項1に記載のモバイルコンピューティング装置。
  9. 前記検証される対象が、物理的な支払いカードであり;かつ
    前記物理的な支払いカードに関する情報が、前記モバイルコンピューティング装置のユーザのユーザプロファイルに記憶され、該ユーザプロファイルが前記ネットワークシステムにより維持される、
    ことを特徴とする、請求項1に記載のモバイルコンピューティング装置。
  10. 前記命令によってさらに、前記モバイルコンピューティング装置が、
    前記ネットワークシステムへの前記検証データの送信に応答して、前記モバイルコンピューティング装置によって受信される検証失敗の表示を、前記ネットワークを介して前記ネットワークシステムから受信し;かつ
    前記検証データの受信に応答して、1つまたは複数の是正措置を実行するためのユーザインターフェース機能を表示する、
    ことを特徴とする、請求項1に記載のモバイルコンピューティング装置。
  11. ユーザによって動作されるモバイルコンピューティング装置によって、ネットワークシステムにより送信される対象を検証するための検証要求を受信するステップ;
    前記検証要求の受信に応答して、前記モバイルコンピューティング装置のディスプレイ上に検証ユーザインターフェースを表示するステップ;
    前記検証ユーザインターフェースが前記モバイルコンピューティング装置のディスプレイ上に表示されている間にユーザアクションを検出することに応答して、前記モバイルコンピューティング装置の1つまたは複数のカメラを用いて、前記対象の複数の画像をキャプチャするステップ;
    前記モバイルコンピューティング装置のフラッシュライトが非アクティブ化されている間にキャプチャされた前記複数の画像の第1の画像におけるピクセルおよび前記モバイルコンピューティング装置のフラッシュライトがアクティブ化されている間にキャプチャされた前記複数の画像の第2の画像におけるピクセルを比較することによる光反射メトリックの特定に基づいて、前記対象の光反射率を示す第1のセットの検証メトリックを含む検証データを生成するステップ;および
    前記モバイルコンピューティング装置によって、ットワークを介して前記ネットワークシステムに前記検証データを送信するステップ
    を含む、コンピュータ実行方法。
  12. 前記モバイルコンピューティング装置によって、ネットワークベースのサービスについてのサービス要求を送信するステップ;
    前記サービス要求の受信に応答して、前記ネットワークシステムにより、前記サービス要求の処理に進むか対象検証を実行するかを決定するステップであって、前記検証要求が、対象検証を実行する決定に応答して前記ネットワークシステムにより送信される、ステップ;および
    前記検証データに基づいて前記ネットワークシステムにより、前記サービス要求の処理に進むか、前記モバイルコンピューティング装置に検証失敗の表示を送信し前記モバイルコンピューティング装置に1つまたは複数の是正措置を実行するためのユーザインターフェース機能を表示させるかを決定するステップ
    をさらに含むことを特徴とする、請求項11に記載のコンピュータ実行方法。
  13. ネットワークベースのサービスを管理するためのネットワークシステムであって、
    1つまたは複数のプロセッサ;および
    命令を記憶する1つまたは複数のメモリリソース
    を備え、
    前記命令は、前記ネットワークシステムの1つまたは複数のプロセッサにより実行される際に、該ネットワークシステムに
    前記ネットワークベースのサービスのユーザのモバイルコンピューティング装置上で実行するためのサービスアプリケーション命令を提供させ、該サービスアプリケーション命令は、実行されると、前記モバイルコンピューティング装置のフラッシュが非アクティブ化されている間に検証される対象の第1の画像をキャプチャし、前記モバイルコンピューティング装置のフラッシュがアクティブ化されている間に対象の第2の画像をキャプチャし、かつ、前記第1の画像および前記第2の画像のピクセルを比較することによる光反射率メトリックの特定に基づいて、第1のセットの検証メトリックを含む検証データを生成し、
    前記サービスアプリケーション命令を実行中の前記モバイルコンピューティング装置からネットワークを介して、ネットワークベースのサービスについてのサービス要求を受信させ、
    前記サービス要求の受信に応答して、前記サービス要求の処理に進むか対象検証を実行するかを決定させ、
    前記対象検証を実行する決定に応答して、前記モバイルコンピューティング装置に、検証要求を送信させ、
    前記サービスアプリケーション命令を実行中の前記モバイルコンピューティング装置から、前記検証要求に応答して、前記対象の光反射率に基づいて生成される第1のセットの検証メトリックを含む検証データを受信させ、
    前記検証データに基づいて、前記サービス要求の処理に進むか、前記モバイルコンピューティング装置に検証失敗の表示を送信し前記モバイルコンピューティング装置に1つまたは複数の是正措置を実行するためのユーザインターフェース機能を表示させるかを決定させる、ネットワークシステム。
  14. 前記検証データがさらに、第2のセットの検証メトリックを含み、該第2のセットの検証メトリックが、
    数の画像を分析して、前記対象上に刻印された複数の特徴を識別する工程;
    ユーザプロファイルを検索する工程;および
    前記複数の特徴の少なくとも一部を前記ユーザプロファイルに記憶された情報と比較することにより、前記第2のセットの検証メトリックを特定する工程
    によって生成される、
    ことを特徴とする、請求項13に記載のネットワークシステム。
  15. 前記検証される対象が、物理的な支払いカードであり;かつ
    前記物理的な支払いカードに関する情報が、前記モバイルコンピューティング装置のユーザのユーザプロファイルに記憶され、該ユーザプロファイルが前記ネットワークシステムにより維持される、
    ことを特徴とする、請求項13に記載のネットワークシステム。
JP2021540772A 2018-09-20 2019-09-16 ネットワークベースのサービスのための対象検証 Active JP7108795B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/136,946 US10733473B2 (en) 2018-09-20 2018-09-20 Object verification for a network-based service
US16/136,946 2018-09-20
PCT/US2019/051334 WO2020060936A1 (en) 2018-09-20 2019-09-16 Object verification for a network-based service

Publications (2)

Publication Number Publication Date
JP2022500679A JP2022500679A (ja) 2022-01-04
JP7108795B2 true JP7108795B2 (ja) 2022-07-28

Family

ID=69883216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021540772A Active JP7108795B2 (ja) 2018-09-20 2019-09-16 ネットワークベースのサービスのための対象検証

Country Status (9)

Country Link
US (1) US10733473B2 (ja)
EP (1) EP3853589A4 (ja)
JP (1) JP7108795B2 (ja)
KR (1) KR102471379B1 (ja)
CN (1) CN113227764B (ja)
AU (1) AU2019344670B2 (ja)
BR (1) BR112021005196B1 (ja)
CA (1) CA3113225C (ja)
WO (1) WO2020060936A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102602689B1 (ko) * 2018-04-17 2023-11-16 한국전자통신연구원 영상기반 시스템조명 고장 신고 및 자동 분류 방법 및 시스템
US10999299B2 (en) 2018-10-09 2021-05-04 Uber Technologies, Inc. Location-spoofing detection system for a network service
CN112106064A (zh) * 2018-10-15 2020-12-18 松下知识产权经营株式会社 物体识别方法、车辆控制方法、信息显示方法以及物体识别装置
US11005718B2 (en) * 2018-11-29 2021-05-11 International Business Machines Corporation Determining capabilities of cognitive entities in a distributed network based on application of cognitive protocols
FR3121773B1 (fr) * 2021-04-13 2024-03-08 Idemia Identity & Security France procédé de contrôle d’identité utilisant des conditions d’éclairage aléatoires
US11650871B2 (en) * 2021-09-13 2023-05-16 UiPath, Inc. System and computer-implemented method for verification of execution of an activity

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017083841A1 (en) 2015-11-13 2017-05-18 University Of Maryland, College Park Counterfeit detection scheme using paper surfaces and mobile cameras
US20190102873A1 (en) 2017-09-29 2019-04-04 Alibaba Group Holding Limited System and method for identifying physical objects

Family Cites Families (129)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4412175A (en) 1981-04-30 1983-10-25 Coulter Electronics, Inc. Debris alarm
US4663744A (en) 1983-08-31 1987-05-05 Terra Marine Engineering, Inc. Real time seismic telemetry system
US5400348A (en) 1992-09-03 1995-03-21 Yang; Sung-Moon Packet start detection using check bit coding
JP3884321B2 (ja) 2001-06-26 2007-02-21 オリンパス株式会社 3次元情報取得装置、3次元情報取得における投影パターン、及び、3次元情報取得方法
GB0126809D0 (en) 2001-11-07 2002-01-02 Isaac Stephen J A car-sharing system
US6828692B2 (en) 2002-05-21 2004-12-07 Payment Protection Systems, Inc. Tampering detector and system disabler
US7606560B2 (en) 2002-08-08 2009-10-20 Fujitsu Limited Authentication services using mobile device
US7725730B2 (en) 2002-08-09 2010-05-25 Emc Corporation Cryptographic methods and apparatus for secure authentication
EP1450321A1 (de) 2003-02-21 2004-08-25 Swisscom Mobile AG Verfahren und System zur Aufdeckung von möglichen Betrügen in Zahlungstransaktionen
JP2004334527A (ja) 2003-05-07 2004-11-25 Intelligent Wave Inc 不正判定のスコア値算出プログラム、不正判定のスコア値算出方法、及びクレジットカードの不正判定スコア値算出システム
US7359773B2 (en) 2003-07-09 2008-04-15 Payment Protection Systems, Inc. Wireless relay for payment enforcement devices and method of using same
KR100680177B1 (ko) 2004-12-30 2007-02-08 삼성전자주식회사 홈 네트워크 외부에서 사용자를 인증하는 방법
US8700729B2 (en) 2005-01-21 2014-04-15 Robin Dua Method and apparatus for managing credentials through a wireless network
US7788555B2 (en) 2005-07-22 2010-08-31 Broadcom Corporation Using fractional sectors for mapping defects in disk drives
KR100752545B1 (ko) 2005-11-24 2007-08-29 에이티아이 주식회사 2개 영상을 이용한 물체 표면 형상 및 반사율 정보 획득 시스템
US7624417B2 (en) 2006-01-27 2009-11-24 Robin Dua Method and system for accessing media content via the internet
US8082587B2 (en) 2006-08-02 2011-12-20 Lycos, Inc. Detecting content in files
WO2008100489A2 (en) 2007-02-12 2008-08-21 Sean O'sullivan Shared transport system and service network
US8205790B2 (en) 2007-03-16 2012-06-26 Bank Of America Corporation System and methods for customer-managed device-based authentication
JP2008312048A (ja) 2007-06-15 2008-12-25 Ripplex Inc 情報端末の認証方法
US20090248587A1 (en) 2007-08-31 2009-10-01 Van Buskirk Peter C Selectively negotiated ridershare system comprising riders, drivers, and vehicles
US8555379B1 (en) 2007-09-28 2013-10-08 Symantec Corporation Method and apparatus for monitoring communications from a communications device
US8290473B2 (en) 2007-10-31 2012-10-16 Freescale Semiconductor, Inc. Remotely modifying data in memory in a mobile device
US20090157491A1 (en) 2007-12-12 2009-06-18 Brougher William C Monetization of Online Content
US9672510B2 (en) * 2008-01-18 2017-06-06 Mitek Systems, Inc. Systems and methods for automatic image capture and processing of documents on a mobile device
EP2088548A1 (en) * 2008-02-11 2009-08-12 Accenture Global Services GmbH Point of sale payment method
US8359225B1 (en) 2008-02-26 2013-01-22 Google Inc. Trust-based video content evaluation
US20090265198A1 (en) 2008-04-22 2009-10-22 Plaxo, Inc. Reputation Evalution Using a contact Information Database
US7979899B2 (en) 2008-06-02 2011-07-12 Microsoft Corporation Trusted device-specific authentication
US8977567B2 (en) 2008-09-22 2015-03-10 Visa International Service Association Recordation of electronic payment transaction information
LU91488B1 (en) 2008-10-17 2010-04-19 Robert Carter Multifactor Authentication
US20100131409A1 (en) 2008-11-22 2010-05-27 Google Inc. Identification verification with user challenge
KR101213263B1 (ko) 2009-04-13 2012-12-18 가부시키가이샤 코로프라 이동거리 위조 방지 시스템 및 방법
US8682281B2 (en) 2009-04-24 2014-03-25 T-Mobile Usa, Inc. Monitoring application and method for establishing emergency communication sessions with disabled devices based on transmitted messages
US20100274691A1 (en) 2009-04-28 2010-10-28 Ayman Hammad Multi alerts based system
US9471920B2 (en) 2009-05-15 2016-10-18 Idm Global, Inc. Transaction assessment and/or authentication
US20100306834A1 (en) 2009-05-19 2010-12-02 International Business Machines Corporation Systems and methods for managing security and/or privacy settings
US20100332400A1 (en) 2009-06-24 2010-12-30 Craig Stephen Etchegoyen Use of Fingerprint with an On-Line or Networked Payment Authorization System
US8312543B1 (en) 2009-06-30 2012-11-13 Symantec Corporation Using URL reputation data to selectively block cookies
US8763152B2 (en) 2009-07-23 2014-06-24 Facebook Inc. Single login procedure for accessing social network information across multiple external systems
US8131848B1 (en) 2009-09-29 2012-03-06 Jason Adam Denise Image analysis and communication device control technology
US8326751B2 (en) 2009-09-30 2012-12-04 Zynga Inc. Apparatuses,methods and systems for a trackable virtual currencies platform
FR2953296B1 (fr) 2009-11-27 2012-05-18 Thales Sa Procede de detection de fraude sur la transmission d'informations de position par un dispositif mobile
US20110251951A1 (en) 2010-04-13 2011-10-13 Dan Kolkowitz Anti-fraud event correlation
US8458041B1 (en) 2010-05-06 2013-06-04 Bjorn Markus Jakobsson Method, medium, and system for reducing fraud by increasing guilt during a purchase transaction
EP2410453A1 (en) 2010-06-21 2012-01-25 Samsung SDS Co. Ltd. Anti-malware device, server, and method of matching malware patterns
EP2400721A1 (en) 2010-06-25 2011-12-28 Telefónica, S.A. System and method for validating a user equipment location in a telecommunication network
US8781984B2 (en) 2010-08-05 2014-07-15 Ben Schreiner Techniques for generating a trustworthiness score in an online environment
EP2472470A3 (en) 2010-09-15 2014-01-15 MBT Technology LLC System, method & computer program for presenting an automated assessment of a sample's response to external influences
GB2485156B (en) 2010-11-02 2016-06-01 Ian Hawkes Michael Method and apparatus for securing network communications
US8671449B1 (en) 2010-11-10 2014-03-11 Symantec Corporation Systems and methods for identifying potential malware
US8941465B2 (en) 2010-12-02 2015-01-27 Viscount Security Systems Inc. System and method for secure entry using door tokens
US20130214902A1 (en) 2010-12-02 2013-08-22 Viscount Systems Inc. Systems and methods for networks using token based location
CN103270539B (zh) * 2010-12-22 2016-12-21 尤尼卡技术股份有限公司 用于认证用光致变色系统标记的文件的方法和装置
US20120209970A1 (en) 2011-02-15 2012-08-16 Ebay Inc. Systems and methods for facilitating user confidence over a network
US8745134B1 (en) 2011-03-04 2014-06-03 Zynga Inc. Cross social network data aggregation
US8434150B2 (en) 2011-03-24 2013-04-30 Microsoft Corporation Using social graphs to combat malicious attacks
US20130132547A1 (en) 2011-05-09 2013-05-23 Respect Network Corporation Apparatus and Method for Address Book Automation Over a Trust Network
US8864022B2 (en) * 2011-05-19 2014-10-21 Bank Of America Corporation Authentication strategies for remote financial institution services
US8764567B2 (en) 2011-06-03 2014-07-01 Apple Inc. System and method for implementing turn-based online games
US20120311036A1 (en) 2011-06-03 2012-12-06 Huhn Derrick S Friend recommendation system and method
US8955078B2 (en) 2011-06-30 2015-02-10 Cable Television Laboratories, Inc. Zero sign-on authentication
KR101824484B1 (ko) 2011-06-30 2018-02-01 인텔 코포레이션 보호 컨텐츠로의 액세스를 제어하는 시스템 및 방법
US8738529B2 (en) 2011-07-15 2014-05-27 Wal-Mart Stores, Inc. Multi-channel data driven, real-time fraud determination system for electronic payment cards
US9037864B1 (en) 2011-09-21 2015-05-19 Google Inc. Generating authentication challenges based on social network activity information
WO2013052426A1 (en) 2011-10-03 2013-04-11 Facebook, Inc. Providing user metrics for an unknown dimension to an external system
US8856922B2 (en) 2011-11-30 2014-10-07 Facebook, Inc. Imposter account report management in a social networking system
US20130159195A1 (en) 2011-12-16 2013-06-20 Rawllin International Inc. Authentication of devices
US8734243B2 (en) 2012-01-04 2014-05-27 Kabam, Inc. System and method for facilitating access to an online game through a plurality of social networking platforms
US8745738B2 (en) 2012-01-15 2014-06-03 Microsoft Corporation Vouching for user account using social networking relationship
US10263868B1 (en) 2012-04-11 2019-04-16 Narus, Inc. User-specific policy enforcement based on network traffic fingerprinting
US20130282812A1 (en) 2012-04-24 2013-10-24 Samuel Lessin Adaptive audiences for claims in a social networking system
US20130282810A1 (en) 2012-04-24 2013-10-24 Samuel Lessin Evaluating claims in a social networking system
US9978106B2 (en) 2012-04-24 2018-05-22 Facebook, Inc. Managing copyrights of content for sharing on a social networking system
US8850588B2 (en) 2012-05-01 2014-09-30 Taasera, Inc. Systems and methods for providing mobile security based on dynamic attestation
US8973102B2 (en) 2012-06-14 2015-03-03 Ebay Inc. Systems and methods for authenticating a user and device
US8918638B2 (en) 2012-07-03 2014-12-23 Facebook, Inc. Mobile-device-based trust computing
US9424612B1 (en) 2012-08-02 2016-08-23 Facebook, Inc. Systems and methods for managing user reputations in social networking systems
US8705836B2 (en) 2012-08-06 2014-04-22 A2iA S.A. Systems and methods for recognizing information in objects using a mobile device
US10037325B2 (en) 2012-08-06 2018-07-31 Gree, Inc. Display system, display method in the system and display program for increasing a conversion rate in a social networking environment
US20160219046A1 (en) 2012-08-30 2016-07-28 Identity Validation Products, Llc System and method for multi-modal biometric identity verification
WO2014035696A2 (en) 2012-08-30 2014-03-06 Los Alamos National Security, Llc Multi-factor authentication using quantum communication
US8663004B1 (en) 2012-09-05 2014-03-04 Kabam, Inc. System and method for determining and acting on a user's value across different platforms
US9613313B2 (en) 2012-09-26 2017-04-04 DeNA Co., Ltd. System and method for providing a recommendation of a game based on a game-centric relationship graph
US20140129420A1 (en) 2012-11-08 2014-05-08 Mastercard International Incorporated Telecom social network analysis driven fraud prediction and credit scoring
US8973100B2 (en) 2013-01-08 2015-03-03 Facebook, Inc. Trust-based authentication in a social networking system
US20140230026A1 (en) 2013-02-12 2014-08-14 James D. Forero Biometric-Based Access Control System Comprising a Near Field Communication Link
US20140237570A1 (en) 2013-02-15 2014-08-21 Rawllin International Inc. Authentication based on social graph transaction history data
US9043970B1 (en) 2013-02-19 2015-06-02 Pioneer Hi Bred International Inc Maize inbred PH188M
US9311640B2 (en) * 2014-02-11 2016-04-12 Digimarc Corporation Methods and arrangements for smartphone payments and transactions
US11232447B2 (en) 2013-03-15 2022-01-25 Allowify Llc System and method for enhanced transaction authorization
US9147127B2 (en) 2013-03-15 2015-09-29 Facebook, Inc. Verification of user photo IDs
US9300676B2 (en) 2013-03-15 2016-03-29 Socure Inc. Risk assessment using social networking data
US20140280568A1 (en) 2013-03-15 2014-09-18 Signature Systems Llc Method and system for providing trust analysis for members of a social network
JP2014216736A (ja) * 2013-04-24 2014-11-17 パナソニック株式会社 無線lan接続システム
CN103426016B (zh) 2013-08-14 2017-04-12 湖北微模式科技发展有限公司 一种第二代身份证真伪鉴别方法与装置
US9282435B2 (en) 2013-08-31 2016-03-08 Location Sentry Corp Location spoofing detection
WO2015048538A1 (en) 2013-09-26 2015-04-02 Twitter, Inc. Method and system for distributed processing in a messaging platform
US9578025B2 (en) 2013-10-14 2017-02-21 Zumigo, Inc. Mobile network-based multi-factor authentication
US10243945B1 (en) 2013-10-28 2019-03-26 Amazon Technologies, Inc. Managed identity federation
US9143503B2 (en) 2013-12-10 2015-09-22 Dell Products, L.P. Managing trust relationships
US9652554B2 (en) 2013-12-26 2017-05-16 Facebook, Inc. Systems and methods for adding users to a networked computer system
US10110542B2 (en) 2013-12-31 2018-10-23 Microsoft Technology Licensing, Llc Wearable computing—augmented reality and presentation of social information
CN105007288A (zh) 2014-04-18 2015-10-28 塞克雷特公司 在社交网络应用中匿名地共享秘密
US9824222B1 (en) 2014-05-06 2017-11-21 Synack, Inc. Method of distributed discovery of vulnerabilities in applications
US20170309552A1 (en) 2014-05-07 2017-10-26 Uber Technologies, Inc. System and method for verifying users for a network service using existing users
US9947060B2 (en) 2014-06-03 2018-04-17 Excalibur Ip, Llc Information matching and match validation
US9898716B2 (en) 2014-06-27 2018-02-20 Empire Technology Development Llc Social network construction
CN105376192B (zh) 2014-07-02 2019-09-17 阿里巴巴集团控股有限公司 登录账号的提示方法和提示装置
US9491155B1 (en) 2014-08-13 2016-11-08 Amazon Technologies, Inc. Account generation based on external credentials
US20160048831A1 (en) 2014-08-14 2016-02-18 Uber Technologies, Inc. Verifying user accounts based on information received in a predetermined manner
CN105450411B (zh) * 2014-08-14 2019-01-08 阿里巴巴集团控股有限公司 利用卡片特征进行身份验证的方法、装置及系统
US9729555B2 (en) 2014-08-19 2017-08-08 Facebook, Inc. Techniques for managing groups on a mobile platform
US20160078706A1 (en) * 2014-09-17 2016-03-17 Thomas D. Pawlik Method of authenticating an object
US20160292679A1 (en) 2015-04-03 2016-10-06 Uber Technologies, Inc. Transport monitoring
US10055707B2 (en) 2015-04-07 2018-08-21 Paypal, Inc. Location detection devices for use in a courier services network
US10204528B2 (en) 2015-08-05 2019-02-12 Uber Technologies, Inc. Augmenting transport services using driver profiling
US9967273B2 (en) 2015-06-15 2018-05-08 Microsoft Technology Licensing, Llc. Abusive traffic detection
US20170039567A1 (en) * 2015-08-03 2017-02-09 Capital One Services, LLC. Systems and methods for item-based transaction authentication
US20170075894A1 (en) 2015-09-15 2017-03-16 Facebook, Inc. Contacts Confidence Scoring
US9552569B1 (en) 2015-09-24 2017-01-24 Amazon Technologies, Inc. Removable and reusable device for object tracking
US20170111364A1 (en) 2015-10-14 2017-04-20 Uber Technologies, Inc. Determining fraudulent user accounts using contact information
CN105472737B (zh) 2015-12-31 2019-05-28 上海华为技术有限公司 一种终端定位方法及服务器
US10297148B2 (en) 2016-02-17 2019-05-21 Uber Technologies, Inc. Network computer system for analyzing driving actions of drivers on road segments of a geographic region
US9967750B1 (en) 2016-07-28 2018-05-08 United Services Automobile Association (Usaa) Location verification based on environmental sensor data
EP3507776B1 (en) * 2016-09-01 2021-12-22 Signify Holding B.V. Custom lighting
KR101945931B1 (ko) * 2016-12-07 2019-02-08 금오공과대학교 산학협력단 오브젝트를 검증하기 위한 검증 코드 생성 방법 및 전자장치
US10111043B1 (en) 2017-04-24 2018-10-23 Uber Technologies, Inc. Verifying sensor data using embeddings
TWM569886U (zh) * 2018-05-04 2018-11-11 遠東國際商業銀行股份有限公司 Credit card virtual integration device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017083841A1 (en) 2015-11-13 2017-05-18 University Of Maryland, College Park Counterfeit detection scheme using paper surfaces and mobile cameras
US20190102873A1 (en) 2017-09-29 2019-04-04 Alibaba Group Holding Limited System and method for identifying physical objects

Also Published As

Publication number Publication date
BR112021005196B1 (pt) 2021-10-26
KR102471379B1 (ko) 2022-11-25
KR20210095120A (ko) 2021-07-30
CN113227764B (zh) 2022-08-12
CA3113225A1 (en) 2020-03-26
EP3853589A4 (en) 2022-07-06
WO2020060936A1 (en) 2020-03-26
US20200097753A1 (en) 2020-03-26
CN113227764A (zh) 2021-08-06
AU2019344670A1 (en) 2021-04-08
AU2019344670B2 (en) 2021-11-11
EP3853589A1 (en) 2021-07-28
CA3113225C (en) 2022-10-11
US10733473B2 (en) 2020-08-04
JP2022500679A (ja) 2022-01-04
BR112021005196A2 (pt) 2021-06-08

Similar Documents

Publication Publication Date Title
JP7108795B2 (ja) ネットワークベースのサービスのための対象検証
KR102270499B1 (ko) 이미지 기반의 차량 손상 판정 방법과 장치, 및 전자기기
US10719597B2 (en) Authorization of virtual reality interactions using controlled randomization
JP7430913B2 (ja) 価値のある電子装置を遠隔収集するための低コストのコンピュータ化した売店
US11599883B2 (en) System and method for fraud risk analysis in IoT
AU2020412358B2 (en) Tagging objects in augmented reality to track object data
US20130066757A1 (en) System and method for identifying, locating and recovering collateralized assets
US11321688B1 (en) Context-aware, vehicle-based mobile banking
TWI777520B (zh) 電子設備投保的校驗方法和裝置
US20160379200A1 (en) Systems, methods, devices, and computer readable media for monitoring proximity mobile payment transactions
US20240144290A1 (en) Mobile device with in-person assistance
US20240013219A1 (en) Authentication at atm and handshake between customer and driver
US11523276B2 (en) Utilizing a high generation cellular network to authorize an event
JP2018530832A (ja) 取引文書処理のためのシステムおよび方法
US11887108B2 (en) System and user interface of a user device for managing tokens associated with a user
KR20210029923A (ko) 스마트 차량정비 관리서버
US11693898B2 (en) System and method for determining a file for an interaction with a wearable device based on utility indicators
US11508097B1 (en) Visualizations of multi-nodal transfers and gesture-based interactivity in virtual or augmented reality
KR20140015771A (ko) 구매자결제 서비스 시스템 및 그 방법, 그리고 이에 적용되는 장치 및 서버
WO2023244164A1 (en) Method and device for detecting merchant from payment transaction

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211117

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220715

R150 Certificate of patent or registration of utility model

Ref document number: 7108795

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150