JP2023549934A - ユーザ認識のための方法及び機器 - Google Patents

ユーザ認識のための方法及び機器 Download PDF

Info

Publication number
JP2023549934A
JP2023549934A JP2023530649A JP2023530649A JP2023549934A JP 2023549934 A JP2023549934 A JP 2023549934A JP 2023530649 A JP2023530649 A JP 2023530649A JP 2023530649 A JP2023530649 A JP 2023530649A JP 2023549934 A JP2023549934 A JP 2023549934A
Authority
JP
Japan
Prior art keywords
data
user
interaction
time interval
machine learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023530649A
Other languages
English (en)
Inventor
カレガリ,ウムベルト
カポッツァ,マッシモ
スビアンキ,ファビオ
Original Assignee
ウォールライフ エス.アール.エル.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウォールライフ エス.アール.エル. filed Critical ウォールライフ エス.アール.エル.
Publication of JP2023549934A publication Critical patent/JP2023549934A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/316User authentication by observing the pattern of computer usage, e.g. typical user behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/38Payment protocols; Details thereof
    • G06Q20/40Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/32Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
    • H04L9/3226Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using a predetermined code, e.g. password, passphrase or PIN
    • H04L9/3231Biological data, e.g. fingerprint, voice or retina
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Social Psychology (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Accounting & Taxation (AREA)
  • Biomedical Technology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • General Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

識別された時間間隔の中でユーザ装置(1)と対話しているユーザが、他の時間に装置と対話したユーザと同じユーザかどうかを認識するためにコンピュータによる認識が行われる。センサを含むユーザ装置(1)の複数の異なる要素(4)によって生成される、ユーザがユーザ装置と対話していることを表す第1のデータを処理することによって第1のユーザ挙動データが導出される。ユーザ装置(1)とのユーザの対話に関係する少なくとも第1の時間間隔が識別される。少なくとも第1の時間間隔の間にユーザがユーザ装置と対話していることを表す第2のデータを処理することによって第2のユーザ挙動データが導出される。第1のユーザ挙動データ及び第2のユーザ挙動データに基づくユーザ確認データ(14)がユーザ装置から対話確認システム(2)に伝送される。

Description

技術分野
本発明は、ユーザ認識のための方法及び機器に関し、排他的にではないがより詳細には、識別された時間間隔の中でユーザ装置と対話しているユーザが、他の時間に装置と対話したユーザと同じユーザかどうかをコンピュータによって認識することを可能にするためのコンピュータによって実装される方法に関する。
背景
ユーザとユーザ装置との間の多くの対話が確認を必要とし得る。例えば対話は、例えば建物若しくは車両に入ることを承認するために又はユーザ認識を必要とする任意のプロセスを実行するために、携帯電話又はコンピュータ等のユーザ装置上のアプリケーションソフトウェアを使用してユーザの識別情報を確認することを含み得る。慣習的に、ユーザ装置とのユーザの対話は対話時に確認される。例えばユーザの識別情報を確認するために顔認識及び/又は指紋認識を使用することができ、確認に失敗する場合その対話が拒否され得る。確認が成功する場合、確認済みの対話が続行し得る。しかし、確認の信頼度は典型的には100%ではなく、所与の対話中のユーザが所期のユーザではない場合がある。
概要
本発明の第1の態様によれば、ユーザ装置におけるデータを処理して対話確認システム内で使用するためのユーザ確認データを生成することにより、識別された時間間隔の中でユーザ装置と対話しているユーザをコンピュータによって認識することを可能にするためのコンピュータによって実装される方法であって、
少なくとも1つのセンサを含むユーザ装置の複数の異なる要素によってそのそれぞれが生成され、ユーザがユーザ装置と対話していることをそのそれぞれが表す第1の複数組のデータを処理することによって第1のユーザ挙動データを導出すること、
ユーザ装置のユーザのユーザ装置との対話に関係する少なくとも第1の時間間隔を識別すること、
少なくとも1つのセンサを含む装置の複数の異なる要素によってそのそれぞれが生成され、少なくとも第1の時間間隔の間にユーザがユーザ装置と対話していることをそのそれぞれが表す第2の複数組のデータを処理することによって第2のユーザ挙動データを導出すること、及び
ユーザ装置から対話確認システムに第1のユーザ挙動データ及び第2のユーザ挙動データに基づくユーザ確認データを伝送すること
を含む、方法が提供される。
この方法は、対話確認システムが確認データを処理して、第1の時間間隔の中でユーザ装置と対話しているユーザが第1の複数組のデータに関係する時間に装置と対話したユーザと同じユーザである確率を求めることを可能にする。
一例ではこの方法は、対話が生じる時間間隔として第1の時間間隔を識別することを含む。
このことは、対話を行う際のユーザの挙動に第2のユーザ挙動データが関係することを可能にする。
一例ではこの方法は、対話がそれよりも前に生じる時間間隔として第2の時間間隔を識別すること、及び/又は
対話がその後で生じる時間間隔として第3の時間間隔を識別すること
を含み、
第2の複数組のデータは、第1の時間間隔並びに第2の及び/又は第3の時間間隔の間にユーザが装置と対話していることをそれぞれ表す。
このことは、第1の、第2の、及び第3の時間間隔についてユーザが同じであるという仮定の下、第2のユーザ挙動データがユーザ挙動をよりよく表すことを可能にする。
一例ではこの方法は、対話が進行中であるという指示を受信することに応答して第2のユーザ挙動データを収集することを含む。
このことは、対話の時間に関して適切なデータを収集することを可能にする。
一例ではこの方法は、
ユーザ装置上の記憶システム内に第2のユーザ挙動データを記憶すること、
第1の時間間隔を示すタイミングデータを対話確認システムから受信すること、及び
タイミングデータに基づいて記憶システムから第2のユーザ挙動データを取得すること
を含む。
このことは、対話確認システムによって処理する際に使用するために、問題となる対話に関係するデータを識別し取得することを可能にする。
一例では、第1の及び第2のユーザ挙動データを導出することが、ユーザ装置の複数の異なる要素によって生成されるデータを正規化形式を有する変換済み要素データへと変換するように構成されるハードウェア抽象化機能モジュールを使用することを含む。
正規化された形式を有する変換済み要素データを生成することは、対話確認システムが特定のユーザ装置の特性に関係なくデータを処理することを可能にする。
一例では、第1の及び第2のユーザ挙動データを導出することが、処理済み要素データを生成するために変換済み要素データに対して要約機能、集約機能、及び結合機能を実行するように構成されるデータ処理機能モジュールを使用することを含む。
このことは、ユーザ挙動機能モジュール内で使用するために、収集した生データを典型的には要約され圧縮された処理済みデータに変換することを可能にする。
一例では、第1のユーザ挙動データを導出することが、第1の複数組のデータに関係する処理済み要素データからユーザの典型的な挙動に関する情報を抽出するように構成されるユーザ挙動機能モジュールを使用することを含む。
このことは、対話を行うために使用される装置をユーザが典型的に操作するやり方に関する、処理済みデータからの情報の抽出を可能にする。
一例では、第2のユーザ挙動データを導出することが、第2の複数組のデータに関係する処理済み要素データからユーザの挙動に関する情報を抽出するように構成される挙動機能モジュールを使用することを含む。
このことは、典型的には対話が行われる前の、その間の、及びその後の一定期間に関係するユーザ挙動情報を抽出することを可能にする。
一例では、ユーザ確認データが機械学習モデルからの出力を含む。
一例では、機械学習モデルのためのパラメータが検証システムから受信される。
一例では、機械学習モデルへの入力が第1のユーザ挙動データ及び第2のユーザ挙動データを含み、ユーザ確認データが機械学習モデルの出力を含む。
一例では、機械学習モデルの出力は、第1の時間間隔の中のユーザが第1のユーザ挙動データに対応するユーザと異なる確率を含む。機械学習モデルは、一連の時間間隔の中の異常な時間間隔を検出するように訓練されているディープニューラルネットワークDNNであり得る。例えば機械学習モデルは、その殆どが所与のユーザからのものだと分かっており、その1つ又は複数が異なるユーザからのものだと分かっているユーザ挙動データの組のシーケンスを使用する教師あり学習によって訓練され得る。
或いは、機械学習モデルへの入力が少なくとも第1の1組のデータ及び第2の1組のデータを含むことができ、機械学習モデルの出力が第1のユーザ挙動データ及び第2のユーザ挙動データを含む。一例では、トライアルデータ内の対話をクラスタへとソートするための教師なし学習を使用することによって機械学習モデルが訓練されている。機械学習モデルは個々の時間間隔を処理して時間間隔がどのクラスタに属するのかを推定することができ、ユーザ確認データは時間間隔がどのクラスタに属するのかの推定を含み得る。このことは対話確認システムが、第1のデータに対応する時間間隔が属する複数のクラスタのうちのクラスタに比べて、第1の時間間隔がどのクラスタに属するのかを比較することを可能にする。
本発明の第2の態様によれば、ユーザ装置におけるデータを処理して対話確認システム内で使用するためのユーザ確認データを生成することにより、識別された時間間隔の中でユーザ装置と対話しているユーザをコンピュータによって認識することを可能にするための方法を実行するように構成されるプロセッサを含むユーザ装置が提供される。
本発明の第3の態様によれば、コンピュータ上で実行されるとき、ユーザ装置におけるデータを処理して対話確認システム内で使用するためのユーザ確認データを生成することにより、識別された時間間隔の中でユーザ装置と対話しているユーザをコンピュータによって認識することを可能にするためのコンピュータによって実装される方法のステップをコンピュータに実行させる、命令を含むコンピュータプログラムが提供される。
本発明の第4の態様によれば、ユーザ装置におけるデータを処理して対話確認システム内で使用するためのユーザ確認データを生成することにより、識別された時間間隔の中でユーザ装置と対話しているユーザをコンピュータによって認識することを可能にするためのコンピュータによって実装される方法のステップを1つ又は複数のプロセッサに実行させるための命令を保持する、非一時的コンピュータ可読記憶媒体が提供される。
本発明の第5の態様によれば、ユーザ装置及び対話確認システムを含む、対話が行われた後で対話を確認するためのシステムが提供される。典型的には、対話確認システムは所与の対話の確認を行うためにユーザ確認データを処理するように構成される。
一例では、対話確認システムが、ユーザ確認データを記憶するように構成される顧客及びエンドユーザプロファイルモジュールを含む。
このことは、ユーザ装置への現在の接続がない場合に対話確認システムが対話を確認することを可能にする。
一例では、対話確認システムが、ユーザ確認データを処理することによって所与の対話が所与のユーザを含んだ確率の推定を与えるように構成される対話検証モジュールを含む。
このことは、対話確認システムが、問題となる対話が実際に不正認証の事例であったことを一定の信頼度で確かめること又は確かめないことを可能にし得る。
一例では、対話確認システムが、ユーザ装置によって適用されるデータ処理規則を決定し、データ処理規則を示すデータをユーザ装置に送信するように構成されるデータ処理モジュールを含む。
このことは、典型的にはデータ処理能力を多大に必要とするデータ処理規則の決定をユーザ装置の外側のプロセッサ内で実行することを可能にし、更に規則は複数の装置からのデータに基づいて例えば人工知能技法を使用することによって開発され得る。対話確認システムは、ユーザ装置のための対応する機械学習モデルに使用するためのパラメータを決定する際に使用するための機械学習モデルを含み得る。
本発明の更なる特徴及び利点が本発明の例についての以下の説明から明らかになり、かかる説明は添付図面を参照して行う。
図面の簡単な説明
本発明をより容易に理解することができるように、次に添付図面を参照して本発明の例を説明する。
対話確認システムと通信する複数のユーザ装置を示す概略図である。 対話確認システムに送信されるユーザ確認データを生成するためにデータを処理するように構成されるユーザ装置を示す概略図である。 少なくとも1つのユーザ装置から受信されるユーザ確認データを処理するための対話確認システムを示す概略図である。 ユーザ機器及び対話確認システムを含むシステムを示す概略図である。 第1の及び第2のユーザ挙動データを生成するためにユーザ装置内の機械学習モデルを使用する、ユーザ機器及び対話確認システムを含むシステムを示す概略図である。 ユーザ確認データを生成するためにユーザ装置内の機械学習モデルを使用する、ユーザ機器及び対話確認システムを含むシステムを示す概略図である。 対話確認システムにおける機械学習モデルの訓練を示す。 対話確認システムから各ユーザ機器内の機械学習モデルに機械学習モデルのパラメータを送信することを示す。 ディープニューラルネットワークを含む機械学習モデル内の信号の流れを示す。 訓練及び導入段階中のディープニューラルネットワークの訓練方法の一例を示す。 新規ユーザの活性化を示すコラボレーション図である。 更なるユーザ初期設定機能の実行を示すコラボレーション図である。 問題となる対話に関連するコラボレーション図である。 顧客に充てられるバックエンドシステムの構成を示すブロック図である。 複数の顧客間で共用されるバックエンドシステムの構成を示すブロック図である。 対話確認システム内で使用するためのユーザ確認データを生成するためにユーザ装置内のデータを処理する方法を示す流れ図である。
詳細な説明
本発明の例は、対話が行われた後で対話を確認するためのシステムの脈絡で記載する。建物又は車両にアクセスするための生体識別システムとの対話の一例を記載するが、本発明はそれらの例に限定されず、金融取引を検証するための識別情報の認証等の他の対話、又は識別された時間間隔の中でユーザ装置と対話しているユーザが、他の時間に装置と対話したユーザと同じユーザかどうかを確認する必要があるユーザ装置との任意の対話の確認に関係し得ることが理解されよう。ユーザ確認データは、ユーザ装置のセンサ及び他の要素からユーザ装置において生成され、対話中の及び他の時間における対話中のユーザ挙動を表し、対話確認システムに送信される。この例では対話確認システムが既存の生体識別システムに加えて第2のレベルの識別を与え、それにより第1のレベルの識別イベントが問題となる場合、システムが提供する第2のレベルを使用して、不正なりすまし、シミュレートされた不正なりすまし、又は強制的な認証の場合等、第1のレベルの識別が間違っていたかどうか又は異常だったかどうかを確かめることができる。
一例では、指紋認識を使用するユーザ認証形式の対話が確認され、確認はユーザ装置内の慣性センサから導出されるユーザ挙動データに基づく。指紋センサを使用するとき、ユーザは慣性センサ又は加速度計を使用して検出され得る特徴的な一連の動きをし得る。3軸又は4軸以上(例えば加速度と角速度を6軸慣性系と見なすことができる)で測定される動きは、指紋センサとの対話の前に、対話中に、及び対話後に記録することができる。識別済みの対話に関するユーザ挙動データが、他の時間に記録された対話に関するユーザ挙動データと比較され得る。慣性センサからのデータに加え、ユーザ挙動データは1つ又は複数のカメラ及び/又は電波センサからのデータに基づき得る。カメラ及び電波センサは、周辺光条件及び色及び典型的な無線周波数信号レベル等、ユーザ挙動の一部として背景環境を表す更なるデータを提供する。慣性センサ、カメラ、及び電波センサは、例えば顔検出及び声検出を確認するためのユーザ挙動データを生成するためにも使用することができる。
図1に示すように、本システムは、ユーザ確認データを生成するように構成される例えば携帯電話又はコンピュータ等の1つ又は複数のユーザ装置1a、1b、1cと、「バックエンド」データ処理と呼ばれ得るユーザ装置の外側のデータ処理によって典型的には実装される対話確認システム2とを含む。バックエンド処理は、中央局におけるデータプロセッサ内で実装することができ、又は分散若しくはクラウド処理によって実装することができる。1つ又は複数のユーザ装置1a、1b、及び1cは、データネットワーク3を介して対話確認システム2と通信するように図示してある。データネットワークは、セルラ無線ネットワーク及び他のデータ接続を含み得る。
図2は、対話確認システム内で使用するためのユーザ確認データを生成するためにデータを処理するように構成されるユーザ装置1を示す概略図である。図2に示すように、ユーザ装置は第1のユーザ挙動データの導出元の複数組のデータを生成するために使用される複数の異なる要素4を有する。データの各組は、ユーザがユーザ装置と対話することを表す。
これらの要素は、例えばカメラ、マイクロホン、慣性センサ、温度センサ、指紋センサ、キーボード、タッチパッド、及びマウス等、ユーザ装置のセンサとすることができる。これらの要素の1つ又は複数が、WiFiインタフェース、GPS/GNSSインタフェース等の位置決定システムインタフェース、Bluetoothインタフェース、セルラ無線インタフェース、及びNFCインタフェース等の非接触インタフェース等、装置の無線インタフェースを含み得る。これらの要素は、USBインタフェース等の有線インタフェースを含み得る。これらの要素は、画面インタフェース、タッチスクリーンインタフェース、スピーカ又はイヤホンインタフェース、オペレーティングシステム、及びタイマも含み得る。各事例において、このことは要素の1つ又は複数が関与するユーザ対話を表すデータの導出を可能にする。識別に使用される周辺インタフェース、例えば識別がユーザ名及びパスワードの入力を必要とする場合はキーボードが特定の種類のセンサと見なされ得る。
ユーザ装置1は第1の複数組のデータから第1のユーザ挙動データを導出するように構成され、かかるデータのそれぞれはユーザ装置の複数の異なる要素4の少なくとも一部によって生成される。第1の例では、ユーザ挙動データが指紋センサ及び慣性センサの出力から導出される。第2の例では、ユーザ挙動データが慣性センサ及びカメラの出力から導出される。第3の例では、ユーザ挙動データが慣性センサ、カメラの出力、及びキーボード出力から時間の関数として導出される。
ユーザ装置は、ユーザ装置のユーザが関与する対話に関係する少なくとも第1の時間間隔を識別するように、及び装置の複数の異なる要素によってそのそれぞれが生成され、少なくとも第1の時間間隔の間にユーザがユーザ装置と対話していることをそのそれぞれが表す第2の複数組のデータから第2のユーザ挙動データを導出するように構成される。少なくとも第1の時間間隔を識別することは、少なくとも第1の時間間隔を識別する指示を対話確認システムから受信することを含み得る。例えばこの指示は、クエリされる対話又は問題となる対話の時間の指示であり得る。第1の時間間隔は、例えば指紋認識又は顔認識の認証が行われる時間であり得る。
図2に示すように、ユーザ装置はハードウェア抽象化機能モジュール5、データ処理モジュール6、ユーザ挙動モジュール10、及び対話挙動モジュール11を含む。ハードウェア抽象化機能モジュール5、データ処理モジュール6、及びユーザ挙動モジュール10は第1のユーザ挙動データを導出するために使用され、ハードウェア抽象化機能モジュール5、データ処理モジュール6、及び対話挙動モジュール11は第2のユーザ挙動データを導出するために使用される。
ハードウェア抽象化機能モジュール5は、ユーザ装置の複数の異なる要素4によって生成されるデータを対話確認システム向けに正規化された形式を有する変換済み要素データへと変換することによって第1の及び第2のユーザ挙動データを導出するために使用される。このことは、対話確認システムが特定のユーザ装置の特性に関係なくデータを処理することを可能にする。データ処理機能モジュール6は、要約7、集約8、及び結合9の機能ブロックを有する。これらが変換済み要素データに作用して処理済み要素データを生成する。このことは、収集した生データをユーザ挙動機能モジュール内で使用するための典型的には要約された処理済みデータに変換することを可能にする。
ハードウェア抽象化モジュール5は、対話確認を行うことを可能にされたユーザ装置に適合する共通の正規化形式へとユーザ装置の要素からのデータを変換する。例えば様々なユーザ装置が様々なカメラ解像度の仕様を有する場合があり、ハードウェア抽象化モジュールは、特定のユーザ装置に関係なく、データを集め、処理し、記憶する必要がある他の機能モジュールに適合するデータを提供するためにカメラからのデータを変換することを担う。
データ処理モジュール6は、ハードウェア抽象化モジュール5から受信されるデータに基づいて、収集済みの生データを複数レベルの処理済みデータに変換する。データ処理モジュール6のデータ処理機能は、要約、集約、及び結合という3つの主クラスに分けることができる。かかる機能は、プログラムされた計算アルゴリズムによって並びに機械学習モデル等の人工知能機能によって実行され得る。このモジュールはバックエンド側、つまり対話確認システム2にある対応するモジュール17のユーザ装置側の相手先としても機能する。データ処理モジュール6は、データ処理及び人工知能モジュールと呼ぶことができる。
ユーザ挙動モジュール10は、データ処理モジュール6によって提供されるデータに基づき、ユーザがユーザ装置を典型的に操作するやり方に関する情報を抽出する。第1のユーザ挙動データ内で伝えられるこの情報は、装置の識別子、1日の間及び1週間の間で装置がどの程度及び何時使われるのかに関係し得る。この情報は、例えばデータを入力するために片手又は両手を使用してキーを押すこと又はスワイプすることに関係する挙動にも関係し得る。この情報は、最も頻繁に使用されるアプリケーション又は例えばユーザ装置が使用される位置にも関係し得る。
対話挙動モジュール11は、データ処理モジュール6によって提供されるデータに基づき、対話が行われる前の、その間の、及び/又はその後の一定期間にわたる詳細なユーザ挙動情報を抽出する。目的はユーザ挙動モジュール10と同様だが、対話挙動モジュール11は顧客に関係する対話中にユーザが装置を操作するやり方に特に集中する。対話挙動モジュール11は第2のユーザ挙動データを提供する。
例えば発生した対話を詳細に記録に残すために、対話記録モジュールがスクリーンショット、キーストローク、ビデオ、音声、及び指紋認証等の対話に関連するデータを記録し得る。記録は様々な詳細レベルで活性化することができ、例えば生データ又はデータ処理モジュール6によって処理されるデータの詳細レベルは技術的制約並びに法的制約、例えばプライバシ上の制約によって決まり得る。
記憶及びデータ保護モジュール13は、保持可能なデータの量及び/又は種類を制限し得る任意の技術的制約及び/又は法的制約、例えばプライバシを考慮に入れてユーザ装置のメモリ上に収集済みデータを記憶する。記憶及びデータ保護モジュール13は、シミュレートされた又はシミュレートされていない不正なりすましの場合にエンドユーザ又は無許可のユーザが行うことを試み得る破損又は削除からデータを保護することも狙う。
バックエンド通信モジュール12はバックエンドシステム、つまり対話確認システムとの通信を可能にする。バックエンド通信モジュール12は、ユーザ装置からバックエンドに転送可能なデータの量及び/又は種類を制限する技術的制約及び/又は法的制約も管理することができる。バックエンド通信モジュール12は、第1のユーザ挙動データ及び第2のユーザ挙動データに基づくユーザ確認データ14を装置から対話確認システムに伝送する。ユーザ確認データは、第1のユーザ挙動データ及び第2のユーザ挙動データを含み得る。或いはユーザ確認データは、第1のユーザ挙動データ及び第2のユーザ挙動データを処理することによって導出されるデータを含み得る。例えばユーザ確認データは、第1のユーザ挙動データ及び第2のユーザ挙動データが入力である機械学習モデルからの出力であり得る。
図3は、対話確認システム2の一例を示す概略図である。対話確認システム2は、ユーザ装置1から受信される第1のユーザ挙動データ及び第2のユーザ挙動データを含み得るユーザ確認データを処理して所与の対話の確認を行うように構成される。
図3から見て取れるように、対話確認システムは、ユーザ装置からのユーザ確認データの受信を可能にするためのユーザ装置通信モジュール15、及びユーザ確認データを記憶するように構成される顧客及びエンドユーザプロファイルモジュール16を含む。
対話確認システム2は、データの要約18、集約19、及び結合20のためのモジュールを含み、人工知能システムの一部として決定され得る機械学習モデルのためのパラメータ等、データ処理規則の決定用モジュール21を含む、データ処理モジュール17を含む。データ処理モジュール17は、ユーザ装置1によって適用されるデータ処理規則を決定するように、及びユーザ装置1にデータ処理規則を示すデータをユーザ装置通信モジュール15により送信するように構成される。
対話確認システムは、第1の及び第2のユーザ挙動データを処理することによって所与の対話が所与のユーザを含んだ確率の推定を与えるように構成される対話検証モジュール22を含む。
ユーザ装置通信モジュール15はユーザ装置上にある通信モジュールをバックエンド側にミラーリングし、そのためユーザ装置との通信を保護する。
顧客及びエンドユーザプロファイルモジュール16は、例えばエンドユーザが受諾したプライバシ合意に従って記憶されバックエンドに転送され得るデータの量及び/又は種類等、対話の確認に準じた顧客及びエンドユーザに関する情報を記憶する。
記憶及びデータ保護モジュール24は、保持可能なデータの量及び/又は種類を制限することを必要とし得る技術的制約及び/又は法的制約を考慮に入れ、ユーザ装置によってバックエンドに伝送された後の収集済みデータをバックエンド上で記憶する。
人工知能機能を含むことができ、データ処理及び人工知能モジュールと呼ばれ得るデータ処理モジュール17は、例えばユーザ装置上の必要なデータがもう入手できない一方でそのデータのコピーがバックエンド側で入手可能なままである場合は常に、ユーザ装置側の対応するモジュールの同じ機能、つまり要約、集約、及び結合をバックエンド側で行うことができる。但しバックエンド側のこのモジュールは、ユーザ装置上の対応するモジュールが適用しなければならない機械学習モジュールのためのパラメータ等、データ処理規則及び/又はAI規則を決定する。これらの規則は中心的に決定され、規則の実際の適用はユーザ装置に委ねられる。
対話検証モジュール22は、問題となる対話が実際にシミュレートされた又はシミュレートされていない不正認証の事例であったかどうかを一定の信頼度で確かめることができるモジュールである。
顧客通信モジュール23は顧客のITシステムと対話確認バックエンドとの間のインタフェースを実装し、顧客は、問題となる対話に対して対話確認が行われることを要求することができ、対話検証モジュールによって与えられる検査結果を受信する。顧客は対話の確認を要求するエンティティである。対話はユーザ装置を介してユーザによって行われる対話とすることができ、ユーザの認証を含み得る。
図4は、ユーザ機器1a及び対話確認システム2を含むシステムの一例を示す概略図である。図4に示すように、所与の対話に関連する第1の時間間隔以外の時間に関係する第1の抽象化データ31及び所与の対話に関連する第1の時間間隔に関係する第2の抽象化データ32を生成するために、少なくとも1つのセンサを含むハードウェア要素4からのデータがハードウェア抽象化モジュール5によって処理される。第1のユーザ挙動データ33を生成するために第1の抽象化データ31がユーザ挙動モジュール10によって処理され、第2のユーザ挙動データ34を生成するために第2の抽象化データ32が対話挙動モジュール11によって処理される。この事例では第1のユーザ挙動データ33及び第2のユーザ挙動データ34を含むユーザ確認データが対話確認システム2に送信される。対話確認システム2において、ユーザ確認データが、顧客及びエンドユーザプロファイルモジュール16、データ処理モジュール17、及び対話検証モジュール22によって処理される。これにより、識別された時間間隔の中でユーザ装置と対話しているユーザが、他の時間に装置と対話したユーザと同じユーザかどうかの確率の指示であり得る出力35がもたらされる。
図5は、第1のユーザ挙動データ33及び第2のユーザ挙動データ34を生成するためにユーザ装置内のプロセッサ36上で実行される機械学習モデル37を使用する、ユーザ機器1a及び対話確認システム2を含むシステムを示す概略図である。第1のユーザ挙動データ33及び第2のユーザ挙動データ34は、識別された時間間隔の中でユーザ装置と対話しているユーザが、他の時間に装置と対話したユーザと同じユーザかどうかの確率の指示であり得る出力35を生成するために対話確認システム内で処理され得る。
図6は、ユーザ装置内の機械学習モデル37が、この例では第1の及び第2のユーザ挙動データを含まないユーザ確認データ14を生成することを除き図5のものと同様の、ユーザ機器及び対話確認システムを含むシステムを示す概略図である。この例では、第1の及び第2のユーザ挙動データが機械学習モデルに入力される。
図7は、対話確認システムにおける機械学習モデル38の訓練を示す。対話確認システムにおける機械学習モデル38はユーザ装置内の機械学習モデル37と同様の特徴を有し、そのため対話確認システムにおける機械学習モデル38に関して学習されるパラメータはユーザ装置内の機械学習モデル37に使用することができる。図8は、対話確認システムから各ユーザ機器内の機械学習モデルに機械学習モデルのパラメータを送信することを示す。
図8に示すように、各ユーザ装置1a、1b、1cにおける機械学習モデル(ディープニューラルネットワーク(DNN)と慣習的に呼ばれ得るニューラルネットワークモデル等)及びバックエンドシステム2における複製があり得る。バックエンドシステムにおける機械学習モデルは、トライアルデータを使用してライブシステムの導入前に訓練することができる。次いで、訓練から生じる機械学習モデルのためのパラメータ(DNNの場合は重み等)がユーザ装置の機械学習モデル上にロードするために送信され得る。このことは、プライバシの問題がそれほど制約にならない可能性がある状況でトライアルデータを得ることを可能にする。プライバシの要件が認める場合、ライブシステムからのデータを使用して機械学習モデルを訓練することが可能であり得る。ユーザ装置における機械学習モデル内で使用するために、更新済みの重みがユーザ装置に周期的に送信され得る。典型的には訓練段階及び導入段階がある。訓練段階では、導入システムの最終的なエンドユーザを必ずしも含まない多数のユーザの例からのデータの例を用いてバックエンドにおける機械学習モデルが訓練される。
第1の例では、バッチ単位のデータを供給することによってDNNが訓練され、各バッチは幾つかの対話を表すデータを含み、その殆どがその特定のバッチに関する所与のユーザからのものだが、異なるユーザからの1つ又は複数の対話が含まれる場合がある。この異なるユーザが不正な対話を表す。トライアル参加者からのデータの様々な組み合わせを使用し、訓練段階のためにこの種の多数のバッチをアセンブルする必要がある。各バッチについて、1人のトライアル参加者が正当なユーザとして指定され、バッチ内に対話が含まれる他の任意のトライアル参加者が不正ユーザとして指定される。
DNNは、バッチの対話のそれぞれについて対話が異常である、即ち異なるユーザからのものである確率を生成する。訓練中、知られている異常が1の確率でラベル付けされ、知られている正当な対話が0の確率でラベル付けされる。DNNは、ラベル付きの確率と予測される確率との間の不一致の損失関数特性を最小化するために、DNNのパラメータを更新するために使用される教師あり学習のプロセスによって訓練される。このようにしてDNNは、一連の対話に対応するデータを受け付けるように、及びそのそれぞれが異常、即ち不正である確率を生成するように訓練される。DNNは、一連の対話に対応するデータを同時に(即ちDNNの異なる入力が異なる対話に関するデータを受信しながら)受け付けるように構成することができ、又は一連の対話に対応するデータをシリアル式に受信するように(例えば再帰型ニューラルネットワーク(RNN)アーキテクチャ又は双方向RNNアーキテクチャを使用して)構成することができる。DNNのパラメータ(重み)はユーザ固有ではない。DNNは一連の対話の中の異常を検出するように訓練され、多数のデータセットにわたって訓練が進むにつれて検出の精度が改善するはずである。データは、装置の様々なセンサからの適切にフォーマットされ処理されたデータである。対話確認システム2に送信されるユーザ対話データ14は、各対話が異常である確率に関するデータを含み得る。データによって表される対話が異常である高い確率があることを機械学習モデルに第2のユーザ挙動データを適用することが示す場合、及びデータによって表される対話が異常である低い確率があることを機械学習モデルに第1のユーザ挙動データを適用することが示す場合、そのことがユーザ対話データによって示される。ユーザ確認システムは、第1のユーザ挙動データによって表されているように、識別された時間間隔の中でユーザ装置と対話しているユーザが、他の時間に装置と対話したユーザと同じユーザかどうかを判定するためにユーザ対話データを処理する。
「対話」のための入力データは、一部の事例では必ずしも実際の対話ではなく或る期間にわたるバックグランドデータとすることができる。しかし一部の事例では、例えば指紋センサ及び加速度計の組み合わせの場合、適切なデータは指紋センサを含む実際の対話に関するものである。
図9及び図10は第1の例を示す。訓練データのバッチを入力T~Tとして示し、Tはユーザ1の対話に関するデータであり、その後も同様に続く。訓練データの各バスTは、装置の幾つかの要素の出力、例えば指紋又は顔認識装置、慣性センサ及びカメラ、及び/又は電波センサの出力から導出されるデータの組を含み得る。
対話のそれぞれについて、対話が異常である確率を生成する。出力P~Pとして示され、Pは確率である、ユーザ1の異常、その後も同様に続く。DNNは複数のレイヤを有し、DNN1は入力レイヤであり、(DNN2...DNN(N))は隠れレイヤである。実線矢印は、訓練中に流れる及び導入システム内の前方パスデータを表す。破線矢印は、訓練中だけの逆伝搬を表す。
訓練データの各バスTは、時間の関数として装置の幾つかの要素の出力、例えば慣性センサ及びカメラの出力から導出されるデータの組を含み得る。
第2の例では、トライアルデータ内の対話をカテゴリへとソートするための教師なし学習を使用して機械学習モデルが訓練される。カテゴリは所謂クラスタとすることができ、機械学習モデルはクラスタリングアルゴリズム、例えばk平均クラスタリング、ガウス混合クラスタリング、又はDNNベースのクラスタリングを実装し得る。このプロセスにより、カテゴリが何であるべきかを事前に言われることなしに、機械学習モデルは同様の対話のクラスタを識別することを学習する。機械学習プロセスは対話を例えばk数のクラスタへと分けることができ、kの数は所定とすることができ又はデータから学習され得る。クラスタの数は、典型的にはユーザの数よりもはるかに少ない。
導入されると、機械学習モデルは個々の対話を処理して対話がどのクラスタに属するのかを推定することができる。機械学習モデルは、ユーザ機器の各対話がどのクラスタに属するのか直接明らかにすることができ、又はユーザ機器の各対話が各クラスタ内にある確率を生成することができる。このことから、対話の1つが異なるクラスタ内にある又は異なるクラスタ内にある確率が高く、そのため異常であることを判定することができる。或いは全ての対話が同じクラスタ内にあると判定することができ、又は各クラスタ内にある同様の確率を有することができ、そのことは同じユーザが各対話に関与したことの指示であり得る。対話確認システム2に送信されるユーザ対話データ14は、クラスタに対するデータ関連対話を含み得る。
第1の例及び第2の例では、標準ソフトウェアライブラリを使用して機械学習モデルを実装することができ、コードが訓練前にバックエンドにおいてコンパイルされる。バックエンドにおける機械学習モデルが訓練されると、機械学習モデルのためのパラメータがユーザ機器の機械学習モデル上にロードするためにユーザ機器に送信される。導入される機械学習モデルは、例えば標準的なGPUプロセッサ又は他の処理手段を実行するファームウェア又はソフトウェアを使用して実装され得る。
他の例では、必ずしも機械学習によって訓練されなくてもよいデータ処理モジュールを実装するためにデジタル信号処理が使用され得る。デジタル信号処理は、以下のように動作する要約7、集約8、及び結合9の機能を含み得る。要約機能は、典型的には正規化形式にある生データを、他の機能モジュールによって入力として必要とされ得る一部の主要素を保持する要約へと変換する。例えば顔認識機能は、カメラによって作り出される生データを捕捉し、装置を使用している人物の顔が人物「B」ではなく人物「A」に対応するかどうかを判定することができる。別の例として、例えば片手若しくは両手で又は一定の指だけを使用してタイプ入力することによって装置上の一定のテキストが入力されたかどうかを適切な機能が判定し得る。
集約機能8は、装置を使用する典型的なやり方を後で識別するために、生の又は既に要約されたデータに対して統計的解析を実行する。一部のユーザは長いメッセージを短いメッセージに分ける傾向があるのに対し、他のユーザは代わりに単一の長いメッセージをタイプ入力するので、例えば或る機能はメッセージングシステム上でタイプ入力されるテキストメッセージの平均の長さを評価し得る。別の例として、或る機能は顔認識が装置の前にいる(その装置の通常ユーザである可能性が高い)同じ人物を常に識別するのか、又はその装置が様々な人によって頻繁に使用されるのかを評価し得る。
結合機能9の機能は、ユーザ装置の複数の要素、例えばセンサから生じた生の又は既に要約された又は集約されたデータを新たな種類のデータへと組み合わせることを可能にし、そのデータはその後更に再び要約され、集約され、又は結合され得る。例えばユーザを認識することが両方の情報を一緒に利用するやり方で、複数の指を使ってタイプ入力するかどうか等のキーボードの使用、スワイプ等に関係する情報とビデオデータとを組み合わせることができる。
概して、他のモジュールに有用な情報を最善に与えるために、やはり更に組み合わせられる様々なレベルのデータ処理、集約、及び結合が存在し得る。
上記の機能は、プログラムされたアルゴリズム及び人工知能(AI)アルゴリズムという、相互排他的ではなく組み合わせることができる2つの異なる手法を使用して実装することができる。プログラムされたアルゴリズムを使用し、コンピュータプログラミング言語によって与えられる機能に基本的に対応するステートメント、数式、条件式等の自動化されたシーケンスを適用することによって出力、つまり処理済みデータが計算される。人工知能アルゴリズムを使用し、出力は、過去に収集された既存のデータセットを処理することによって計算システムが取得する経験に由来する規則を適用した結果である。既存の訓練データセットからの経験が将来のデータセットに適用されるデータ処理規則へと変換される機械学習はAIアルゴリズムのコンポーネントであり得る。
どちらの手法も規則を利用し、規則は、プログラムされたアルゴリズムではステートメント、数式等によって表されるのに対し、AIの脈絡では一定のトポロジ及びネットワークのノード間の接続上の適切な重みを有するニューラルネットワーク等の異なる手段によって表される。かかる規則はユーザ装置側で適用される。代わりにバックエンド側の対応するデータ処理及び人工知能モジュールが、ユーザ装置側で適用すべき規則を決定することに主に充てられる。
ユーザ挙動モジュールは、概念的に更なる集約を行う追加のデータ処理/AIモジュールだが、装置が毎日及び毎週使用される典型的なやり方を識別するように特に設計される。装置使用の識別、装置がどの程度使用されるのか(例えばオフにされる、アイドル、充電中、メッセージング、電話による通信、インターネットの閲覧、電子メールを読むこと等)、及びそれがどの時刻に及びどの曜日に行われるのか、典型的な照明及び背景雑音条件、GNSS並びに他の手段(例えば周囲のWiFi、SSID、Bluetooth装置等)を使用して明らかにされる典型的な訪問地、並びにキーボード及びマウスの典型的な使用(片手若しくは両手及び/又はタイプ入力のための特定の指等を使用してキーを押すこと又はスワイプすること)等のユーザ挙動インジケータが決定される。
対話挙動モジュール11はユーザ挙動モジュール10に対して同様の機能を実行するが、機能は対話が行われる前の、その間の、及びその後の一定期間にわたって収集されるデータに特に基づく。対話は任意の時間に開始することができ、対話が開始する前の或る期間にわたるデータの可用性を必要とするので、対話の開始時に必要とされるデータを保存するためのバッファとして循環メモリが使用される。このモジュールの目的は、とりわけ顧客に関係する対話中にユーザの挙動を決定することである。
第1のシナリオでは、バックエンドへの通信チャネルが利用可能になり次第、収集され記憶される全てのデータがバックエンドに送信される。たとえユーザ装置が事故によって又は作為的なサボタージュによって破壊され又はデータのセキュリティが侵害されても、この通信設定は対話確認を行うためのバックエンドに対するデータの最大限の可用性を確実にするのに最適である。しかし、法的(例えばプライバシ上の)制約によりこの設定を使用できない場合がある。
第2のシナリオでは、データがユーザ装置内に記憶されたままであり、問題となる対話が生じるとき1組の最低限のデータだけがバックエンドに伝送される。この通信設定はプライバシの観点から最も安全だが、装置の損傷/サボタージュに対して最も弱い。
第1のシナリオ及び第2のシナリオの上記の2つの極端な手段間の妥協案がこのモジュールによって実装され、バックエンド内にある顧客及びエンドユーザプロファイルモジュールによって他の全ての構成設定と共に制御される。
このモジュールは、対話を行うための顧客のアプリケーションと、即ちユーザ装置上で実行されるソフトウェアとローカルに(即ちユーザ装置上で)通信も行う。顧客のアプリケーションと対話確認システムとの間で固有の対話IDが割り当てられ共有される。このモジュールは、シングルサインオン(SSO)手続き、即ち顧客のアプリケーション並びにバックグランドで機能する対話確認機能の両方に対して機能するシングルログインを使用してバックエンドシステムにユーザをログインすることも担う。
収集され処理される他のセンサからのデータを利用する、指紋認識、顔認識、及び話者認識に基づく認証の確認の例は以下の通りである。
指紋認識に基づく認証の確認
不正なりすましを行うために本物の人物の人工的な指紋を作成し、指紋認識システムに提出することを可能にする指紋スプーフィングの幾つかの技法が知られている。これらの指紋スプーフィング技法は、様々な材料、例えばシリコン及びゼラチンで作られた指紋の人工的な複製を電子捕捉装置に提出することによって指紋確認システムを騙せることを実証してきた。その後、それらの画像は「真」の指紋として処理され、従って実行可能な不正なりすましを引き起こす。
上記の結果として、提出された指紋の真正性を検査することを狙うアルゴリズムが開発されている。例えば「活性検出」と命名された、提案された技法の1つは、画像処理アルゴリズムを適用することによって指紋画像自体の特性から活性を測定しようと試みる。他の技法も提案されている。これらの技法は、存在するとき指紋スプーフィングの試みが不正認証の成功を招く可能性を下げることを助けるが、この種のアルゴリズムはまだ100%は信頼できない。そのため、最も洗練された真正性検査アルゴリズムが使用される場合にさえ不正認証が生じる未解決の可能性が残る。
かかる真正性検査アルゴリズムの制限は、指紋が認識されている実際の人物によって提出されたのか又はスプーフィングされた指紋を使用する他の誰かによって提出されたのかをより正確に評価することを助け得る他のセンサを使用することなしに、提出された指紋の真正性を判定するために指紋画像の特性しか検討しないことである。「単一センサ指紋認識」という用語は、ことによると真正性検査アルゴリズムによって補完され、指紋センサから生じるデータに基づく指紋認識を実行するシステム及びアルゴリズムを記載するために使用され得る。
この例の特性は、指紋認識の真正性が問題となるたびに単一センサ指紋認識システムからのデータが他のセンサから生じるデータと組み合わせられることである。
一例として、単一センサ指紋認識システムから生じるデータは、現代の殆どのスマートフォン及びタブレットの中にある加速度計及び/又はジャイロスコープと呼ばれ得る慣性センサによって与えられるデータと組み合わせることができる。両方のセンサからのデータを組み合わせるように想定されたアルゴリズムは下記の通りである。
慣性センサからの生データ(3軸加速度及び/又は3軸角速度)が絶えず収集され、数秒の生の慣性データを記憶するのに十分大きい循環メモリ内に記憶される。
指紋認識が行われるたびに、指紋認識の前に、その間に、及びその後で数秒間記録される生の慣性センサデータがローカル永続メモリに保存及び記憶される。「永続メモリ」という用語は、装置がオフにされた場合にも及びデータがバックエンドに伝送されるまで利用可能データを保持することができる装置内のデータ記憶領域を識別するために使用される。そのため永続メモリは実際には一時的な記憶域であり、先に定めた意味で、即ち電源オフ/オンの周期を通してデータが保持されるという意味で「永続的」である。
活性検出アルゴリズム又は他の単一センサ真正性検査アルゴリズムがスマートフォン/タブレット上で適用される場合、かかるアルゴリズムの結果もローカル永続メモリに保存される。
タイムスタンプ参照によって正式にタグ付けされる、ローカル永続メモリに保存されるデータはバックエンドシステムに直ちに又は後で送信される。
次いで、指紋認識の前に、その間に、及びその後で数秒間生じたスマートフォン/タブレットの動きが、文献内で入手可能な任意の軌道再構築アルゴリズムを使用して収集済みの生の慣性データから再構築される。この再構築は、スマートフォン/タブレット上でローカルに(その後再構築済みの軌道が保存されバックエンドシステムに送信される)又はバックエンドシステム上で(スマートフォン/タブレットから受信される生の慣性センサデータに基づいて)行われ得るデータ要約及び集約の一形式である。
一定の指紋認識が問題となった場合に後で処理するために、ユーザが行う指紋認識のそれぞれについてバックエンドシステムが上記のデータをデータベース内に記憶する。
指紋認識が問題となるたびに、同じスマートフォン/タブレットを用いて同じユーザに関して行われる指紋認識ごとに収集されたデータをバックエンドシステムがデータベースから取得する。収集されるスマートフォンの軌道が互いに、及び問題となる認識について記録された軌道と比較され、運動機能と見なされるかかる軌道が同様かどうかを評価することを可能にする任意の技法(例えば相互相関、パターン認識)を使用し、問題となる認識について記録された軌道と他の認識について記録された全ての軌道との間の類似度が計算される。パターン認識のための人工知能アルゴリズムもこの目的で使用することができる。
上記のアルゴリズムの結果は、指紋認識が行われたときスマートフォン/タブレットが動かされたやり方に関する評定である。正当なユーザが指紋認識を行うとき、そのユーザは指紋センサへの指紋の提示を容易にするためにスマートフォン/タブレットを特定のやり方で動かす(例えばスマートフォンを左又は右に僅かに回転させる)可能性が高い。スプーフィングされた指紋が使用された場合、行われる動きが異なる可能性が高く、従って他の(推定上スプーフィングされていない)認識と類似性を欠くことに基づいてその異常な動きが認識され得る。認識の推定される真正性に関するより正確な評定を得るために、(スマートフォン上で初めから実行される、又はバックエンドシステム上で計算/再計算される)活性検出又は他の単一センサ真正性検査アルゴリズムの結果をスマートフォン/タブレットの軌道の類似度の計算結果と組み合わせることもできる。
本発明の範囲内の更なる例として、単一センサ指紋認識システムから生じるデータは、全てのスマートフォン/タブレット/ラップトップ内にあるRFインタフェースによって与えられるデータと組み合わせることができる。両方のセンサからのデータを組み合わせるためのアルゴリズムの一例は下記の通りである。
指紋認識が行われるたびに、受信されるGSMセルのID、受信されるWiFiネットワークのSSID、アドバタイズモードにある周囲の中の任意のBluetooth装置のBluetoothアドレス、もしある場合はGNSS位置、又はもしある場合は分かっている最後のGNSS位置等の装置を取り巻く現在のRF環境を表すデータが収集されるように、スマートフォン/タブレット/ラップトップのRFインタフェースが活性化される。現在のRF環境に関連するこのような「RFスナップショット情報」は装置のローカル永続メモリに保存される。
活性検出アルゴリズム又は他の単一センサ真正性検査アルゴリズムが装置上で適用される場合、かかるアルゴリズムの結果もローカル永続メモリに保存される。
タイムスタンプ参照によって正式にタグ付けされる、ローカル永続メモリに保存されるデータはバックエンドシステムに直ちに又は後で送信される。
一定の指紋認識が問題となった場合に後で処理するために、ユーザが行う指紋認識ごとにバックエンドシステムが上記のデータをデータベース内に記憶する。
指紋認識が問題となるたびに、それぞれについて収集されたデータをバックエンドシステムがデータベースから取得し、同じ装置を用いて同じユーザに関して行われる指紋認識。収集されるRFスナップショット情報がそれらの間で及び問題となる認識について記録されたRFスナップショットと比較され、かかるRFスナップショットが同様かどうかを評価することを可能にする任意の技法を使用し、問題となる認識について記録されたRFスナップショットと他の認識について記録された全てのRFスナップショットとの間の類似度が計算される。
上記のアルゴリズムの結果は、装置を取り巻くRF環境がそのユーザによって及びその装置によって通常経験される他のRF環境に対して信頼できるかどうかを評価するための、指紋認識が行われたときの装置を取り巻くRF環境に関する評定である。認識の推定される真正性に関するより正確な評定を得るために、(スマートフォン上で初めから実行される、又はバックエンドシステム上で計算/再計算される)活性検出又は他の単一センサ真正性検査アルゴリズムの結果は、RFスナップショットの類似度の計算結果と組み合わせることもできる。
更なる例として、単一センサ指紋認識システムから生じるデータは、現代の全てのスマートフォン及びタブレット内にある(フロント及び/又はリア)カメラによって与えられるデータと組み合わせることができる。両方のセンサからのデータを組み合わせるために想定されたアルゴリズムは下記の通りである。
カメラからの生画像データが絶えず収集され、数秒の生データを記憶するのに十分大きい循環メモリ内に記憶される。
指紋認識が行われるたびに、指紋認識の前に、その間に、及びその後で数秒間記録される生画像データがローカル永続メモリに保存及び記憶される。
活性検出アルゴリズム又は他の単一センサ真正性検査アルゴリズムがスマートフォン/タブレット上で適用される場合、かかるアルゴリズムの結果もローカル永続メモリに保存される。
タイムスタンプ参照によって正式にタグ付けされる、ローカル永続メモリに保存されるデータはバックエンドシステムに直ちに又は後で送信される。
(慣性データの代わりに画像上の仮現運動(apparent movement)を使用して慣性センサの事例と同様に)指紋認識の前に、その間に、及びその後で数秒間生じたスマートフォン/タブレットの動きの両方を再構築するために、及び周囲にある視覚的要素(対象物、顔、背景特性等)を識別するために収集済みの生画像データが処理される。これらの再構築及び識別は、スマートフォン/タブレット上でローカルに(その後再構築済みの軌道及び識別済みの要素が保存されバックエンドシステムに送信される)又はバックエンドシステム上で(スマートフォン/タブレットから受信される生画像データに基づいて)行われ得るデータ要約及び集約の形式である。
一定の指紋認識が問題となった場合に後で処理するために、ユーザが行うそれぞれの及び全ての指紋認識についてバックエンドシステムが上記のデータをデータベース内に記憶する。
指紋認識が問題となるたびに、同じスマートフォン/タブレットを用いて同じユーザに関して行われるそれぞれの及び全ての指紋認識について収集された全てのデータをバックエンドシステムがデータベースから取得する。収集された全てのスマートフォン/タブレットの軌道及び全ての識別済みの視覚的要素が、それらの間で及び問題となる認識について記録されたデータと比較され、かかるデータが同様かどうか、問題となる認識について記録されたデータと他の認識について記録された全てのデータとの間の類似度が計算される。
この場合もやはり上記のアルゴリズムの結果は、他の(推定上スプーフィングされていない)認識中に収集された対応するデータと比較した、指紋認識が行われたときスマートフォン/タブレットが動かされたやり方及びどの視覚的要素があったのかに関する評定である。
顔認識に基づく認証の確認
指紋認識の場合と同様に顔認識の場合、実際の人物の顔の人工/近似再構築を顔認識システムに提出し、実際の人物の顔であったかのようにその顔が認識されることを得る幾つかの技法が知られている。指紋認識の場合と同様に、顔認識のスプーフィングの試みが不正認証の成功を招く可能性を下げるアルゴリズム(まばたき又は光強度の変化を受けたときの瞳孔の拡張等の動きを検査することに基づく特定の活性検出アルゴリズムを含む)が開発されている。しかし、この種のアルゴリズムはまだ100%は信頼できず、最も洗練された真正性検査アルゴリズムが使用される場合にさえ不正認証が生じる未解決の可能性が残る。
指紋認識に関して既に記載したように、この例の主要特性は、顔認識の真正性が問題となるたびに全体的な真正性検査の性能を改善するために、単一センサ顔認識システム(即ち1つ又は複数のカメラを使用する従来のシステム)からのデータが他のセンサから生じるデータと組み合わせられることである。
一例として、単一センサ顔認識システムから生じるデータは、現代の殆どのスマートフォン及びタブレットの中にある慣性センサ(加速度計及び/又はジャイロスコープ)によって与えられるデータと組み合わせることができる。両方のセンサからのデータを組み合わせるように想定されたアルゴリズムは下記の通りである。
慣性センサからの生データ(3軸加速度及び/又は3軸角速度)が絶えず収集され、数秒の生の慣性データを記憶するのに十分大きい循環メモリ内に記憶される。
顔認識が行われるたびに、顔認識の前に、その間に、及びその後で数秒間記録される生の慣性センサデータがローカル永続メモリに保存及び記憶される。
活性検出アルゴリズム又は他の単一センサ真正性検査アルゴリズムがスマートフォン/タブレット上で適用される場合、かかるアルゴリズムの結果もローカル永続メモリに保存される。
タイムスタンプ参照によって正式にタグ付けされる、ローカル永続メモリに保存されるデータはバックエンドシステムに直ちに又は後で送信される。
次いで、顔認識の前に、その間に、及びその後で数秒間生じたスマートフォン/タブレットの動きが、文献内で入手可能な任意の軌道再構築アルゴリズムを使用して収集済みの生の慣性データから再構築される。この再構築は、スマートフォン/タブレット上でローカルに(その後再構築済みの軌道が保存されバックエンドシステムに送信される)又はバックエンドシステム上で(スマートフォン/タブレットから受信される生の慣性センサデータに基づいて)行われ得るデータ要約及び集約の一形式である。
一定の顔認識が問題となった場合に後で処理するために、ユーザが行う顔認識ごとにバックエンドシステムが上記のデータをデータベース内に記憶する。
顔認識が問題となるたびに、同じスマートフォン/タブレットを用いて同じユーザに関して行われるそれぞれの及び全ての顔認識について収集された全てのデータをバックエンドシステムがデータベースから取得する。収集される全てのスマートフォンの軌道がそれらの間で及び問題となる認識について記録された軌道と比較され、運動機能と見なされるかかる軌道が同様かどうかを評価することを可能にする任意の技法(例えば相互相関、パターン認識)を使用し、問題となる認識について記録された軌道と他の認識について記録された全ての軌道との間の類似度が計算される。パターン認識のための人工知能アルゴリズムもこの目的で使用することができる。
上記のアルゴリズムの結果は、顔認識が行われたときスマートフォン/タブレットが動かされたやり方に関する評価である。正当なユーザが顔認識を行うとき、そのユーザはカメラへの顔の提示を容易にするためにスマートフォン/タブレットを特定のやり方で動かす(例えばスマートフォンを左又は右に僅かに回転させる)可能性が高い。スプーフィングされた顔画像が使用された場合、行われる動きが異なる可能性が高く、従って他の(推定上スプーフィングされていない)認識と類似性を欠くことに基づいてその異常な動きが認識され得る。認識の推定される真正性に関するより正確な評定を得るために、(スマートフォン上で初めから実行される、又はバックエンドシステム上で計算/再計算される)他の単一センサ真正性検査アルゴリズムの結果をスマートフォン/タブレットの軌道の類似度の計算結果と組み合わせることもできる。
更なる例として、単一センサ顔認識システムから生じるデータは、全てのスマートフォン/タブレット/ラップトップ内にあるRFインタフェースによって与えられるデータと組み合わせることができる。両方のセンサからのデータを組み合わせるように想定されたアルゴリズムは下記の通りである。
顔認識が行われるたびに、受信されるGSMセルのID、受信されるWiFiネットワークのSSID、アドバタイズモードにある周囲の中の任意のBluetooth装置のBluetoothアドレス、もしある場合はGNSS位置、又はもしある場合は分かっている最後のGNSS位置等の装置を取り巻く現在のRF環境を表すデータが収集されるように、スマートフォン/タブレット/ラップトップのRFインタフェースが活性化される。現在のRF環境に関連するこのような「RFスナップショット情報」は装置のローカル永続メモリに保存される。
活性検出アルゴリズム又は他の単一センサ真正性検査アルゴリズムが装置上で適用される場合、かかるアルゴリズムの結果もローカル永続メモリに保存される。
タイムスタンプ参照によって正式にタグ付けされる、ローカル永続メモリに保存されるデータはバックエンドシステムに直ちに又は後で送信される。
一定の顔認識が問題となった場合に後で処理するために、ユーザが行う顔認識ごとにバックエンドシステムが上記のデータをデータベース内に記憶する。
顔認識が問題となるたびに、同じ装置を用いて同じユーザに関して行われるそれぞれの及び全ての顔認識について収集された全てのデータをバックエンドシステムがデータベースから取得する。収集される全てのRFスナップショット情報がそれらの間で及び問題となる認識について記録されたRFスナップショットと比較され、かかるRFスナップショットが同様かどうかを評価することを可能にする任意の技法を使用し、問題となる認識について記録されたRFスナップショットと他の認識について記録されたRFスナップショットとの間の類似度が計算される。
上記のアルゴリズムの結果は、装置を取り巻くRF環境がそのユーザによって及びその装置によって通常経験される他のRF環境に対して信頼できるかどうかを評価するための、顔認識が行われたときの装置を取り巻くRF環境に関する評価である。認識の推定される真正性に関するより正確な評定を得るために、(スマートフォン上で初めから実行される、又はバックエンドシステム上で計算/再計算される)活性検出又は他の単一センサ真正性検査アルゴリズムの結果は、RFスナップショットの類似度の計算結果と組み合わせることもできる。
話者認識に基づく認証の確認
話者認識の場合にも、実際の特定の人物の声であるかのように(真似された、合成された、又は録音された)声が認識されることを得る幾つかの技法が知られている。従って、話者認識のスプーフィングの試みが不正認証の成功を招く可能性を下げるアルゴリズム(様々な質問に答えることを要求する活性検出アルゴリズム等)が開発されている。しかし、やはりこの種のアルゴリズムはまだ100%は信頼できず、最も洗練された真正性検査アルゴリズムが使用される場合にさえ不正認証が生じる未解決の可能性が残る。
指紋及び顔認証に関して既に記載したように、この例の主要特性は、話者認識の真正性が問題となるたびに全体的な真正性検査の性能を改善するために、話者認識システム(即ち1つ又は複数のマイクロホンを使用する従来のシステム)からのデータが他のセンサから生じるデータと組み合わせられることである。
一例として、話者認識システムから生じるデータは、現代の殆どのスマートフォン及びタブレットの中にある慣性センサ(加速度計及び/又はジャイロスコープ)によって与えられるデータと組み合わせることができる。両方のセンサからのデータを組み合わせるように想定されたアルゴリズムは下記の通りである。
慣性センサからの生データ(3軸加速度及び/又は3軸角速度)が絶えず収集され、数秒の生の慣性データを記憶するのに十分大きい循環メモリ内に記憶される。
話者認識が行われるたびに、話者認識の前に、その間に、及びその後で数秒間記録される生の慣性センサデータがローカル永続メモリに保存及び記憶される。
活性検出アルゴリズム又は他の単一センサ真正性検査アルゴリズムがスマートフォン/タブレット上で適用される場合、かかるアルゴリズムの結果もローカル永続メモリに保存される。
タイムスタンプ参照によって正式にタグ付けされる、ローカル永続メモリに保存されるデータはバックエンドシステムに直ちに又は後で送信される。
次いで、話者認識の前に、その間に、及びその後で数秒間生じたスマートフォン/タブレットの動きが、文献内で入手可能な任意の軌道再構築アルゴリズムを使用して収集済みの生の慣性データから再構築される。この再構築は、スマートフォン/タブレット上でローカルに(その後再構築済みの軌道が保存されバックエンドシステムに送信される)又はバックエンドシステム上で(スマートフォン/タブレットから受信される生の慣性センサデータに基づいて)行われ得るデータ要約及び集約の一形式である。
一定の話者認識が問題となった場合に後で処理するために、ユーザが行うそれぞれの及び全ての話者認識についてバックエンドシステムが上記のデータをデータベース内に記憶する。
話者認識が問題となるたびに、同じスマートフォン/タブレットを用いて同じユーザに関して行われるそれぞれの及び全ての話者認識について収集された全てのデータをバックエンドシステムがデータベースから取得する。収集される全てのスマートフォンの軌道がそれらの間で及び問題となる認識について記録された軌道と比較され、運動機能と見なされるかかる軌道が同様かどうかを評価することを可能にする任意の技法(例えば相互相関、パターン認識)を使用し、問題となる認識について記録された軌道と他の認識について記録された全ての軌道との間の類似度が計算される。パターン認識のための人工知能アルゴリズムもこの目的で使用することができる。
上記のアルゴリズムの結果は、話者認識が行われたときスマートフォン/タブレットが動かされたやり方に関する評価である。正当なユーザが話者認識を行うとき、そのユーザはマイクロホンへの声の提示を容易にするためにスマートフォン/タブレットを特定のやり方で動かす(例えばスマートフォンを左若しくは右に又は上若しくは下に僅かに回転させる)可能性が高い。スプーフィングされた声が使用された場合、行われる動きが異なる可能性が高く、従って他の(推定上スプーフィングされていない)認識と類似性を欠くことに基づいてその異常な動きが認識され得る。認識の推定される真正性に関するより正確な評定を得るために、(スマートフォン上で初めから実行される、又はバックエンドシステム上で計算/再計算される)他の真正性検査アルゴリズムの結果をスマートフォン/タブレットの軌道の類似度の計算結果と組み合わせることもできる。
更なる例として、話者認識システムから生じるデータは、全てのスマートフォン/タブレット/ラップトップ内にあるRFインタフェースによって与えられるデータと組み合わせることができる。両方のセンサからのデータを組み合わせるように想定されたアルゴリズムは下記の通りである。
話者認識が行われるたびに、受信されるGSMセルのID、受信されるWiFiネットワークのSSID、アドバタイズモードにある周囲の中の任意のBluetooth装置のBluetoothアドレス、もしある場合はGNSS位置、又はもしある場合は分かっている最後のGNSS位置等の装置を取り巻く現在のRF環境を表すデータが収集されるように、スマートフォン/タブレット/ラップトップのRFインタフェースが活性化される。現在のRF環境に関連するこのような「RFスナップショット情報」は装置のローカル永続メモリに保存される。
活性検出アルゴリズム又は他の単一センサ真正性検査アルゴリズムが装置上で適用される場合、かかるアルゴリズムの結果もローカル永続メモリに保存される。
タイムスタンプ参照によって正式にタグ付けされる、ローカル永続メモリに保存されるデータはバックエンドシステムに直ちに又は後で送信される。
一定の話者認識が問題となった場合に後で処理するために、ユーザが行うそれぞれの及び全ての話者認識についてバックエンドシステムが上記のデータをデータベース内に記憶する。
話者認識が問題となるたびに、同じ装置を用いて同じユーザに関して行われるそれぞれの及び全ての話者認識について収集された全てのデータをバックエンドシステムがデータベースから取得する。収集される全てのRFスナップショット情報がそれらの間で及び問題となる認識について記録されたRFスナップショットと比較され、かかるRFスナップショットが同様かどうかを評価することを可能にする任意の技法を使用し、問題となる認識について記録されたRFスナップショットと他の認識について記録された全てのRFスナップショットとの間の類似度が計算される。
上記のアルゴリズムの結果は、装置を取り巻くRF環境がそのユーザによって及びその装置によって通常経験される他のRF環境に対して信頼できるかどうかを評価するための、話者認識が行われたときの装置を取り巻くRF環境に関する評価である。認識の推定される真正性に関するより正確な評定を得るために、(スマートフォン上で初めから実行される、又はバックエンドシステム上で計算/再計算される)活性検出又は他の真正性検査アルゴリズムの結果は、RFスナップショットの類似度の計算結果と組み合わせることもできる。
本発明の範囲内の更なる例として、話者認識システムから生じるデータは、現代の全てのスマートフォン及びタブレット内にある(フロント及び/又はリア)カメラによって与えられるデータと組み合わせることができる。両方のセンサからのデータを組み合わせるために想定されたアルゴリズムは下記の通りである。
カメラからの生画像データが絶えず収集され、数秒の生データを記憶するのに十分大きい循環メモリ内に記憶される。
話者認識が行われるたびに、話者認識の前に、その間に、及びその後で数秒間記録される生画像データがローカル永続メモリに保存及び記憶される。
活性検出アルゴリズム又は他の単一センサ真正性検査アルゴリズムがスマートフォン/タブレット上で適用される場合、かかるアルゴリズムの結果もローカル永続メモリに保存される。
タイムスタンプ参照によって正式にタグ付けされる、ローカル永続メモリに保存されるデータはバックエンドシステムに直ちに又は後で送信される。
(慣性データの代わりに画像上の仮現運動を使用して慣性センサの事例と同様に)話者認識の前に、その間に、及びその後で数秒間生じたスマートフォン/タブレットの動きの両方を再構築するために、及び周囲にある視覚的要素(対象物、顔、背景特性等)を識別するために収集済みの生画像データが処理される。これらの再構築及び識別は、スマートフォン/タブレット上でローカルに(その後再構築済みの軌道及び識別済みの要素が保存されバックエンドシステムに送信される)又はバックエンドシステム上で(スマートフォン/タブレットから受信される生画像データに基づいて)行われ得るデータ要約及び集約の形式である。
一定の話者認識が問題となった場合に後で処理するために、ユーザが行うそれぞれの及び全ての話者認識についてバックエンドシステムが上記のデータをデータベース内に記憶する。
話者認識が問題となるたびに、同じスマートフォン/タブレットを用いて同じユーザに関して行われるそれぞれの及び全ての話者認識について収集された全てのデータをバックエンドシステムがデータベースから取得する。収集された全てのスマートフォン/タブレットの軌道及び全ての識別済みの視覚的要素が、それらの間で及び問題となる認識について記録されたデータと比較され、かかるデータが同様かどうか、問題となる認識について記録されたデータと他の認識について記録された全てのデータとの間の類似度が計算される。
この場合もやはり上記のアルゴリズムの結果は、他の(推定上スプーフィングされていない)認識中に収集された対応するデータと比較した、話者認識が行われたときスマートフォン/タブレットが動かされたやり方及びどの視覚的要素があったのかに関する評価である。
認証確認のためのデータの収集及び伝送
ユーザ装置(スマートフォン、タブレット、コンピュータ等)上のデータを収集し、認証確認のためにそのデータをバックエンドシステムに送信するプロセスは、モバイルアプリケーション内で呼び出すことができ、データの収集及びバックエンドへの送信を適時に担う所謂ソフトウェア開発キット(SDK)を使用して実行され得る。ディスパッチングとして通常知られるSDKのソフトウェア機能によって適切なときにバッチ単位でバックエンドに送信される前、収集されるデータは最初にモバイル装置のメモリ上にローカルに記憶される。一例では、ディスパッチングが30分ごとに行われてもよく、別の例では2分ごとに行われ得る。頻度は特定のアプリケーションに応じてカスタマイズすることができる。
ユーザ装置がパーソナルコンピュータである例では、JavaScriptコードのスニペットがデータを収集しバックエンドシステムに送信することができ、送信されるデータは所期の認証確認目的にとって重大なもの(例えば慣性センサデータ、RFセンサデータ、カメラデータ等)である。ユーザ装置が携帯電話である事例では、関連するデータの種類を収集し送り出すこの特定のアプリケーションのために特定のSDKが使用され開発され得る。不正認証に準じたデータがバックエンドに送信される前にもしかするとモバイル装置をオフにする又はことによると損傷/破壊するために認証確認が実行されることを防ぐ可能なやり方の1つとして、問題となる認証を確認するために送り出しは相当頻繁に、例えば2分おきに又はそれよりも頻繁に行われる。但し、装置がオフにされた又は破壊されたことを理由に問題となる認証に準じたデータが入手できないこと自体が、不正認証が行われた形跡になり得る。
モジュール間の信号の流れの例
図11は、新規ユーザの活性化に関連するコラボレーション図を示す。ユーザ又はエンドユーザは、典型的にはユーザ装置によって対話を行うはずの人物である。この人物は、問題となる対話をことによると検証するために対話確認方法を使用する、例えば銀行又はクレジットカード組織又は他の組織の顧客であり得る。
顧客は、問題となる対話をことによると検証するために対話確認方法を使用する、典型的には銀行、クレジットカード組織、又は他の組織(例えば対話確認サービスを他の組織に提供するサービスプロバイダ)である。
図11に示すように、新規のエンドユーザ(例えば新たな銀行口座又はクレジットカードの保有者)が顧客によって活性化されるとき、顧客のITシステム42と顧客通信モジュール23との間で第1の通信が生じる。顧客のITシステムは、新規のエンドユーザを追加しなければならないことを通信インタフェースによって対話確認システムに知らせ、関連する全ての情報(アプリケーション等によるデータの収集、データの伝送、プライバシ合意、SSOのためのパラメータに関する構成設定)が顧客通信モジュールに与えられ、対象ユーザについてユーザプロファイルが作成され永続的に記憶されるように、顧客通信モジュールは顧客及びエンドユーザプロファイルモジュール16と通信する。次いで操作の完了がシステムによって発信者に肯定応答される。
次いで、ユーザが顧客のアプリケーション(又はユーザ装置上で実行される等価の顧客アプリケーションソフトウェア)をダウンロードすることになっている。対話確認のためのユーザ装置モジュールは、顧客アプリケーションソフトウェア内にSDKとして統合される。エンドユーザが顧客のアプリケーションにログインし、SSOによりエンドユーザは対話確認機能に関しても識別されログインされる。このステップが生じるとき、図12に示すように更なるユーザ初期設定機能が実行される。
最初のログイン時に、ユーザ装置通信モジュール15及びバックエンド通信モジュール12の関与と共に、バックエンド内の顧客及びエンドユーザプロファイルモジュール16とユーザ装置上の記憶及びデータ保護モジュールとの間で通信チャネルが確立され、それによりユーザ装置は定められた規則(バックエンド側のデータ処理及び人工知能モジュールによって定められるデータ処理規則を含む)に従ってデータを収集し送信するようにプログラムされる。これは2つの顧客及びエンドユーザプロファイルモジュール(バックエンド内のものとユーザ装置側のもの)間のハンドシェイクを含み(上記の図中のより大きい破線矢印で示す)、そのため特定のユーザ装置に準じた情報(例えば装置上にどのセンサがあるのか、及びそうではなくどのセンサがないのか、センサの特性は何なのか等)がユーザプロファイルに追加され、最適なデータ処理規則がしかるべく選択される。次いでユーザ装置側で、顧客及びエンドユーザプロファイルモジュール16が、適用すべきデータ処理規則に関してデータ処理及び人工知能(AI)モジュール6(ユーザ装置側)に指示する。データ処理規則を含むエンドユーザプロファイルに関して何かが経時変化する場合(例えば収集されるデータに基づいてデータ処理規則に対する幾らかの改善が導入され得る)、全ての変更が同じハンドシェイクメカニズムによってバックエンドからエンドユーザ装置に又はその逆に伝搬される。
ユーザ装置が完全に初期設定されると、全てのモジュールが自らの機能によって必要とされる通りに及び関連するデータ処理規則を含む定められたユーザプロファイルにより、データを収集、処理、及びことによるとバックエンドに送信し始める。対話が行われるたびにデータが要求に応じて扱われ、後で対話を追跡することができるように固有の対話IDが対話に割り当てられる。
図13は、問題となる対話に関連するコラボレーション図を示す。問題となる対話が生じるとき、顧客のITシステム25が、一定の対話IDを検証する要求を通信インタフェースによって顧客通信モジュール23に提出する。顧客通信モジュール23が対話検証モジュール22を活性化し、対話検証モジュール22はデータ処理及び人工知能(AI)モジュール(バックエンド側)17を活性化し、データ処理及び人工知能モジュール17はそれを受けて所要のデータを記憶及びデータ保護モジュール24、13(バックエンドに既に伝送されているデータについてはバックエンド側のもの、バックエンドにまだ伝送されていないデータについてはユーザ装置側のもの)から取得する。ユーザ装置はオフ又は接続されていない場合があるのでユーザ装置からのデータ取得は即座でなくてもよく、そのためユーザ装置によって伝送されるデータのための要求は、エンドユーザ装置への接続が確立可能になり次第履行されるように待ち行列に入れられる。データが入手可能であり、対話検証モジュールからの応答の準備ができると、結果が顧客通信モジュールによって顧客のITシステムに伝達される。
このコラボレーション図は、例えば対話検証サービスが独立したエンティティ(即ち対話検証サービスプロバイダ-TVSP)によって複数の顧客(様々な銀行、クレジットカード組織、オンライン決済プロバイダ等)に提供される場合等、1つのバックエンドが複数の顧客の間で共用される事例を含まない。複数の顧客からの多くのエンドユーザを共有することはデータ処理システムを試験し微調整するためのより大きいデータセットを提供し、人工知能システムの場合はAIアルゴリズムを訓練し試験するためのより大きいデータセットを提供するのでTVSPの手法は貴重であり得る。
バックエンドシステムの構成
図14及び図15に2つのバックエンドシステムの構成例(専用バックエンド及び共用バックエンド)を示す。
専用バックエンドの場合、とりわけ顧客のITシステムと共同設置され物理的に統合される場合、図14に示すようにバックエンド自体26を顧客のITシステム25の一部と論理的に見なすことができる。
共用バックエンドの場合、物理的に共同設置されていようと更には同じクラウドサーバを共用しようと関係なく、図15の事例ではバックエンド27と様々な顧客のITシステムとの間の論理的な区別が重要である。この事例では、顧客通信モジュールが複数の顧客のITシステム28、29、30に論理的に及び物理的に接続され、そのそれぞれから対話検証要求を受信する準備ができている。顧客通信モジュールは、様々な顧客から生じる要求の所要の論理的区別を保つ関連する応答を提供する。
図16は、ステップS16.1、S16.2、S16.3、及びS16.4による、対話確認システム内で使用するためのユーザ確認データを生成するためにユーザ装置内のデータを処理する方法を示す流れ図である。
既に記載した例では、対話を取引、例えば金融取引を含む取引とすることができ、対話確認システムが取引確認システムと呼ばれ得る。例は、取引の確認、及び取引確認システム内で使用するためのユーザ確認データを生成するためにユーザ装置内のデータを処理する方法、及び取引が行われた後で取引を確認するためのシステムに関係し得る。ユーザのコンピュータによる認識は識別情報の検査であり得る。一例では、ユーザ装置の複数の異なる要素によってそのそれぞれが生成され、ユーザがユーザ装置と対話していることをそのそれぞれが表す第1の複数組のデータから第1のユーザ挙動データを導出すること、ユーザ装置のユーザを含む取引に関係する少なくとも第1の時間間隔を識別すること、装置の複数の異なる要素によってそのそれぞれが生成され、少なくとも第1の時間間隔の間にユーザがユーザ装置と対話していることをそのそれぞれが表す第2の複数組のデータから第2のユーザ挙動データを導出すること、及び装置から取引確認システムに第1のユーザ挙動データ及び第2のユーザ挙動データを含むユーザ確認データを伝送することを含む、取引確認システム内で使用するためのユーザ確認データを生成するためにユーザ装置内のデータを処理する方法が提供される。この方法は、例えば問題となる取引を調査して問題となる取引が所与のユーザの装置との対話を含んだ可能性を明らかにするために、確認システムが第1のユーザ挙動データ及び第2の挙動データを処理することを可能にする。
何れか1つの例に関して記載した如何なる特徴も単独で、又は記載した他の特徴と組み合わせて使用することができ、例の他の任意のものの1つ又は複数の特徴と組み合わせて、又は例の他の任意のものの任意の組み合わせで使用してもよいことが理解されよう。更に、添付の特許請求の範囲の中で定める本発明の範囲から逸脱することなしに、上記で記載していない等価物及び修正形態を用いることもできる。

Claims (28)

  1. ユーザ装置におけるデータを処理して対話確認システム内で使用するためのユーザ確認データを生成することにより、識別された時間間隔の中で前記ユーザ装置と対話しているユーザをコンピュータによって認識することを可能にするためのコンピュータによって実装される方法であって、
    第1の複数組のデータを処理することによって第1のユーザ挙動データを導出することであって、かかるデータのそれぞれは、少なくとも1つのセンサを含む前記ユーザ装置の複数の異なる要素によって生成され、ユーザが前記ユーザ装置と対話していることを表す、ことと、
    前記ユーザ装置のユーザの前記ユーザ装置との対話に関係する少なくとも第1の時間間隔を識別することと、
    第2の複数組のデータを処理することによって第2のユーザ挙動データを導出することであって、かかるデータのそれぞれは、少なくとも1つのセンサを含む前記装置の前記複数の異なる要素によって生成され、少なくとも前記第1の時間間隔の間にユーザが前記ユーザ装置と対話していることを表す、ことと、
    前記ユーザ装置から対話確認システムに前記第1のユーザ挙動データ及び前記第2のユーザ挙動データに基づくユーザ確認データを伝送することと
    を含む、方法。
  2. 前記対話が生じる時間間隔として前記第1の時間間隔を識別することを含む、請求項1に記載の方法。
  3. 前記対話がそれよりも前に生じる時間間隔として第2の時間間隔を識別すること、及び/又は
    前記対話がその後で生じる時間間隔として第3の時間間隔を識別すること
    を含み、前記第2の複数組のデータは、前記第1の時間間隔並びに前記第2の及び/又は第3の時間間隔の間にユーザが前記装置と対話していることをそれぞれ表す、
    請求項1又は2に記載の方法。
  4. 対話が進行中であるという指示を受信することに応答して前記第2のユーザ挙動データを収集することを含む、請求項1~3の何れか一項に記載の方法。
  5. 前記ユーザ装置上の記憶システム内に前記第2のユーザ挙動データを記憶することと、
    前記第1の時間間隔を示すタイミングデータを前記対話確認システムから受信することと、
    前記タイミングデータに基づいて前記記憶システムから前記第2のユーザ挙動データを取得することと
    を含む、請求項1~4の何れか一項に記載の方法。
  6. 前記第1の及び第2のユーザ挙動データを導出することが、前記ユーザ装置の前記複数の異なる要素によって生成されるデータを正規化形式を有する変換済み要素データへと変換するように構成されるハードウェア抽象化機能モジュールを使用することを含む、請求項1~5の何れか一項に記載の方法。
  7. 前記第1の及び第2のユーザ挙動データを導出することが、処理済み要素データを生成するために前記変換済み要素データに対して要約機能、集約機能、及び結合機能を実行するように構成されるデータ処理機能モジュールを使用することを含む、請求項8に記載の方法。
  8. 前記第1のユーザ挙動データを導出することが、前記第1の複数組のデータに関係する処理済み要素データからユーザの典型的な挙動に関する情報を抽出するように構成されるユーザ挙動機能モジュールを使用することを含む、請求項9に記載の方法。
  9. 前記第2のユーザ挙動データを導出することが、前記第2の複数組のデータに関係する処理済み要素データからユーザの前記挙動に関する情報を抽出するように構成される挙動機能モジュールを使用することを含む、請求項7又は8に記載の方法。
  10. 前記ユーザ確認データが機械学習モデルからの出力を含む、請求項1~9の何れか一項に記載の方法。
  11. 前記機械学習モデルのためのパラメータが検証システムから受信される、請求項10に記載の方法。
  12. 前記機械学習モデルへの入力が前記第1のユーザ挙動データ及び前記第2のユーザ挙動データを含み、前記ユーザ確認データが前記機械学習モデルの出力を含む、請求項10又は11に記載の方法。
  13. 前記機械学習モデルの前記出力は、前記第1の時間間隔の中のユーザが前記第1のユーザ挙動データに対応するユーザと異なる確率を含む、請求項12に記載の方法。
  14. 前記機械学習モデルがディープニューラルネットワークDNNである、請求項13に記載の方法。
  15. 前記ディープニューラルネットワークが一連の時間間隔の中の異常な時間間隔を検出するように訓練されている、請求項14に記載の方法。
  16. 前記機械学習モデルへの入力が少なくとも前記第1の1組のデータ及び前記第2の1組のデータを含み、前記機械学習モデルの出力が前記第1のユーザ挙動データ及び前記第2のユーザ挙動データを含む、請求項10又は11に記載の方法。
  17. トライアルデータ内の対話をクラスタへとソートするための教師なし学習を使用することによって前記機械学習モデルが訓練されている、請求項15に記載の方法。
  18. 前記機械学習モデルが個々の時間間隔を処理して前記時間間隔がどのクラスタに属するのかを推定する、請求項16に記載の方法。
  19. 前記ユーザ確認データは前記時間間隔がどのクラスタに属するのかの推定を含む、請求項17に記載の方法。
  20. 請求項1~18の何れか一項に記載の方法を実行するように構成される1つ又は複数のプロセッサを含む、ユーザ装置。
  21. プログラムがコンピュータ上で実行されるとき、請求項1~18の何れか一項に記載の方法のステップを前記コンピュータに実行させる、命令を含むコンピュータプログラム。
  22. 請求項1~18の何れか一項に記載の方法のステップを1つ又は複数のプロセッサに実行させるための命令を保持する、非一時的コンピュータ可読記憶媒体。
  23. 請求項1~18の何れか一項に記載の方法を実行するように構成されるユーザ装置と対話確認システムとを含む、対話が行われた後に前記対話を確認するためのシステム。
  24. 前記対話確認システムが所与の対話の確認を行うために前記ユーザ確認データを処理するように構成される、請求項22に記載のシステム。
  25. 前記対話確認システムが、前記ユーザ確認データを記憶するように構成される顧客及びエンドユーザプロファイルモジュールを含む、請求項22又は23に記載のシステム。
  26. 前記対話確認システムが、前記ユーザ確認データを処理することによって所与の対話が所与のユーザを含んだ確率の推定を与えるように構成される検証モジュールを含む、請求項22~24の何れか一項に記載のシステム。
  27. 前記対話確認システムが、前記ユーザ装置によって適用されるデータ処理規則を決定し、前記データ処理規則を示すデータを前記ユーザ装置に送信するように構成されるデータ処理モジュールを含む、請求項22~25の何れか一項に記載のシステム。
  28. 前記対話確認システムが、ユーザ装置のための対応する機械学習モデルに使用するためのパラメータを決定する際に使用するための機械学習モデルを含む、請求項22~26の何れか一項に記載のシステム。
JP2023530649A 2020-11-20 2021-11-19 ユーザ認識のための方法及び機器 Pending JP2023549934A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB2018306.7A GB2601165A (en) 2020-11-20 2020-11-20 Transaction verification
GB2018306.7 2020-11-20
PCT/EP2021/082296 WO2022106616A1 (en) 2020-11-20 2021-11-19 Method and apparatus for user recognition

Publications (1)

Publication Number Publication Date
JP2023549934A true JP2023549934A (ja) 2023-11-29

Family

ID=74046959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023530649A Pending JP2023549934A (ja) 2020-11-20 2021-11-19 ユーザ認識のための方法及び機器

Country Status (7)

Country Link
US (1) US20220164423A1 (ja)
EP (1) EP4248341A1 (ja)
JP (1) JP2023549934A (ja)
KR (1) KR20230128464A (ja)
CA (1) CA3202706A1 (ja)
GB (2) GB2601165A (ja)
WO (1) WO2022106616A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210117048A1 (en) * 2019-10-17 2021-04-22 Microsoft Technology Licensing, Llc Adaptive assistive technology techniques for computing devices
US11430414B2 (en) 2019-10-17 2022-08-30 Microsoft Technology Licensing, Llc Eye gaze control of magnification user interface
US20240045699A1 (en) * 2022-08-03 2024-02-08 Moore Threads Technology Co., Ltd. Machine learning based power and performance optimization system and method for graphics processing units
CN115826984A (zh) * 2022-11-18 2023-03-21 奇安信网神信息技术(北京)股份有限公司 数据处理方法及装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9747440B2 (en) * 2012-08-15 2017-08-29 Qualcomm Incorporated On-line behavioral analysis engine in mobile device with multiple analyzer model providers
US20150242605A1 (en) * 2014-02-23 2015-08-27 Qualcomm Incorporated Continuous authentication with a mobile device
US9536072B2 (en) * 2015-04-09 2017-01-03 Qualcomm Incorporated Machine-learning behavioral analysis to detect device theft and unauthorized device usage
US20170227995A1 (en) * 2016-02-09 2017-08-10 The Trustees Of Princeton University Method and system for implicit authentication
US11256791B2 (en) * 2016-10-03 2022-02-22 Bioconnect Inc. Biometric identification platform
US20190087834A1 (en) * 2017-09-15 2019-03-21 Pearson Education, Inc. Digital credential analysis in a digital credential platform
US20190108447A1 (en) * 2017-11-30 2019-04-11 Intel Corporation Multifunction perceptrons in machine learning environments
EP3928225A4 (en) * 2019-04-03 2022-10-05 Citrix Systems, Inc. SYSTEMS AND METHODS TO PROTECT A REMOTELY HOSTED APPLICATION AGAINST MALICIOUS ATTACKS
US20200364716A1 (en) * 2019-05-15 2020-11-19 Worldpay, Llc Methods and systems for generating a unique signature based on user device movements in a three-dimensional space
EP4010792A4 (en) * 2019-08-07 2022-09-28 Visa International Service Association SYSTEM, METHOD AND COMPUTER PROGRAM PRODUCT FOR AUTHENTICATION OF A TRANSACTION BASED ON BEHAVIOR BIOMETRIC DATA
KR20210048058A (ko) * 2019-10-23 2021-05-03 삼성에스디에스 주식회사 심층 신경망 학습 장치 및 방법
US11727014B2 (en) * 2019-12-12 2023-08-15 The Yes Platform, Inc. Dynamic filter recommendations
US11106772B2 (en) * 2020-01-31 2021-08-31 Dell Products, Lp System and method for continuous user identification via piezo haptic keyboard and touchpad dynamics

Also Published As

Publication number Publication date
GB2601247A (en) 2022-05-25
EP4248341A1 (en) 2023-09-27
KR20230128464A (ko) 2023-09-05
GB2601165A (en) 2022-05-25
US20220164423A1 (en) 2022-05-26
WO2022106616A1 (en) 2022-05-27
CA3202706A1 (en) 2022-05-27
GB202018306D0 (en) 2021-01-06
GB202116699D0 (en) 2022-01-05

Similar Documents

Publication Publication Date Title
US20220075856A1 (en) Identifying and authenticating users based on passive factors determined from sensor data
US10042993B2 (en) Access control through multifactor authentication with multimodal biometrics
CN109165940B (zh) 一种防盗方法、装置及电子设备
US10440019B2 (en) Method, computer program, and system for identifying multiple users based on their behavior
US11256793B2 (en) Method and device for identity authentication
JP2022532677A (ja) 身元検証及び管理システム
US20220164423A1 (en) Method and apparatus for user recognition
US20190213597A1 (en) Transaction confirmation and authentication based on device sensor data
US11102648B2 (en) System, method, and apparatus for enhanced personal identification
US20210342850A1 (en) Verifying user identities during transactions using identification tokens that include user face data
Witte et al. Context-aware mobile biometric authentication based on support vector machines
CN111885128A (zh) 基于区块链的身份管理方法
CA3178249A1 (en) Systems and methods for conducting remote attestation
US20190158496A1 (en) System, Method, and Apparatus for Personal Identification
CN113826135A (zh) 使用话音识别来进行非接触式认证的系统和方法
CN110546638A (zh) 生物特征认证的改进
CN108427868A (zh) 资源传输对象的验证方法、系统及客户端
EP4163854A1 (en) Systems and methods for conducting remote user authentication
US20230344828A1 (en) System and method for intelligent authentication via object movement recognition
CN115906028A (zh) 用户身份验证方法、装置和自助服务终端
US11416594B2 (en) Methods and systems for ensuring a user is permitted to use an object to conduct an activity
US11803898B2 (en) Account establishment and transaction management using biometrics and intelligent recommendation engine
US11212277B1 (en) System and method for securing, perfecting and accelerating biometric identification via holographic environmental data
CN115379447A (zh) 身份认证方法及移动终端
WO2022084444A1 (en) Methods, systems and computer program products, for use in biometric authentication

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230719