JP2017211898A - Learning system, feature learning device, method thereof, and program - Google Patents

Learning system, feature learning device, method thereof, and program Download PDF

Info

Publication number
JP2017211898A
JP2017211898A JP2016105885A JP2016105885A JP2017211898A JP 2017211898 A JP2017211898 A JP 2017211898A JP 2016105885 A JP2016105885 A JP 2016105885A JP 2016105885 A JP2016105885 A JP 2016105885A JP 2017211898 A JP2017211898 A JP 2017211898A
Authority
JP
Japan
Prior art keywords
feature
learning
user
person
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016105885A
Other languages
Japanese (ja)
Other versions
JP6556665B2 (en
Inventor
健一郎 武藤
Kenichiro Muto
健一郎 武藤
史堯 工藤
Fumitaka Kudo
史堯 工藤
秀樹 川邊
Hideki Kawabe
秀樹 川邊
慶太 長谷川
Keita Hasegawa
慶太 長谷川
山本 隆広
Takahiro Yamamoto
隆広 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016105885A priority Critical patent/JP6556665B2/en
Publication of JP2017211898A publication Critical patent/JP2017211898A/en
Application granted granted Critical
Publication of JP6556665B2 publication Critical patent/JP6556665B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a feature learning device with which it is possible to collect training data and execute learning by the training data and prevent learning by biased training data, without providing an explicit preregistration phase.SOLUTION: The feature learning device includes: a person's training data configuration unit for storing a lineage vector v(t) that includes feature information as an element in a person's queue table in correlation to the identifier IDof a user m, where the number of lineage vectors included in the person's queue table of the user m at time t is P; an other's training data configuration unit for extracting Plineage vectors one at a time from one of the person's queue tables of users other than the user m, and storing the extracted Plineage vectors in an other's queue table in correlation to the identifier ID; and a learning unit for performing supervised machine learning using the person's queue table and the other's queue table as training data.SELECTED DRAWING: Figure 1

Description

本発明は、行動的特徴を用いたバイオメトリクス認証において利用するデータを収集する方法に関する。   The present invention relates to a method for collecting data for use in biometric authentication using behavioral features.

行動的特徴を用いたバイオメトリクス認証の従来技術として非特許文献1が知られている。非特許文献1では、スマートフォン等のモバイル端末に具備されたセンサを利用して複数の特徴情報を取得し、それらの特徴情報を利用して認証を行う。   Non-Patent Document 1 is known as a conventional technique for biometric authentication using behavioral features. In Non-Patent Document 1, a plurality of feature information is acquired using a sensor provided in a mobile terminal such as a smartphone, and authentication is performed using the feature information.

行動的特徴を利用したバイオメトリクス認証では、認証前のフェーズ(事前登録フェーズ)で行動情報から抽出した特徴情報を認証システムに入力してテンプレートを作成し、作成したテンプレートを登録しておく。認証フェーズでは登録したテンプレートを用いて本人性を識別する事により、認証を実現する。   In biometric authentication using behavioral features, feature information extracted from behavior information in the pre-authentication phase (pre-registration phase) is input to the authentication system to create a template, and the created template is registered. In the authentication phase, authentication is realized by identifying the identity using the registered template.

非特許文献1では、サポートベクタマシンを適用した手法が提案されており、事前登録フェーズでは「2値クラス(利用者本人/利用者以外の他人)、及び各クラスに対応した素性ベクトル(特徴情報の集合)」を教師データとして収集し、収集した教師データによる学習を実行する。認証フェーズではその学習結果(テンプレート)を用いて未知の素性ベクトル(利用者の特徴情報)に対するクラス分類問題を解く事で本人性を識別する。   Non-Patent Document 1 proposes a method using a support vector machine. In the pre-registration phase, “binary class (user / other than user)” and feature vectors corresponding to each class (feature information) Is collected as teacher data, and learning is performed using the collected teacher data. In the authentication phase, the identity is identified by solving the class classification problem for the unknown feature vector (user feature information) using the learning result (template).

H.Witte, C.Rathgeb and C.Busch, "Context-Aware Mobile Biometric Authentication based on Support Vector Machines", 2013 Fourth International Conference on Emerging Security Technologies, pp.29-32, 2013.H. Witte, C. Rathgeb and C. Busch, "Context-Aware Mobile Biometric Authentication based on Support Vector Machines", 2013 Fourth International Conference on Emerging Security Technologies, pp.29-32, 2013.

しかしながら、サポートベクタマシンに代表される機械学習アルゴリズムを認証に適用した場合、認証固有の問題として、以下の問題点が存在する。
(1)学習のタイミング:認証フェーズの前に教師データにより学習させておく必要があり、事前登録フェーズにおける、利用者(本人)と当該利用者以外(他人)の特徴情報の収集及び学習に関する登録操作が、利用者の利便性の低下に繋がってしまう。
(2)教師データの作成:ある特定のIDを対象に2値のクラス分類問題を解こうとした場合、利用者本人(1人)に比べて他人の人数が極めて多くなり(全利用者数-1人)、各クラスにおける教師データの数が均等でない、偏った教師データにより学習をしてしまう。
However, when a machine learning algorithm typified by a support vector machine is applied to authentication, the following problems exist as authentication-specific problems.
(1) Timing of learning: It is necessary to learn from the teacher data before the authentication phase. In the pre-registration phase, registration related to collection and learning of feature information of the user (person) and other users (others) The operation leads to a decrease in user convenience.
(2) Creation of teacher data: When trying to solve a binary classification problem for a specific ID, the number of others is much larger than the number of users (1) -1), the number of teacher data in each class is not equal, and learning is performed with biased teacher data.

本発明は、(i)明示的な事前登録フェーズを設けることなく、教師データを収集し、その教師データによる学習を実行することができ、(ii)偏った教師データによる学習を防ぐことができる学習システム、特徴学習装置、その方法、及びプログラムを提供することを目的とする。   The present invention can (i) collect teacher data without performing an explicit pre-registration phase and execute learning with the teacher data, and (ii) prevent learning with biased teacher data It is an object to provide a learning system, a feature learning device, a method thereof, and a program.

上記の課題を解決するために、本発明の一態様によれば、学習システムは、利用者の行動に基づく特徴情報を収集する特徴収集装置と、収集した特徴情報を用いて学習する特徴学習装置とを含む。特徴収集装置は、tを時刻を表すインデックスとし、利用者mの行動に基づく特徴情報を収集する特徴収集部を含む。特徴学習装置は、時刻tにおける利用者mの本人キューテーブルに含まれる素性ベクトルの個数をPm,tとし、特徴情報を要素として含む素性ベクトルvm(t)と利用者mの識別子IDmとを対応付けて本人キューテーブルTablem,target(t)={vm(t),vm(t-1),…,vm(t-Pm,t+1)}に記憶する本人教師データ構成部と、Pm,t個の素性ベクトルを、利用者m以外の利用者の本人キューテーブルの何れかの中から1個ずつ取り出し、Pm,t個の取り出した素性ベクトルと識別子IDmとを対応付けて他人キューテーブルTablem,others(t)に記憶する他人教師データ構成部と、本人キューテーブルTablem,target(t)と他人キューテーブルTablem,others(t)とを教師データとして、教師あり機械学習を行う学習部とを含む。 In order to solve the above problems, according to an aspect of the present invention, a learning system includes a feature collection device that collects feature information based on user behavior, and a feature learning device that learns using the collected feature information. Including. The feature collection device includes a feature collection unit that collects feature information based on the behavior of the user m, where t is an index representing time. The feature learning device sets P m, t as the number of feature vectors included in the user m's own queue table at time t, a feature vector v m (t) including feature information as an element, and an identifier ID m of the user m. Is stored in the principal queue table Table m, target (t) = {v m (t), v m (t-1), ..., v m (tP m, t +1)} The component part and P m, t feature vectors are extracted one by one from one of the user's own queue tables other than user m, and P m, t feature vectors and identifier ID m are extracted. And the other person queue table Table m, others (t) and the other person queue table Table m, target (t) and the other person queue table Table m, others (t) And a learning unit that performs supervised machine learning.

上記の課題を解決するために、本発明の他の態様によれば、特徴学習装置は、tを時刻を表すインデックスとし、時刻tにおける利用者mの本人キューテーブルに含まれる素性ベクトルの個数をPm,tとし、利用者mの行動に基づき得られる特徴情報を要素として含む素性ベクトルvm(t)と利用者mの識別子IDmとを対応付けて本人キューテーブルTablem,target(t)={vm(t),vm(t-1),…,vm(t-Pm,t+1)}に記憶する本人教師データ構成部と、Pm,t個の素性ベクトルを、利用者m以外の利用者の本人キューテーブルの何れかの中から1個ずつ取り出し、Pm,t個の取り出した素性ベクトルと識別子IDmとを対応付けて他人キューテーブルTablem,others(t)に記憶する他人教師データ構成部と、本人キューテーブルTablem,target(t)と他人キューテーブルTablem,others(t)とを教師データとして、教師あり機械学習を行う学習部とを含む。 In order to solve the above-described problem, according to another aspect of the present invention, the feature learning device uses t as an index representing time, and calculates the number of feature vectors included in the personal queue table of the user m at time t. P m, t , a feature vector v m (t) that includes characteristic information obtained based on the behavior of user m as an element and an identifier ID m of user m are associated with each other, and the user queue table Table m, target (t ) = {v m (t), v m (t-1), ..., v m (tP m, t +1)} and P m, t feature vectors Each one of the user's own queue tables other than user m is extracted, and P m, t extracted feature vectors and identifier ID m are associated with each other's queue table Table m, others (t and others teacher data construction unit to be stored in), person-queue table table m, target (t) and others queue table table m, and others (t) as teacher data , And a learning unit that performs a supervised machine learning.

上記の課題を解決するために、本発明の他の態様によれば、学習方法は、利用者の行動に基づく特徴情報を収集する特徴収集装置と、収集した特徴情報を用いたものである。学習方法は、tを時刻を表すインデックスとし、特徴収集装置が、利用者mの行動に基づく特徴情報を収集する特徴収集ステップと、時刻tにおける利用者mの本人キューテーブルに含まれる素性ベクトルの個数をPm,tとし、特徴学習装置が、特徴情報を要素として含む素性ベクトルvm(t)と利用者mの識別子IDmとを対応付けて本人キューテーブルTablem,target(t)={vm(t),vm(t-1),…,vm(t-Pm,t+1)}に記憶する本人教師データ構成ステップと、
特徴学習装置が、Pm,t個の素性ベクトルを、利用者m以外の利用者の本人キューテーブルの何れかの中から1個ずつ取り出し、Pm,t個の取り出した素性ベクトルと識別子IDmとを対応付けて他人キューテーブルTablem,others(t)に記憶する他人教師データ構成ステップと、特徴学習装置が、本人キューテーブルTablem,target(t)と他人キューテーブルTablem,others(t)とを教師データとして、教師あり機械学習を行う学習ステップとを含む。
In order to solve the above problems, according to another aspect of the present invention, a learning method uses a feature collection device that collects feature information based on a user's behavior and the collected feature information. In the learning method, t is an index representing time, and the feature collection device collects feature information based on the behavior of the user m, and the feature vector included in the user's own queue table at the time t the number of P m, and t, feature learning device, feature vector v m (t) and the user himself queue table in association with the identifier ID m of m table m including characteristic information as elements, target (t) = {v m (t), v m (t-1), ..., v m (tP m, t + 1)}
Feature learning device, P m, the t pieces of feature vectors taken out from either of the principal queue table of the user other than the user m one by one, P m, t pieces of the extracted feature vector and the identifier ID The other person teacher data composition step that associates m with each other and stores it in the other person queue table Table m, others (t), and the feature learning device, the person queue table Table m, target (t) and the other person queue table Table m, others ( and a learning step for performing supervised machine learning using t) as teacher data.

本発明によれば、(i)明示的な事前登録フェーズを設けることなく、教師データを収集し、その教師データによる学習を実行することができ、(ii)偏った教師データによる学習を防ぐことができるという効果を奏する。   According to the present invention, (i) it is possible to collect teacher data without performing an explicit pre-registration phase and execute learning using the teacher data, and (ii) prevent learning using biased teacher data. There is an effect that can be.

第一実施形態に係る学習システムの機能ブロック図。The functional block diagram of the learning system which concerns on 1st embodiment. 第一実施形態に係る学習システムの処理フローの例を示す図。The figure which shows the example of the processing flow of the learning system which concerns on 1st embodiment. 第一実施形態に係る学習システムの処理フローの例を示す図。The figure which shows the example of the processing flow of the learning system which concerns on 1st embodiment. 第一実施形態に係る学習システムの処理フローの例を示す図。The figure which shows the example of the processing flow of the learning system which concerns on 1st embodiment. 本人キューテーブルのデータ例を示す図。The figure which shows the example of data of a principal queue table. 他人キューテーブルのデータ例を示す図。The figure which shows the example of data of a stranger queue table. 学習結果テーブルのデータ例を示す図。The figure which shows the example of data of a learning result table.

以下、本発明の実施形態について、説明する。なお、以下の説明に用いる図面では、同じ機能を持つ構成部や同じ処理を行うステップには同一の符号を記し、重複説明を省略する。   Hereinafter, embodiments of the present invention will be described. In the drawings used for the following description, constituent parts having the same function and steps for performing the same process are denoted by the same reference numerals, and redundant description is omitted.

<第一実施形態のポイント>
本人の素性ベクトルを格納するためのキュー(以降、「本人キュー」ともいう)、及び他人の素性ベクトルを一時的に格納するためキュー(以降、「他人キュー」ともいう)を、利用者の識別子毎に用意する。なお、「キュー」とは、データを先入れ先出しのリスト構造で保持するデータ構造のことである。
<Points of first embodiment>
Queues for storing the identity vector of the person (hereinafter also referred to as “personal queue”) and queues for temporarily storing the identity vector of other persons (hereinafter also referred to as “other person queue”) are used as user identifiers. Prepare for each. A “queue” is a data structure that holds data in a first-in first-out list structure.

本実施形態では、まず、本実施形態の学習結果を利用する認証手段とは異なる、他の認証手段を実行し、本人性を識別する事により、認証する。認証成功時には、認証処理の実行中、または、認証成功と判断されるまでに、収集された特徴情報(以降「認証成功時に収集した特徴情報」ともいう)が本人のものである可能性が高いとみなし、以降の処理をバックグラウンドで実行する。   In this embodiment, first, authentication is performed by executing other authentication means different from the authentication means using the learning result of this embodiment and identifying the identity. When authentication is successful, the collected feature information (hereinafter also referred to as “feature information collected when authentication is successful”) is highly likely to be the identity of the person during authentication processing or until it is determined that authentication is successful. And the subsequent processing is executed in the background.

本実施形態の特徴学習装置は、他の認証手段で利用した利用者mの識別子IDm、及び認証成功時に収集した特徴情報を取得し、その識別子IDmに対応した本人キューに素性ベクトルを追加格納する。なお、mは利用者を表すインデックスであり、本実施形態の学習システムの利用者の総数をMとすると、mは1,2,…,Mの何れかである。既に本人キューが満杯だった場合には、古い素性ベクトルから順に削除し、本人キューへの格納領域を確保する。 The feature learning device of the present embodiment acquires the identifier ID m of the user m used by other authentication means and the feature information collected when the authentication is successful, and adds the feature vector to the principal queue corresponding to the identifier ID m Store. Note that m is an index representing a user, and m is one of 1, 2,..., M, where M is the total number of users of the learning system of the present embodiment. If the personal queue is already full, the old feature vectors are deleted in order, and a storage area in the personal queue is secured.

本人キューへの追加格納が完了した時点で、他人キューを初期化(クリア)する。そして「入力された識別子IDm以外の識別子IDnに対応する本人キュー」に格納された素性ベクトルから、本人キューの格納数と同数の素性ベクトルを選び出し、他人キューに格納する。なお、本実施形態の学習システムの利用者の総数をMとすると、n=1,2,…,Mであり、かつ、m≠nである。 When additional storage in the personal queue is completed, the other person's queue is initialized (cleared). Then, the same number of feature vectors as the number of stored principal queues are selected from the feature vectors stored in “the principal queue corresponding to the identifier ID n other than the input identifier ID m ” and stored in the other person queue. If the total number of users of the learning system of the present embodiment is M, n = 1, 2,..., M, and m ≠ n.

他人キューへの素性ベクトルの格納が完了した時点で、当該IDに対応する「本人キュー」と「他人キュー」とに格納されている全ての素性ベクトルを教師データとして、機械学習による学習処理を実行する。   When storage of feature vectors in the other person's queue is completed, machine learning learning processing is performed using all feature vectors stored in the "person's queue" and "other person's queue" corresponding to the ID as teacher data. To do.

このような構成とすることで、他の認証手段における認証成功時の特徴情報ををもとに、素性ベクトルを作成することができる。つまり、認証フェーズの実行過程で特徴情報を収集し、素性ベクトルを作成することができる。なお、識別子と素性ベクトルとは、他の認証手段により、認証が成功しているため、その素性ベクトルと識別子とが対応するものであることが保証されている。このような構成により、明示的な事前登録フェーズを設けることなく、教師データの収集及び学習を実行することができる。   With such a configuration, a feature vector can be created based on feature information when authentication is successful in another authentication means. That is, feature information can be collected and a feature vector can be created in the course of executing the authentication phase. Since the identifier and the feature vector have been successfully authenticated by other authentication means, it is guaranteed that the feature vector and the identifier correspond to each other. With such a configuration, it is possible to collect and learn teacher data without providing an explicit pre-registration phase.

また、認証フェーズの実行過程において、認証成功後に教師データの収集及び学習を実行するため、教師データのデータ量が増大しても、利用者に対する学習処理の待ち時間の影響を与えることなく、バックグラウンドで機械学習におけるパラメータや状態変数等(以下、パラメータ等ともいう)を学習することができる。このパラメータ等を用いて、本人性を識別するための識別関数を構成することができ、この識別関数に未知の素性ベクトル(利用者の特徴情報)を与えることで、利用者の本人性を識別することができる。   In addition, since teacher data is collected and learned after successful authentication during the authentication phase, even if the amount of teacher data increases, there is no impact on the waiting time of the learning process for the user. It is possible to learn parameters, state variables, and the like (hereinafter also referred to as parameters) in machine learning in the ground. An identification function for identifying the identity can be configured using these parameters, etc., and the identity of the user is identified by giving an unknown feature vector (user feature information) to this identification function. can do.

利用者の特徴情報が時間とともに変化するような場合であっても、事前登録フェーズではなく、認証フェーズで教師データの収集及び学習を行うため、識別するための識別関数を利用者の特徴情報の変化に追従させることができる。   Even if the user's feature information changes over time, in order to collect and learn teacher data in the authentication phase, rather than in the pre-registration phase, an identification function for identifying the user feature information It can follow changes.

以下、この処理を実現するための構成について説明する。   Hereinafter, a configuration for realizing this process will be described.

<第一実施形態に係る学習システム>
図1は第一実施形態に係る学習システム10の機能ブロック図を、図2、図3及び図4はその処理フローを示す。
<Learning system according to the first embodiment>
FIG. 1 is a functional block diagram of a learning system 10 according to the first embodiment, and FIGS. 2, 3 and 4 show the processing flow.

学習システム10は、特徴収集装置100と特徴学習装置200とを含む。   The learning system 10 includes a feature collection device 100 and a feature learning device 200.

特徴収集装置100は、特徴収集部101と素性ベクトル生成部102と被認証部103とを含む。   The feature collection device 100 includes a feature collection unit 101, a feature vector generation unit 102, and an authenticated unit 103.

特徴学習装置200は、本人教師データ構成部201と認証部202と他人教師データ構成部203と記憶部204と学習部205とを含む。   The feature learning device 200 includes a principal teacher data configuration unit 201, an authentication unit 202, another person teacher data configuration unit 203, a storage unit 204, and a learning unit 205.

特徴収集装置100と特徴学習装置200とはネットワークを介して接続可能とされている。   The feature collection device 100 and the feature learning device 200 can be connected via a network.

特徴収集装置100及び特徴学習装置200は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。例えば、特徴収集装置100は、利用者に利用されるクライアント端末、例えば、スマートフォン内に組み込まれる。特徴学習装置200は、サーバ装置(ネットワーク上で、複数の利用者やプログラム、すなわち、クライアントにサービスを提供するコンピュータ)内に組み込まれる。なお、サービスには、利用者の識別子を必要とするものとし、本実施形態では、特徴学習装置200は、利用者の識別子を必要とする認証サーバの中に組み込まれるものとする。   In the feature collection device 100 and the feature learning device 200, for example, a special program is read into a known or dedicated computer having a central processing unit (CPU), a main storage device (RAM), and the like. It is a special device constructed. For example, the feature collection device 100 is incorporated in a client terminal used by a user, for example, a smartphone. The feature learning device 200 is incorporated in a server device (a computer that provides services to a plurality of users and programs, that is, clients on a network). The service requires a user identifier, and in this embodiment, the feature learning device 200 is incorporated in an authentication server that requires a user identifier.

特徴収集装置100及び特徴学習装置200は、例えば、それぞれの中央演算処理装置の制御のもとで各処理を実行する。特徴収集装置100及び特徴学習装置200に入力されたデータや各処理で得られたデータは、例えば、それぞれの主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて読み出されて他の処理に利用される。また、特徴収集装置100及び特徴学習装置200の各処理部の少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。   For example, the feature collection device 100 and the feature learning device 200 execute each process under the control of each central processing unit. The data input to the feature collection device 100 and the feature learning device 200 and the data obtained by each process are stored in each main storage device, for example, and the data stored in the main storage device is read as necessary And used for other processing. Further, at least a part of each processing unit of the feature collection device 100 and the feature learning device 200 may be configured by hardware such as an integrated circuit.

<特徴収集部101>
特徴収集部101は、利用者の行動をモニタリングし、利用者mの行動に基づくデータ(以下「特徴情報」ともいう)を収集し(図2のS1)、素性ベクトル生成部102に送信する。特徴情報の取得方法として、スマートフォン内に搭載されたセンサを利用しても良い。機械学習におけるパラメータ等を学習する際に用いる特徴情報を収集することができるものであればどのようなものであってもよい。例えば、スマートフォン内に搭載された加速度センサやジャイロセンサなどが特徴収集部101として挙げられ、それらの出力値を特徴情報として収集する。また、タッチパネル搭載の圧力センサや、GPSを特徴収集部101として用い、圧力センサの出力値や位置情報を特徴情報として収集してもよい。さらに、これらの組み合わせを特徴情報として収集しても良い。
<Feature Collection Unit 101>
The feature collection unit 101 monitors the behavior of the user, collects data (hereinafter also referred to as “feature information”) based on the behavior of the user m (S1 in FIG. 2), and transmits the data to the feature vector generation unit 102. As a feature information acquisition method, a sensor mounted in a smartphone may be used. Any device may be used as long as it can collect feature information used when learning parameters and the like in machine learning. For example, an acceleration sensor or a gyro sensor mounted in a smartphone can be cited as the feature collection unit 101, and the output values thereof are collected as feature information. Further, a pressure sensor equipped with a touch panel or a GPS may be used as the feature collection unit 101, and the output value and position information of the pressure sensor may be collected as feature information. Further, these combinations may be collected as feature information.

<素性ベクトル生成部102>
素性ベクトル生成部102は、特徴収集部101において収集した特徴情報を入力とし、特徴情報を、多次元ベクトルの形式に変換して素性ベクトルを生成し(S2)、特徴学習装置200に具備された本人教師データ構成部201に送信する。例えば、特徴収集部101が、加速度センサとジャイロセンサから構成される場合には、これらのデータを2次元ベクトルの形式に変換し、素性ベクトルとしてもよい。また、例えば、加速度センサのN1個の時系列の出力値と、ジャイロセンサのN2個の時系列の出力値とを合わせて(N1+N2)次元ベクトルの形式に変換し、素性ベクトルとしてもよい。例えば、利用者mの時刻tにおけるある特徴情報をdm(t,e)とし、E次元の素性ベクトルをvm(t)={dm(t,1),dm(t,2),…,dm(t,E)}とする。なお、tは離散時刻を示すインデックスであり、mは利用者を示すインデックスであり、例えば、学習システム10の利用者の総数をMとし、m=1,2,…,Mとする。なお、特徴収集部101は、加速度センサとジャイロセンサの出力値をそのまま特徴情報として用いずに、何らかの処理を施した値を特徴情報として用いてもよい。例えば、所定の時間分の時系列の出力値の総和や平均値等を特徴情報として用いてもよい。
<Feature Vector Generation Unit 102>
The feature vector generation unit 102 receives the feature information collected by the feature collection unit 101, converts the feature information into a multi-dimensional vector format, generates a feature vector (S2), and is included in the feature learning device 200. It transmits to the principal teacher data structure part 201. For example, when the feature collection unit 101 includes an acceleration sensor and a gyro sensor, these data may be converted into a two-dimensional vector format and used as a feature vector. Further, for example, by converting the output value of the time series N 1 pieces of the acceleration sensor, by combining the output values of the time series of two N gyro sensor (N 1 + N 2) in the form of a dimensional vectors, feature It may be a vector. For example, let d m (t, e) be some feature information of user m at time t, and let v m (t) = {d m (t, 1), d m (t, 2) , ..., d m (t, E)}. Note that t is an index indicating discrete time, and m is an index indicating users. For example, M is the total number of users of the learning system 10, and m = 1, 2,. Note that the feature collection unit 101 may use values obtained by performing some processing as the feature information without using the output values of the acceleration sensor and the gyro sensor as the feature information as they are. For example, a total or average value of time-series output values for a predetermined time may be used as the feature information.

<被認証部103>
被認証部103は、利用者mの識別子IDmを認証するためのクライアント機能を具備し、後述する特徴学習装置200の認証部202との間で認証処理を実行する(S3)。例えば、被認証部103は、識別子IDmの利用者mの正当性の確認を認証部202に依頼する。認証するための手段については限定せず、既存の如何なる認証技術を用いてもよいが、認証部202に対応する手段を備える。例えば、パスワード認証や電子証明書による認証、生体認証を利用してもよい。また、多段階認証における一部の認証結果を利用しても良い。
<Authenticated unit 103>
The authenticating unit 103 has a client function for authenticating the identifier ID m of the user m , and executes an authentication process with the authenticating unit 202 of the feature learning device 200 described later (S3). For example, the authenticating unit 103 requests the authenticating unit 202 to confirm the validity of the user m with the identifier ID m . Means for authentication is not limited, and any existing authentication technique may be used, but means corresponding to the authentication unit 202 is provided. For example, password authentication, authentication using an electronic certificate, or biometric authentication may be used. Moreover, you may utilize the one part authentication result in multistep authentication.

<認証部202>
認証部202は、利用者mの識別子IDmを認証するためのサーバ機能を具備し、本人教師データ構成部201から認証要求を受け付け、特徴収集装置100の被認証部103との間で認証処理を実行し(S3)、認証が成功した場合(受理した場合)、認証に成功した利用者mの識別子IDmを本人教師データ構成部201に出力する。例えば、認証部202は、識別子IDmの利用者mの正当性を検証する。認証するための手段については限定せず、既存の如何なる認証技術を用いてもよいが、被認証部103に対応する手段を備える。例えば、パスワード認証や電子証明書による認証、生体認証を利用してもよい。また、多段階認証における一部の認証結果を利用しても良い。認証結果は、識別子IDmとともに本人教師データ構成部201へ受け渡す。
<Authentication unit 202>
The authentication unit 202 has a server function for authenticating the identifier ID m of the user m , receives an authentication request from the principal teacher data configuration unit 201, and performs an authentication process with the authenticated unit 103 of the feature collection device 100 Is executed (S3), and when the authentication is successful (when accepted), the identifier ID m of the user m who has succeeded in the authentication is output to the principal teacher data construction unit 201. For example, the authentication unit 202 verifies the validity of the user m with the identifier ID m . Means for authenticating is not limited, and any existing authentication technique may be used, but means corresponding to the authenticated unit 103 is provided. For example, password authentication, authentication using an electronic certificate, or biometric authentication may be used. Moreover, you may utilize the one part authentication result in multistep authentication. The authentication result is transferred to the teacher data composition unit 201 together with the identifier ID m .

例えば、被認証部103と認証部202との間でパスワード認証を行う場合には、被認証部103と認証部202との間でSSL (Secure Sockets Layer)/TLS(Transport Layer Security)通信などにより、被認証部103は暗号化したパスワードを認証部202に送信する。例えば、被認証部103に対して接続を要求することを示す制御信号を認証部202に送信する。認証部202は、サーバ証明書を被認証部103に送信する。被認証部103は、サーバ証明書が信用できるものである場合には、サーバ証明書に含まれる公開鍵で共通鍵を暗号化し、暗号化した共通鍵を認証部202に送信する。認証部202は、公開鍵に対応する秘密鍵で暗号化された共通鍵を復号する。以降、被認証部103と認証部202との間で共通鍵を用いて暗号化したデータを送受信する。例えば、被認証部103は利用者の識別子とパスワードを暗号化したものを送信し、認証部202はそれを復号し、図示しない記憶部内に記憶された利用者の識別子とパスワードを参照し、認証処理を実行する。   For example, when password authentication is performed between the authenticated unit 103 and the authenticating unit 202, SSL (Secure Sockets Layer) / TLS (Transport Layer Security) communication or the like is performed between the authenticated unit 103 and the authenticating unit 202. The authenticated unit 103 transmits the encrypted password to the authenticating unit 202. For example, a control signal indicating that a connection is requested to the authentication target unit 103 is transmitted to the authentication unit 202. The authentication unit 202 transmits the server certificate to the authenticated unit 103. If the server certificate is trustworthy, the authenticated unit 103 encrypts the common key with the public key included in the server certificate, and transmits the encrypted common key to the authentication unit 202. The authentication unit 202 decrypts the common key encrypted with the secret key corresponding to the public key. Thereafter, data encrypted using the common key is transmitted and received between the authenticated unit 103 and the authenticating unit 202. For example, the to-be-authenticated unit 103 transmits an encrypted user identifier and password, and the authentication unit 202 decrypts it and refers to the user identifier and password stored in a storage unit (not shown) to authenticate the user. Execute the process.

なお、以降の処理は、認証部202において、認証が成功した場合に実行し、バックグラウンドでの実行を許容する。また、例えば、認証が成功した場合(受理した場合)、利用者mに対して認証が成功したことを通知し、所定のサービスを提供してもよい。また、認証が失敗した場合(棄却した場合)、利用者mに対して再度の認証を求めたり、サービスを提供せずに終了してもよい。   The subsequent processing is executed when authentication is successful in the authentication unit 202, and is allowed to be executed in the background. Further, for example, when authentication is successful (accepted), the user m may be notified that the authentication was successful, and a predetermined service may be provided. Further, when the authentication fails (when rejected), the user m may be requested to authenticate again or may be terminated without providing the service.

<本人教師データ構成部201>
本人教師データ構成部201は、素性ベクトル生成部102より、素性ベクトルvm(t)とともに呼び出される。本人教師データ構成部201は、素性ベクトルvm(t)を入力とし、受け取った素性ベクトルvm(t)と利用者mを紐付けるために、認証部202を呼び出す。認証部202における認証成功後、本人教師データ構成部201は、認証が成功したことを示す認証結果と利用者mの識別子IDm(認証処理の対象となった識別子)とを受け取り、受け取った素性ベクトルvm(t)が認証成功の識別子IDmに紐づくものとみなし、素性ベクトルvm(t)と識別子IDmと対応付けて、記憶部204の本人キューテーブルTablem,target(t)={vm(t),vm(t-1),…,vm(t-Pm,t+1)}に記憶する(S4)。図5は、本人キューテーブルのデータ例を示す。ただし、Pm,tは、時刻tにおける利用者mの本人キューテーブルに含まれる素性ベクトルの個数を示し、格納数ともいう。その後、本人キューテーブルの格納数Pm,tとともに、他人教師データ構成部203を呼び出す。図5に示すように、本人キューテーブルは、利用者毎に用意される。なお、時刻tにおける本人キューテーブルに格納される素性ベクトルの個数は、認証回数に応じて異なるため、利用者毎に異なる。ただし、本人キューテーブルに格納される素性ベクトルの最大個数は同じとし、例えばPmaxとする。本人教師データ構成部201は、既に、本人キューテーブルTablem,target(t)={vm(t),vm(t-1),…,vm(t-Pm,t+1)}にPmax個の素性ベクトルが格納されている場合、最も古い素性ベクトルvm(t-Pmax)を削除し、新たな素性ベクトルvm(t)を記憶部204の本人キューテーブルに記憶し、本人キューテーブルをTablem,target(t)={vm(t),vm(t-1),…,vm(t-Pmax+1)}とする。
<Principal Teacher Data Configuration Unit 201>
The principal teacher data construction unit 201 is called from the feature vector generation unit 102 together with the feature vector v m (t). The principal teacher data construction unit 201 receives the feature vector v m (t) as an input, and calls the authentication unit 202 to associate the received feature vector v m (t) with the user m. After successful authentication by the authentication unit 202, the principal teacher data configuration unit 201 receives an authentication result indicating that the authentication is successful and an identifier ID m (identifier subjected to authentication processing) of the user m, and the received feature It assumes that brute string vector v m (t) is the identifier ID m of authentication success, in association with the feature vector v m (t) and the identifier ID m, principal queue table table m of the storage unit 204, target (t) = {v m (t), v m (t−1),..., v m (tP m, t +1)} (S4). FIG. 5 shows an example of data in the personal queue table. Here, P m, t indicates the number of feature vectors included in the personal queue table of the user m at time t, and is also referred to as the stored number. Thereafter, the other person teacher data construction unit 203 is called together with the stored number P m, t of the principal queue table. As shown in FIG. 5, the personal queue table is prepared for each user. Note that the number of feature vectors stored in the principal queue table at time t differs depending on the number of users because it differs depending on the number of authentications. However, the maximum number of feature vectors stored in the principal queue table is the same, for example, P max . The principal teacher data construction unit 201 already has the principal queue table Table m, target (t) = {v m (t), v m (t-1), ..., v m (tP m, t +1)}. When P max feature vectors are stored, the oldest feature vector v m (tP max ) is deleted, a new feature vector v m (t) is stored in the user queue table of the storage unit 204, and the user queue is stored. Let the table be Table m, target (t) = {v m (t), v m (t-1),..., V m (tP max +1)}.

<他人教師データ構成部203>
他人教師データ構成部203は、本人教師データ構成部201より、識別子IDm、本人キューテーブルの格納数Pm,tとともに呼び出される。他人教師データ構成部203は、識別子IDmと本人キューの格納数Pm,tを入力とし、まず、受け取った識別子IDm以外の全識別子IDnを対象に、各本人キューテーブルTablen,target(t)から素性ベクトルをサンプリングする。ただし、n=1,2,…,M、かつ、n≠mである。サンプリングの個数は、本機能部が呼び出された際に受け取った本人キューテーブルTablem,target(t)の格納数Pm,tと同数とする。その後、サンプリングした素性ベクトルの集合を、識別子IDmに対応する他人の素性ベクトルとみなし、記憶部204の他人キューテーブルTablem,others(t)={vm,others(t),vm,others(t-1),…,vm,others(t-Pm,t+1)}に記憶する(図3のS5)。図6は、他人キューテーブルのデータ例を示す。
<Other teacher data configuration unit 203>
The other person teacher data construction unit 203 is called from the principal teacher data construction unit 201 together with the identifier ID m and the stored number P m, t of the principal queue table. The other person teacher data configuration unit 203 receives the identifier ID m and the stored number P m, t of the personal queue, and first, for each identifier ID n other than the received identifier ID m , each personal queue table Table n, target A feature vector is sampled from (t). However, n = 1, 2,..., M and n ≠ m. The number of samplings is the same as the stored number P m, t of the principal queue table Table m, target (t) received when this function unit is called. Thereafter, the set of sampled feature vectors is regarded as a feature vector of another person corresponding to the identifier ID m , and the other person queue table Table m, others (t) = {v m, others (t), v m, others (t-1), ..., v m, others (tP m, t +1)} (S5 in FIG. 3). FIG. 6 shows an example of data in the other person queue table.

なお、識別子IDmに対応したキューの格納データが既に他人キューテーブルに格納されている場合には、古いデータをクリアした上で格納する。その後、識別子IDmとともに、学習部205を呼び出す。 If the stored data of the queue corresponding to the identifier ID m is already stored in the other person queue table, the old data is cleared and stored. Thereafter, the learning unit 205 is called together with the identifier ID m .

なお、サンプリングの方法は限定しない。例えば、他人キューの格納順序毎に、M-1個の識別子IDnに対応する本人キューテーブルTablen,target(t)の中からサンプリング対象の本人キューテーブルをランダムに選定しても良い。言い換えると、他人キューテーブルに格納するp番目のキューとして、何れかの本人キューテーブルTablen,target(t)のp番目のキューを選定する。 The sampling method is not limited. For example, the personal queue table to be sampled may be randomly selected from the personal queue tables Table n, target (t) corresponding to M-1 identifiers ID n for each storage order of the other person queues. In other words, the p-th queue of any one of the individual queue tables Table n, target (t) is selected as the p-th queue stored in the other-person queue table.

また、キューの格納順序を考慮せず、M-1個の識別子IDnに対応する本人キューテーブルTablen,target(t)の中から、必要個数分の素性ベクトルをランダムにサンプリングしても良い。言い換えると、他人キューテーブルに格納するp番目のキューとして、何れかの本人キューテーブルTablen,target(t)のq番目のキューを選定する。ただし、qは、利用者nの本人キューテーブルTablen,target(t)の格納数をPt,nとすると、qは1,2,…,Pt,nの何れかである。 Further, the necessary number of feature vectors may be randomly sampled from the principal queue table Table n, target (t) corresponding to M-1 identifiers ID n without considering the queue storage order. . In other words, as the p-th queue to be stored in the other-person queue table, the q-th queue of any one of the individual queue tables Table n, target (t) is selected. However, q is one of 1, 2,..., P t, n , where P t, n is the number of stored user n's personal queue table Table n, target (t).

つまり、他人教師データ構成部203は、Pm,t個の素性ベクトルを、利用者m以外の利用者の本人キューテーブルTablen,target(t)の何れかの中から1個ずつ取り出し、Pm,t個の取り出した素性ベクトルと識別子IDmとを対応付けて他人キューテーブルTablem,others(t)に記憶する(S5)。 That is, the other person teacher data configuration unit 203 extracts P m, t feature vectors one by one from any one of the user's own queue tables Table n, target (t) other than the user m, and P The m, t extracted feature vectors and the identifier ID m are associated with each other and stored in the other person queue table Table m, others (t) (S5).

<記憶部204>
記憶部204は、本人教師データ構成部201、他人教師データ構成部203より、識別子IDm、素性ベクトルvm(t)、素性ベクトルの集合{vm,others(t),vm,others(t-1),…,vm,others(t-Pm,t+1)}とともに指示を受けて、本人キューテーブル(図5参照)、他人キューテーブル(図6参照)への読み書きを行う。また、学習部205より、IDと学習結果wm(t)とともに指示を受け、学習結果テーブルへの読み書きを行う。
<Storage unit 204>
The storage unit 204 receives an identifier ID m , a feature vector v m (t), a set of feature vectors {v m, others (t), v m, others (from the principal teacher data configuration unit 201 and the other teacher data configuration unit 203. t-1),..., v m, others (tP m, t +1)} are received, and reading / writing is performed on the personal queue table (see FIG. 5) and the other person queue table (see FIG. 6). Further, the learning unit 205 receives an instruction together with the ID and the learning result w m (t), and reads / writes the learning result table.

<学習部205>
学習部205は、他人教師データ構成部203より、識別子IDmとともに呼び出される。学習部205は、識別子IDmを入力とし、記憶部204を参照し、本人キューテーブル(図5参照)と他人キューテーブル(図6参照)内の識別子IDmに対応する各キューから、格納されている素性ベクトルの集合{vm(t),vm(t-1),…,vm(t-Pm,t+1)}、{vm,others(t),vm,others(t-1),…,vm,others(t-Pm,t+1)}を取り出す。その際、本人キューテーブルから取り出した素性ベクトル{vm(t),vm(t-1),…,vm(t-Pm,t+1)}には「本人」のラベルを付与する。他人キューテーブルから取り出した素性ベクトル{vm(t),vm(t-1),…,vm(t-Pm,t+1)}、{vm,others(t),vm,others(t-1),…,vm,others(t-Pm,t+1)}には「他人」のラベルを付与する。その後、これらのラベルと素性ベクトルの組を教師データとして用い、学習部205にて教師あり機械学習等の学習アルゴリズムを実行し(図4のS6)、学習結果wm(t)を生成する。生成した学習結果の例としては、機械学習におけるパラメータや状態変数等が挙げられる。このパラメータ等を用いて、本人性を識別するための識別関数を構成することができる。これらの情報を、識別子IDmに対応した学習結果wm(t)として、記憶部204の学習結果テーブルに格納する(図7参照)。
<Learning unit 205>
The learning unit 205 is called from the other person teacher data configuration unit 203 together with the identifier ID m . The learning unit 205 receives the identifier ID m as input, refers to the storage unit 204, and stores it from each queue corresponding to the identifier ID m in the principal queue table (see FIG. 5) and the other person queue table (see FIG. 6). Set of feature vectors {v m (t), v m (t-1),…, v m (tP m, t +1)}, {v m, others (t), v m, others (t -1), ..., v m, others (tP m, t +1)}. At this time, a label of “principal” is assigned to the feature vector {v m (t), v m (t−1),..., V m (tP m, t +1)} extracted from the principal queue table. Feature vectors taken from other person's queue table {v m (t), v m (t-1),…, v m (tP m, t +1)}, {v m, others (t), v m, others (t-1), ..., v m, others (tP m, t +1)} are given the label “other”. Thereafter, a learning algorithm such as supervised machine learning is executed by the learning unit 205 using a set of these labels and feature vectors as teacher data (S6 in FIG. 4), and a learning result w m (t) is generated. Examples of the generated learning result include parameters and state variables in machine learning. Using this parameter or the like, an identification function for identifying the identity can be configured. These pieces of information are stored in the learning result table of the storage unit 204 as learning results w m (t) corresponding to the identifier ID m (see FIG. 7).

学習結果テーブルに格納された学習結果wm(t)は、被認証部103と認証部202との間で行われる認証とは別の認証手段において利用することができ、別の認証手段の求めに応じて出力すればよい。例えば、別の認証手段は、学習結果wm(t)のパラメータ等を用いて、本人性を識別するための識別関数を構成し、この識別関数に未知の素性ベクトル(利用者の特徴情報)を与えることで、利用者の本人性を識別することができる。 The learning result w m (t) stored in the learning result table can be used in an authentication unit different from the authentication performed between the authenticating unit 103 and the authenticating unit 202. Output in accordance with For example, another authentication means uses a parameter of the learning result w m (t) to configure an identification function for identifying the identity, and an unknown feature vector (user characteristic information) is used for this identification function. The identity of the user can be identified.

<効果>
以上の構成により、(i)明示的な事前登録フェーズを設けることなく、教師データを収集し、その教師データによる学習を実行することができる。また、他人教師データ構成部203において、本人キューテーブルと同じ個数の素性ベクトルを他人キューテーブルに格納するため、(ii)偏った教師データによる学習を防ぐことができる。また、認証処理の度に学習結果を生成することができるため、学習結果を利用者の特徴情報の変化に追従させることができる。
<Effect>
With the above configuration, (i) teacher data can be collected and learning using the teacher data can be executed without providing an explicit pre-registration phase. Further, since the other person teacher data construction unit 203 stores the same number of feature vectors as the other person queue table in the other person queue table, (ii) learning with biased teacher data can be prevented. Moreover, since a learning result can be produced | generated for every authentication process, a learning result can be made to follow the change of a user's feature information.

<変形例>
本実施形態では、特徴学習装置200が認証サーバの中に組み込まれるものとしているが、利用者の識別子を利用するサーバであれば、どのようなサーバであっても適用可能である。つまり、サーバがサービスを提供する際に利用者の識別子を取得し、その際に素性ベクトルも一緒に受け取ることができる構成であればどのようなサーバであってもよい。
<Modification>
In the present embodiment, the feature learning device 200 is incorporated in the authentication server, but any server can be applied as long as it uses a user identifier. In other words, any server may be used as long as the server can acquire the user identifier when providing the service and can receive the feature vector at that time.

また、本実施形態では、学習結果テーブルに格納された学習結果wm(t)を、被認証部103と認証部202との間で行われる認証とは別の認証手段に提供しているが、被認証部103と認証部202との間で行われる認証において利用してもよい。つまり、認証部202は、学習結果wm(t)を利用して識別子IDmの正当性を検証する。この場合、認証回数が増えるほど、本人キューテーブル及び他人キューテーブルに蓄積される素性ベクトルが増えるため、それらの素性ベクトルから得られる学習結果wm(t)を用いた認証の精度も向上していくと考えられる。このような構成とすることで、利用者に煩わしさを感じさせることなく、多段階認証を実現することができる。 In the present embodiment, the learning result w m (t) stored in the learning result table is provided to an authentication unit different from the authentication performed between the authenticated unit 103 and the authenticating unit 202. The authentication unit 103 and the authentication unit 202 may be used for authentication. That is, the authentication unit 202 verifies the validity of the identifier ID m using the learning result w m (t). In this case, as the number of authentications increases, the feature vectors stored in the principal queue table and the other person queue table increase, so the accuracy of authentication using the learning result w m (t) obtained from those feature vectors also improves. It is thought to go. With such a configuration, multi-step authentication can be realized without making the user feel bothersome.

<その他の変形例>
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
<Other variations>
The present invention is not limited to the above-described embodiments and modifications. For example, the various processes described above are not only executed in time series according to the description, but may also be executed in parallel or individually as required by the processing capability of the apparatus that executes the processes. In addition, it can change suitably in the range which does not deviate from the meaning of this invention.

<プログラム及び記録媒体>
また、上記の実施形態及び変形例で説明した各装置における各種の処理機能をコンピュータによって実現してもよい。その場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
<Program and recording medium>
In addition, various processing functions in each device described in the above embodiments and modifications may be realized by a computer. In that case, the processing contents of the functions that each device should have are described by a program. Then, by executing this program on a computer, various processing functions in each of the above devices are realized on the computer.

この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。   The program describing the processing contents can be recorded on a computer-readable recording medium. As the computer-readable recording medium, for example, any recording medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory may be used.

また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させてもよい。   The program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Further, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶部に格納する。そして、処理の実行時、このコンピュータは、自己の記憶部に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実施形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよい。さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、プログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。   A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its storage unit. When executing the process, this computer reads the program stored in its own storage unit and executes the process according to the read program. As another embodiment of this program, a computer may read a program directly from a portable recording medium and execute processing according to the program. Further, each time a program is transferred from the server computer to the computer, processing according to the received program may be executed sequentially. Also, the program is not transferred from the server computer to the computer, and the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes the processing function only by the execution instruction and result acquisition. It is good. Note that the program includes information provided for processing by the electronic computer and equivalent to the program (data that is not a direct command to the computer but has a property that defines the processing of the computer).

また、コンピュータ上で所定のプログラムを実行させることにより、各装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。   In addition, although each device is configured by executing a predetermined program on a computer, at least a part of these processing contents may be realized by hardware.

Claims (6)

利用者の行動に基づく特徴情報を収集する特徴収集装置と、収集した特徴情報を用いて学習する特徴学習装置とを含む学習システムであって、
前記特徴収集装置は、
tを時刻を表すインデックスとし、利用者mの行動に基づく特徴情報を収集する特徴収集部を含み、
前記特徴学習装置は、
時刻tにおける利用者mの本人キューテーブルに含まれる素性ベクトルの個数をPm,tとし、前記特徴情報を要素として含む素性ベクトルvm(t)と前記利用者mの識別子IDmとを対応付けて本人キューテーブルTablem,target(t)={vm(t),vm(t-1),…,vm(t-Pm,t+1)}に記憶する本人教師データ構成部と、
Pm,t個の素性ベクトルを、利用者m以外の利用者の本人キューテーブルの何れかの中から1個ずつ取り出し、Pm,t個の取り出した素性ベクトルと前記識別子IDmとを対応付けて他人キューテーブルTablem,others(t)に記憶する他人教師データ構成部と、
前記本人キューテーブルTablem,target(t)と前記他人キューテーブルTablem,others(t)とを教師データとして、教師あり機械学習を行う学習部とを含む、
学習システム。
A learning system including a feature collection device that collects feature information based on user behavior and a feature learning device that learns using the collected feature information,
The feature collection device includes:
including a feature collection unit that collects feature information based on the behavior of user m, where t is an index representing time,
The feature learning device includes:
The number of feature vectors included in the user's m queue table at time t is P m, t, and the feature vector v m (t) including the feature information as an element corresponds to the identifier ID m of the user m In addition, the principal teacher data configuration unit stored in the principal queue table Table m, target (t) = {v m (t), v m (t-1), ..., v m (tP m, t +1)} ,
P m, t feature vectors are extracted one by one from the user's own queue table other than user m, and P m, t feature vectors are associated with the identifier ID m. In addition, the other person teacher data composition part to be stored in the other person queue table Table m, others (t),
A learning unit that performs supervised machine learning using the person queue table Table m, target (t) and the other person queue table Table m, others (t) as teacher data;
Learning system.
請求項1の学習システムであって、
前記特徴収集装置は、
前記識別子IDmの利用者mの正当性の確認を依頼する被認証部を含み、
前記特徴学習装置は、
前記識別子IDmの正当性を検証する認証部を含み、
前記本人教師データ構成部、前記他人教師データ構成部及び前記学習部における処理は、前記認証部において、認証が成功した場合に実行する、
学習システム。
The learning system of claim 1,
The feature collection device includes:
An authenticated unit that requests confirmation of the validity of the user m of the identifier ID m ,
The feature learning device includes:
An authentication unit for verifying the validity of the identifier ID m ,
The processing in the principal teacher data configuration unit, the other person teacher data configuration unit, and the learning unit is executed when authentication is successful in the authentication unit.
Learning system.
請求項2の学習システムであって、
前記認証部において、前記学習部の学習結果を利用して前記識別子IDmの正当性を検証する、
学習システム。
The learning system according to claim 2,
In the authentication unit, the validity of the identifier ID m is verified using the learning result of the learning unit.
Learning system.
tを時刻を表すインデックスとし、時刻tにおける利用者mの本人キューテーブルに含まれる素性ベクトルの個数をPm,tとし、利用者mの行動に基づき得られる特徴情報を要素として含む素性ベクトルvm(t)と前記利用者mの識別子IDmとを対応付けて本人キューテーブルTablem,target(t)={vm(t),vm(t-1),…,vm(t-Pm,t+1)}に記憶する本人教師データ構成部と、
Pm,t個の素性ベクトルを、利用者m以外の利用者の本人キューテーブルの何れかの中から1個ずつ取り出し、Pm,t個の取り出した素性ベクトルと前記識別子IDmとを対応付けて他人キューテーブルTablem,others(t)に記憶する他人教師データ構成部と、
前記本人キューテーブルTablem,target(t)と前記他人キューテーブルTablem,others(t)とを教師データとして、教師あり機械学習を行う学習部とを含む、
特徴学習装置。
Let t be an index representing time, let P m, t be the number of feature vectors included in the user's m personal queue table at time t , and feature vector v containing feature information obtained based on the behavior of user m as an element m (t) and the user himself queue table in association with the identifier ID m of m table m, target (t) = {v m (t), v m (t-1), ..., v m (tP m, t +1)} and the teacher data composition part
P m, t feature vectors are extracted one by one from the user's own queue table other than user m, and P m, t feature vectors are associated with the identifier ID m. In addition, the other person teacher data composition part to be stored in the other person queue table Table m, others (t),
A learning unit that performs supervised machine learning using the person queue table Table m, target (t) and the other person queue table Table m, others (t) as teacher data;
Feature learning device.
利用者の行動に基づく特徴情報を収集する特徴収集装置と、収集した特徴情報を用いた学習方法であって、
tを時刻を表すインデックスとし、前記特徴収集装置が、利用者mの行動に基づく特徴情報を収集する特徴収集ステップと、
時刻tにおける利用者mの本人キューテーブルに含まれる素性ベクトルの個数をPm,tとし、前記特徴学習装置が、前記特徴情報を要素として含む素性ベクトルvm(t)と前記利用者mの識別子IDmとを対応付けて本人キューテーブルTablem,target(t)={vm(t),vm(t-1),…,vm(t-Pm,t+1)}に記憶する本人教師データ構成ステップと、
前記特徴学習装置が、Pm,t個の素性ベクトルを、利用者m以外の利用者の本人キューテーブルの何れかの中から1個ずつ取り出し、Pm,t個の取り出した素性ベクトルと前記識別子IDmとを対応付けて他人キューテーブルTablem,others(t)に記憶する他人教師データ構成ステップと、
前記特徴学習装置が、前記本人キューテーブルTablem,target(t)と前記他人キューテーブルTablem,others(t)とを教師データとして、教師あり機械学習を行う学習ステップとを含む、
学習方法。
A feature collection device that collects feature information based on user behavior, and a learning method that uses the collected feature information,
t is an index representing time, and the feature collection device collects feature information based on the behavior of the user m; and
Let P m, t be the number of feature vectors included in the user's m personal queue table at time t , and the feature learning device may identify the feature vector v m (t) including the feature information as an element and the user m's The identifier ID m is associated and stored in the principal queue table Table m, target (t) = {v m (t), v m (t-1), ..., v m (tP m, t +1)} Personal teacher data composition step;
The feature learning device takes out P m, t feature vectors one by one from any of the user's own queue tables other than the user m, and extracts the P m, t feature vectors and the The other person teacher data configuration step of associating the identifier ID m with each other and storing it in the other person queue table Table m, others (t),
The feature learning device includes a learning step of performing supervised machine learning using the person queue table Table m, target (t) and the other person queue table Table m, others (t) as teacher data.
Learning method.
請求項4の特徴学習装置として、コンピュータを機能させるためのプログラム。   A program for causing a computer to function as the feature learning apparatus according to claim 4.
JP2016105885A 2016-05-27 2016-05-27 Learning system, feature learning apparatus, method thereof, and program Active JP6556665B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016105885A JP6556665B2 (en) 2016-05-27 2016-05-27 Learning system, feature learning apparatus, method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016105885A JP6556665B2 (en) 2016-05-27 2016-05-27 Learning system, feature learning apparatus, method thereof, and program

Publications (2)

Publication Number Publication Date
JP2017211898A true JP2017211898A (en) 2017-11-30
JP6556665B2 JP6556665B2 (en) 2019-08-07

Family

ID=60474749

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016105885A Active JP6556665B2 (en) 2016-05-27 2016-05-27 Learning system, feature learning apparatus, method thereof, and program

Country Status (1)

Country Link
JP (1) JP6556665B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000132514A (en) * 1998-10-21 2000-05-12 Hitachi Ltd Personal authentication method
JP2005258801A (en) * 2004-03-11 2005-09-22 Matsushita Electric Ind Co Ltd Personal identification system
JP2011198170A (en) * 2010-03-23 2011-10-06 Oki Software Co Ltd System and server for identifying user, mobile device, user identifying program, and program of mobile device
WO2012124458A1 (en) * 2011-03-16 2012-09-20 株式会社エヌ・ティ・ティ・ドコモ Authorized party authentication template learning system and authorized party authentication template learning method
JP2013120580A (en) * 2011-12-09 2013-06-17 Hitachi Ltd Biometric authentication system
US20140201120A1 (en) * 2013-01-17 2014-07-17 Apple Inc. Generating notifications based on user behavior
US20140282964A1 (en) * 2013-03-15 2014-09-18 Telesign Corporation System and method for utilizing behavioral characteristics in authentication and fraud prevention

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000132514A (en) * 1998-10-21 2000-05-12 Hitachi Ltd Personal authentication method
JP2005258801A (en) * 2004-03-11 2005-09-22 Matsushita Electric Ind Co Ltd Personal identification system
JP2011198170A (en) * 2010-03-23 2011-10-06 Oki Software Co Ltd System and server for identifying user, mobile device, user identifying program, and program of mobile device
WO2012124458A1 (en) * 2011-03-16 2012-09-20 株式会社エヌ・ティ・ティ・ドコモ Authorized party authentication template learning system and authorized party authentication template learning method
JP2013120580A (en) * 2011-12-09 2013-06-17 Hitachi Ltd Biometric authentication system
US20140201120A1 (en) * 2013-01-17 2014-07-17 Apple Inc. Generating notifications based on user behavior
US20140282964A1 (en) * 2013-03-15 2014-09-18 Telesign Corporation System and method for utilizing behavioral characteristics in authentication and fraud prevention

Also Published As

Publication number Publication date
JP6556665B2 (en) 2019-08-07

Similar Documents

Publication Publication Date Title
US11108546B2 (en) Biometric verification of a blockchain database transaction contributor
JP7421766B2 (en) Public key/private key biometric authentication system
Ibrokhimov et al. Multi-factor authentication in cyber physical system: A state of art survey
US9935947B1 (en) Secure and reliable protection and matching of biometric templates across multiple devices using secret sharing
EP2813961B1 (en) Biometric verification with improved privacy and network performance in client-server networks
US9165130B2 (en) Mapping biometrics to a unique key
US11194895B2 (en) Method and apparatus for authenticating biometric information
TWI578749B (en) Methods and apparatus for migrating keys
US9830445B1 (en) Personal identification number (PIN) replacement in a one-time passcode based two factor authentication system
JP6524899B2 (en) Secret data matching device, secret data matching program, and secret data matching method
US11799642B2 (en) Biometric public key system providing revocable credentials
JP7458661B2 (en) Biometric digital signature generation for identity verification
CN108141363A (en) For the device of certification, method and computer program product
CN103929425B (en) A kind of identity registration, identity authentication method, equipment and system
JP2019008369A (en) Information processing apparatus, authentication system, authentication method and program
JP6502083B2 (en) Authentication device, information terminal device, program, and authentication method
CN109614804B (en) Bimodal biological characteristic encryption method, device and storage device
JP6556665B2 (en) Learning system, feature learning apparatus, method thereof, and program
KR101838432B1 (en) Method and system for authentication using biometrics and functional encryption-inner product
JP2019161405A (en) Authentication server device, and system and method for authentication
EP3745289A1 (en) Apparatus and method for registering biometric information, apparatus and method for biometric authentication
Mehta et al. Cloud Based Attendance System
KR102289379B1 (en) Creating method for decentralized biometric One-time-password
Zhang et al. A Novel Method of Template Protection and Two-Factor Authentication Protocol Based on Biometric and PUF
Chu Cloud Password Manager Using Privacy-preserved Biometrics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190710

R150 Certificate of patent or registration of utility model

Ref document number: 6556665

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150