JP6813456B2 - Judgment device, judgment method, and judgment program - Google Patents

Judgment device, judgment method, and judgment program Download PDF

Info

Publication number
JP6813456B2
JP6813456B2 JP2017162061A JP2017162061A JP6813456B2 JP 6813456 B2 JP6813456 B2 JP 6813456B2 JP 2017162061 A JP2017162061 A JP 2017162061A JP 2017162061 A JP2017162061 A JP 2017162061A JP 6813456 B2 JP6813456 B2 JP 6813456B2
Authority
JP
Japan
Prior art keywords
data
time
input
series data
time series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017162061A
Other languages
Japanese (ja)
Other versions
JP2019040405A (en
Inventor
晴佳 鈴木
晴佳 鈴木
史堯 工藤
史堯 工藤
慶太 長谷川
慶太 長谷川
元 高橋
高橋  元
慎也 高田
慎也 高田
中村 亨
亨 中村
幸由 大田
幸由 大田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017162061A priority Critical patent/JP6813456B2/en
Publication of JP2019040405A publication Critical patent/JP2019040405A/en
Application granted granted Critical
Publication of JP6813456B2 publication Critical patent/JP6813456B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、判定装置、判定方法、および、判定プログラムに関する。 The present invention relates to a determination device, a determination method, and a determination program.

電子行政やWeb上で行われる資格試験等、オンラインサービスでなりすまし申請や替え玉受験等の不正が懸念されている。なりすましや替え玉を防止するための認証方式として、記憶による認証(例えば、パスワードによる認証)、所有物による認証(例えば、ICカードによる認証)、身体的特徴による認証(例えば、指紋や静脈による認証)等が知られている。 There are concerns about fraud such as spoofing applications and replacement ball exams using online services such as qualification tests conducted on the electronic administration and the Web. Authentication methods for preventing spoofing and replacement balls include memory authentication (for example, password authentication), property authentication (for example, IC card authentication), and physical feature authentication (for example, fingerprint and vein authentication). Etc. are known.

しかし、これらの認証方式では、サービス利用開始時に、一度だけしか認証しないことが多く、認証後のキー入力時に他人と入れ替わることで、不正な操作が行われるおそれがある。このような他人との入れ替わりによる対策として、被認証者のキー入力時のキーストローク等、本人の癖を利用した認証(行動的特徴による認証)も提案されている(非特許文献1参照)。例えば、上記のキーストロークを用いた認証では、被認証者がキーを打つときのパターンや速度、リズム等の特徴量を用いることで、被認証者とデータ入力デバイスへのキー入力者との同一人物性の判定を行うことも考えられる。 However, in these authentication methods, authentication is often performed only once at the start of using the service, and there is a possibility that an illegal operation may be performed by replacing the user with another person when the key is input after the authentication. As a countermeasure against such replacement with another person, authentication using the habit of the person such as the keystroke at the time of key input of the person to be authenticated (authentication by behavioral characteristics) has also been proposed (see Non-Patent Document 1). For example, in the above authentication using keystrokes, the subject and the key inputter to the data input device are the same by using features such as the pattern, speed, and rhythm when the subject strikes the key. It is also conceivable to judge the personality.

特開2013-025491号公報Japanese Unexamined Patent Publication No. 2013-025491 特開2010-177998号公報Japanese Unexamined Patent Publication No. 2010-177998

佐村敏治他、「非定型な日本語文入力におけるキーストロークダイナミクス識別」、システム制御情報学会論文誌、Vol.22、No.4、pp.145-153、2009Toshiharu Samura et al., "Keystroke Dynamics Identification in Atypical Japanese Sentence Input", Journal of the Society of System Control and Information Technology, Vol.22, No.4, pp.145-153, 2009

しかし、例えば、上記のキーストロークを用いた判定では、キー入力(打鍵)の特徴量が変化すると、判定精度が低下する可能性がある。例えば、ユーザのキー入力の習熟度合いの変化、緊張等の精神状態、腕や手への怪我、慣れないキーボードの使用等により、ユーザのキー入力(打鍵)の特徴量が変化すると、判定精度が低下する可能性がある。 However, for example, in the determination using the above keystrokes, if the feature amount of the key input (keystroke) changes, the determination accuracy may decrease. For example, if the feature amount of the user's key input (keystroke) changes due to a change in the user's key input proficiency level, mental state such as tension, injury to the arm or hand, use of an unfamiliar keyboard, etc., the judgment accuracy will be improved. May decrease.

また、データ入力デバイスがタブレット端末やスマートフォン等の場合、タッチ画面上でのスワイプ、タップ等、キー入力以外の操作が行われることも多い。しかしながら、従来、キー入力以外の操作について、データ入力デバイスの操作者が正規ユーザと同一人物であるか否かを判定する技術については検討されていなかった。 Further, when the data input device is a tablet terminal, a smartphone, or the like, operations other than key input such as swiping and tapping on the touch screen are often performed. However, conventionally, for operations other than key input, a technique for determining whether or not the operator of the data input device is the same person as the regular user has not been studied.

そこで、本発明は、キー入力以外の操作を受け付けるデータ入力デバイスであっても、当該データ入力デバイスの操作者が正規ユーザと同一人物であるか否かを精度よく判定することを課題とする。 Therefore, it is an object of the present invention to accurately determine whether or not the operator of the data input device is the same person as the regular user, even if the data input device accepts operations other than key input.

前記した課題を解決するため、本発明は、ウェアラブルデバイスの装着者の手または腕の動きを示すセンサデータを取得するセンサデータ取得部と、前記取得した各時刻のセンタデータに基づき前記ウェアラブルデバイスの装着者によるデータ入力デバイスの画面上での入力イベントを推定する推定部と、前記データ入力デバイスの画面上でのタッチ操作による入力イベントを取得する入力イベント取得部と、前記推定部により推定された前記ウェアラブルデバイスの装着者による前記入力イベントを時系列で示した第1の時系列データと、前記入力イベント取得部により取得された前記データ入力デバイスにおける前記入力イベントを時系列で示した第2の時系列データとを照合し、前記第1の時系列データにおける一連の入力イベントと前記第2の時系列データにおける一連の入力イベントとの一致率が所定値以上である場合、前記データ入力デバイスの操作者は前記ウェアラブルデバイスの装着者と同一人物であると判定する判定部とを備えることを特徴とする。 In order to solve the above-mentioned problems, the present invention comprises a sensor data acquisition unit that acquires sensor data indicating the movement of the wearer's hand or arm of the wearable device, and the wearable device based on the acquired center data at each time. Estimated by the estimation unit, an estimation unit that estimates an input event on the screen of the data input device by the wearer, an input event acquisition unit that acquires an input event by a touch operation on the screen of the data input device, and an estimation unit. A first time-series data showing the input event by the wearer of the wearable device in time series, and a second time-series showing the input event in the data input device acquired by the input event acquisition unit. When the time-series data is collated and the matching rate between the series of input events in the first time-series data and the series of input events in the second time-series data is equal to or more than a predetermined value, the data input device The operator is provided with a determination unit that determines that the wearer of the wearable device is the same person.

本発明によれば、キー入力以外の操作を受け付けるデータ入力デバイスであっても、当該データ入力デバイスの操作者が正規ユーザと同一人物であるか否かを精度よく判定することができる。 According to the present invention, even in a data input device that accepts operations other than key input, it is possible to accurately determine whether or not the operator of the data input device is the same person as a regular user.

図1は、本実施形態の概要を説明するための図である。FIG. 1 is a diagram for explaining an outline of the present embodiment. 図2は、本実施形態における同一人物性判定の概要を説明するための図である。FIG. 2 is a diagram for explaining an outline of the same personness determination in the present embodiment. 図3は、本実施形態の判定システムの構成例を示す図である。FIG. 3 is a diagram showing a configuration example of the determination system of the present embodiment. 図4は、図3のタッチ操作ログの例を示す図である。FIG. 4 is a diagram showing an example of the touch operation log of FIG. 図5は、タッチ操作の種類を説明するための図である。FIG. 5 is a diagram for explaining the types of touch operations. 図6は、本実施形態における入力イベントの推定方法を説明するための図である。FIG. 6 is a diagram for explaining an input event estimation method in the present embodiment. 図7は、本実施形態におけるタッチ操作ログおよびセンサデータそれぞれの時系列データの照合を説明するための図である。FIG. 7 is a diagram for explaining collation of time-series data of each of the touch operation log and the sensor data in the present embodiment. 図8は、本実施形態におけるタッチ操作ログおよびセンサデータそれぞれの時系列データの照合を説明するための図である。FIG. 8 is a diagram for explaining collation of time-series data of each of the touch operation log and the sensor data in the present embodiment. 図9は、時刻同期後における、各時刻におけるウェアラブルデバイスの加速度データとデータ入力デバイス20のdownのタッチ操作とを示したグラフである。FIG. 9 is a graph showing the acceleration data of the wearable device and the down touch operation of the data input device 20 at each time after the time synchronization. 図10は、判定システムの処理手順の例を示すシーケンス図である。FIG. 10 is a sequence diagram showing an example of the processing procedure of the determination system. 図11は、判定プログラムを実行するコンピュータを示す図である。FIG. 11 is a diagram showing a computer that executes the determination program.

以下、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。本発明は以下に説明する実施形態に限定されない。 Hereinafter, embodiments (embodiments) for carrying out the present invention will be described with reference to the drawings. The present invention is not limited to the embodiments described below.

[概要]
まず、図1を用いて、本発明の実施形態の概要を説明する。本実施形態の判定システムにおいて、データ入力デバイス20のユーザは、加速度センサ等のセンサを備えるウェアラブルデバイス10を装着するものとする。つまり、判定システムは、ユーザにより装着されるウェアラブルデバイス10と、ユーザが各種操作を行うデータ入力デバイス20とを備えるものとする。
[Overview]
First, the outline of the embodiment of the present invention will be described with reference to FIG. In the determination system of the present embodiment, the user of the data input device 20 shall wear a wearable device 10 including a sensor such as an acceleration sensor. That is, the determination system includes a wearable device 10 worn by the user and a data input device 20 in which the user performs various operations.

判定システムは、各時刻におけるウェアラブルデバイス10の装着者(ユーザ)の手または腕の動きを示すセンサデータ(例えば、加速度データ)を取得する。また、判定システムは、データ入力デバイス20から、データ入力デバイスデータを取得する。このデータ入力デバイスデータは、各時刻におけるユーザのタッチ操作の種類(例えば、タップ、ダブルタップ、左スワイプ、右スワイプ、上スクロール、下スクロール等)等、データ入力デバイス20の画面上でのタッチ操作による入力イベントを示すデータである。 The determination system acquires sensor data (for example, acceleration data) indicating the movement of the hand or arm of the wearable device 10 wearer (user) at each time. Further, the determination system acquires data input device data from the data input device 20. This data input device data is a touch operation on the screen of the data input device 20 such as the type of user's touch operation at each time (for example, tap, double tap, left swipe, right swipe, up scroll, down scroll, etc.). It is the data which shows the input event by.

そして、判定システムは、各時刻におけるデータ入力デバイスデータとセンサデータとを照合することにより、データ入力デバイス20の操作者と、ウェアラブルデバイス10の装着者とが同一人物か否かを判定する(同一人物性判定を行う)。 Then, the determination system determines whether or not the operator of the data input device 20 and the wearer of the wearable device 10 are the same person by collating the data input device data and the sensor data at each time (same). Perform personality judgment).

例えば、図2に示すように、判定システムは、データ入力デバイスデータに示される、データ入力デバイス20のタッチ操作から各時刻において当該データ入力デバイス20で発生した入力イベント(例えば、上スクロール→タップ→右スワイプ)を推定する。また、判定システムは、ウェアラブルデバイス10のセンサデータから各時刻において当該ウェアラブルデバイス10で発生した入力イベント(例えば、上スクロール→タップ→右スワイプ)も推定する。そして、判定システムは、各時刻において両デバイスで発生したと推定される入力イベントを照合し、両者が一致していれば、データ入力デバイス20の操作者は、ウェアラブルデバイス10の装着者と同一人物と判定する。 For example, as shown in FIG. 2, the determination system has an input event (for example, scrolling up → tapping → tapping → tapping → tapping → tapping → tapping → tapping → tapping → tapping → Right swipe) to estimate. The determination system also estimates the input event (for example, up scroll → tap → right swipe) generated in the wearable device 10 at each time from the sensor data of the wearable device 10. Then, the determination system collates the input events estimated to have occurred in both devices at each time, and if both match, the operator of the data input device 20 is the same person as the wearer of the wearable device 10. Is determined.

つまり、判定システムは、データ入力デバイス20の画面上での時系列での入力イベントと、ウェアラブルデバイス10のセンサデータの示す時系列での入力イベントとが一致していれば(あるいは一致率が所定値以上であれば)、データ入力デバイス20の操作者は、ウェアラブルデバイス10の装着者と同一人物と判定する。 That is, in the determination system, if the time-series input event on the screen of the data input device 20 and the time-series input event indicated by the sensor data of the wearable device 10 match (or the match rate is predetermined). (If it is equal to or more than the value), the operator of the data input device 20 determines that the person is the same as the wearer of the wearable device 10.

このような判定システムによれば、同じ時刻において、データ入力デバイス20で付与するタイムスタンプの値とウェアラブルデバイス10で付与するタイムスタンプの値との間にずれがある場合でも、データ入力デバイス20から取得したデータ(データ入力デバイスデータ)と、ウェアラブルデバイス10から取得したデータ(センサデータ)とを用いて、データ入力デバイス20の操作者が、ウェアラブルデバイス10の装着者と同一人物か否かを判定することができる。 According to such a determination system, even if there is a discrepancy between the time stamp value given by the data input device 20 and the time stamp value given by the wearable device 10 at the same time, the data input device 20 can be used. Using the acquired data (data input device data) and the data (sensor data) acquired from the wearable device 10, it is determined whether or not the operator of the data input device 20 is the same person as the wearer of the wearable device 10. can do.

一例を挙げると、データ入力デバイス20での一連のタッチ操作を示すタッチ操作ログはデータ入力デバイス20で記録され、そのタイムスタンプ(時刻情報)の値はデータ入力デバイス20で打刻される。一方、センサデータはウェアラブルデバイス10で計測され、データ入力デバイス20へ送信される。このセンサデータのタイムスタンプは、データ入力デバイス20で打刻されるとは限らないし、データ入力デバイス20で打刻されたとしても、タッチ操作ログのタイムスタンプとの時間のずれが生じる。また、機器の仕様や構成の都合上、いずれかのデバイスでタイムスタンプが打刻されない可能性もある。 As an example, a touch operation log indicating a series of touch operations on the data input device 20 is recorded on the data input device 20, and the value of the time stamp (time information) is stamped on the data input device 20. On the other hand, the sensor data is measured by the wearable device 10 and transmitted to the data input device 20. The time stamp of the sensor data is not always stamped by the data input device 20, and even if it is stamped by the data input device 20, there is a time lag with the time stamp of the touch operation log. In addition, there is a possibility that the time stamp will not be stamped on any device due to the specifications and configuration of the device.

ここで、上記した判定システムによれば、データ入力デバイス20の画面上での一連の入力イベントと、ウェアラブルデバイス10のセンサデータの示す一連の入力イベントとが一致していれば、データ入力デバイス20の操作者は、ウェアラブルデバイス10の装着者と同一人物と判定する。したがって、両デバイスのタイムスタンプのずれがあった場合やタイムスタンプが打刻されなかった場合でも、判定システムは、データ入力デバイス20の操作者と、ウェアラブルデバイス10の装着者とが同一人物か否かを判定することができる。 Here, according to the determination system described above, if the series of input events on the screen of the data input device 20 and the series of input events indicated by the sensor data of the wearable device 10 match, the data input device 20 Is determined to be the same person as the wearer of the wearable device 10. Therefore, even if the time stamps of both devices are different or the time stamps are not stamped, the determination system determines whether the operator of the data input device 20 and the wearer of the wearable device 10 are the same person. Can be determined.

次に、判定システムの構成例を説明する。図3に示すように、例えば、判定システムは、ウェアラブルデバイス10と、データ入力デバイス20とを備える。各デバイスの台数は図3に示す台数に限定されない。 Next, a configuration example of the determination system will be described. As shown in FIG. 3, for example, the determination system includes a wearable device 10 and a data input device 20. The number of each device is not limited to the number shown in FIG.

ウェアラブルデバイス10は、センサデータ取得部11を備える。このセンサデータ取得部11は、各時刻における当該ウェアラブルデバイス10の装着者の手または腕の動きを示すセンサデータ(例えば、加速度データ、角速度データ、地磁気データ等)を取得し、データ入力デバイス20へ送信する。このウェアラブルデバイス10は、例えば、データ入力デバイス20のタップ操作を行う側の腕に装着される。 The wearable device 10 includes a sensor data acquisition unit 11. The sensor data acquisition unit 11 acquires sensor data (for example, acceleration data, angular velocity data, geomagnetic data, etc.) indicating the movement of the wearer's hand or arm of the wearable device 10 at each time, and sends it to the data input device 20. Send. The wearable device 10 is attached to, for example, the arm on the side of performing the tap operation of the data input device 20.

なお、このウェアラブルデバイス10が、正規ユーザにより装着されているか否かは運用面で確認されるものとする。また、このウェアラブルデバイス10は、当該ウェアラブルデバイス10の着脱状態を監視する機能を備え、当該機能により、同一人物による当該ウェアラブルデバイス10の装着が継続していることを確認できるものとする。 It should be noted that whether or not the wearable device 10 is worn by an authorized user shall be confirmed in terms of operation. Further, the wearable device 10 has a function of monitoring the attachment / detachment state of the wearable device 10, and it is possible to confirm that the same person continues to wear the wearable device 10 by the function.

データ入力デバイス20は、画面上のタッチ操作を受け付けるデバイスである。このデータ入力デバイス20は、例えば、パーソナルコンピュータ、タブレット端末、スマートフォン等である。データ入力デバイス20は、記憶部21と、入力イベント取得部22と、入力イベント推定部23と、判定部24とを備える。 The data input device 20 is a device that accepts touch operations on the screen. The data input device 20 is, for example, a personal computer, a tablet terminal, a smartphone, or the like. The data input device 20 includes a storage unit 21, an input event acquisition unit 22, an input event estimation unit 23, and a determination unit 24.

記憶部21は、データ入力デバイス20の画面上へのタッチ操作のログ(タッチ操作ログ)を記憶する。タッチ操作ログは、例えば、データ入力デバイス20へのタッチ操作のイベント(イベント種類)と、当該イベントの発生時刻(タイムスタンプ)、当該イベントが発生した座標等を対応付けて記録した情報である(図4参照)。このタッチ操作ログは、図4に例示するように、各タッチ操作時における画面上への圧力の値を含んでいてもよい。このタッチ操作のイベントは、例えば、図5に示す「downイベント(指が画面に触れた)」、「upイベント(指が画面から離れた)」、「moveイベント(指が画面に触れたまま移動した)」等である。なお、このタッチ操作ログは、データ入力デバイス20のタッチ操作を記録するタッチ操作記録部(図示省略)等により記録されるものとする。 The storage unit 21 stores a log of touch operations (touch operation log) on the screen of the data input device 20. The touch operation log is, for example, information recorded in association with an event (event type) of a touch operation on the data input device 20, an event occurrence time (time stamp), coordinates in which the event occurred, and the like (). (See FIG. 4). As illustrated in FIG. 4, this touch operation log may include the value of the pressure on the screen at each touch operation. The events of this touch operation are, for example, the "down event (finger touches the screen)", "up event (finger moves away from the screen)", and "move event (finger touches the screen)" shown in FIG. Moved) ”etc. It is assumed that this touch operation log is recorded by a touch operation recording unit (not shown) or the like that records the touch operation of the data input device 20.

図3の入力イベント取得部22は、データ入力デバイス20の画面上でのタッチ操作による入力イベント(例えば、タップ、ダブルタップ、左スワイプ、右スワイプ、上スクロール、下スクロール等)を取得する。具体的には、入力イベント取得部22は、タッチ操作ログにおける各タッチ操作のイベント種類、イベントが発生した座標、当該座標の圧力等に基づき入力イベントを判定する。 The input event acquisition unit 22 of FIG. 3 acquires an input event (for example, tap, double tap, left swipe, right swipe, up scroll, down scroll, etc.) by a touch operation on the screen of the data input device 20. Specifically, the input event acquisition unit 22 determines an input event based on the event type of each touch operation in the touch operation log, the coordinates at which the event occurred, the pressure at the coordinates, and the like.

例えば、入力イベント取得部22は、タッチ操作において、画面に触れている時間(downからupまでの時間)が閾値以下であり、かつ、画面に触れている間の座標の移動距離が閾値以下であれば、入力イベントはタップと判定する。また、入力イベント取得部22は、タッチ操作において、上記の条件を満たすタップが、所定時間以内の間に2度観測された場合、入力イベントはダブルタップと判定する。 For example, in the touch operation, the input event acquisition unit 22 has a time when the screen is touched (time from down to up) is equal to or less than the threshold value, and the coordinate movement distance while touching the screen is equal to or less than the threshold value. If so, the input event is determined to be a tap. Further, the input event acquisition unit 22 determines that the input event is a double tap when the tap satisfying the above conditions is observed twice within a predetermined time in the touch operation.

また、入力イベント取得部22は、タッチ操作において、画面に触れている間における座標の移動距離が閾値以上、かつ、移動が右→左方向の場合、入力イベントは左スワイプ(左方向へ指をなぞる/はじく)と判定する。また、入力イベント取得部22は、タッチ操作において、画面に触れている間、座標の移動距離が閾値以上かつ移動が左→右方向の場合、入力イベントは右スワイプ(右方向へ指をなぞる/はじく)と判定する。 Further, in the touch operation, when the movement distance of the coordinates while touching the screen is equal to or more than the threshold value and the movement is from right to left, the input event is swiped left (finger to the left). It is judged to be traced / repelled). Further, in the touch operation, when the movement distance of the coordinates is equal to or more than the threshold value and the movement is from left to right while touching the screen, the input event acquisition unit 22 swipes right (traces the finger to the right /). Repel).

また、入力イベント取得部22は、タッチ操作において、画面に触れている間、座標の移動距離が閾値以上かつ移動が下→上方向の場合、入力イベントは上スクロール(上方向へ指をなぞる/はじく)と判定する。また、入力イベント取得部22は、タッチ操作において、画面に触れている間、座標の移動距離が閾値以上かつ移動が上→下方向の場合、入力イベントは下スクロール(下方向へ指をなぞる/はじく)と判定する。 Further, in the touch operation, when the movement distance of the coordinates is equal to or greater than the threshold value and the movement is from downward to upward while touching the screen, the input event acquisition unit 22 scrolls upward (traces the finger upward /). Repel). Further, in the touch operation, when the movement distance of the coordinates is equal to or more than the threshold value and the movement is from upward to downward while touching the screen, the input event acquisition unit 22 scrolls downward (traces the finger downward /). Repel).

入力イベント推定部23は、ウェアラブルデバイス10から受信した各時刻のセンタデータに基づき、各時刻におけるウェアラブルデバイス10によるデータ入力デバイス20の画面上での入力イベントを推定する。 The input event estimation unit 23 estimates the input event on the screen of the data input device 20 by the wearable device 10 at each time based on the center data of each time received from the wearable device 10.

例えば、センサデータが3次元の加速度データであった場合、入力イベント推定部23は、加速度データに基づき、ごく短い時間幅の間に、Z軸に閾値以上の大きさの加速度変化があったとき、入力イベントはタップと推定する。また、入力イベント推定部23は、加速度データに基づき、上記の条件を満たすタップが、所定時間以内の間に2度観測された場合、入力イベントはダブルタップと推定する。 For example, when the sensor data is three-dimensional acceleration data, the input event estimation unit 23 determines that the Z-axis has an acceleration change larger than the threshold value during a very short time width based on the acceleration data. , The input event is presumed to be a tap. Further, the input event estimation unit 23 estimates that the input event is a double tap when the tap satisfying the above conditions is observed twice within a predetermined time based on the acceleration data.

また、入力イベント推定部23は、加速度データに基づき、X軸に大きな加速度変化や継続的な加速度変化があり、移動が右→左方向である場合、入力イベントは左スワイプと推定する。また、入力イベント推定部23は、加速度データに基づき、X軸に大きな加速度変化や継続的な加速度変化があり、移動が左→右方向である場合、入力イベントは右スワイプと推定する。 Further, the input event estimation unit 23 estimates that the input event is a left swipe when there is a large acceleration change or a continuous acceleration change on the X-axis based on the acceleration data and the movement is from right to left. Further, the input event estimation unit 23 estimates that the input event is a right swipe when the X-axis has a large acceleration change or a continuous acceleration change and the movement is from left to right based on the acceleration data.

また、入力イベント推定部23は、加速度データに基づき、Y軸に大きな加速度変化や継続的な加速度変化があり、移動が下→上方向である場合、入力イベントは上スクロールと推定する。また、入力イベント推定部23は、前記センサデータに基づき、Y軸に大きな加速度変化や継続的な加速度変化があり、移動が上→下方向である場合、入力イベントは下スクロールと推定する。 Further, the input event estimation unit 23 estimates that the input event scrolls up when there is a large acceleration change or a continuous acceleration change on the Y-axis based on the acceleration data and the movement is from downward to upward. Further, based on the sensor data, the input event estimation unit 23 estimates that the input event scrolls down when there is a large acceleration change or a continuous acceleration change on the Y-axis and the movement is from upward to downward.

ここで、入力イベント推定部23による入力イベントの推定は、例えば、入力イベントの種類ごとのセンサデータの特徴量による分類、または、センサデータの波形のパターンマッチング等により行ってもよい。 Here, the input event estimation unit 23 may estimate the input event by, for example, classification by the feature amount of the sensor data for each type of the input event, pattern matching of the waveform of the sensor data, or the like.

例えば、入力イベント推定部23は、入力イベントの種類ごとに、当該入力イベントのセンサデータの波形のパターンを用意しておく。そして、入力イベント推定部23は、図6に示すように、取得されたウェアラブルデバイス10の各時刻のセンサデータに対し、所定の時間幅のウィンドウをスライドさせて、各入力イベントのセンサデータの波形のパターンとマッチする区間を探索する。 For example, the input event estimation unit 23 prepares a waveform pattern of the sensor data of the input event for each type of input event. Then, as shown in FIG. 6, the input event estimation unit 23 slides a window having a predetermined time width with respect to the acquired sensor data of the wearable device 10 at each time, and waveforms the sensor data of each input event. Search for a section that matches the pattern of.

例えば、入力イベント推定部23は、ウェアラブルデバイス10のセンサデータに対し、図6に示すように、所定の時間幅のウィンドウをスライドさせて、各入力イベントのセンサデータの波形のパターンとマッチする区間を探索する。例えば、入力イベント推定部23は、(1)タップを示すセンサデータの波形のパターンについて、所定の時間幅のウィンドウをスライドさせて、タップと推定される区間を探索する。また、入力イベント推定部23は、(2)上スクロール、(3)右スワイプを示すセンサデータの波形のパターンについても、所定の時間幅のウィンドウをスライドさせて、上スクロール、右スワイプと推定される区間を探索する。 For example, the input event estimation unit 23 slides a window having a predetermined time width with respect to the sensor data of the wearable device 10 as shown in FIG. 6, and a section that matches the waveform pattern of the sensor data of each input event. To explore. For example, the input event estimation unit 23 searches for a section estimated to be a tap by sliding a window having a predetermined time width for (1) a waveform pattern of sensor data indicating a tap. Further, the input event estimation unit 23 also slides a window having a predetermined time width for the waveform pattern of the sensor data indicating (2) up scroll and (3) right swipe, and is estimated to be up scroll and right swipe. Search for a section.

入力イベント推定部23が、上記のような処理を行うことで、各時刻におけるウェアラブルデバイス10のセンサデータからどのような入力イベントが発生したかを推定することができる。これにより、例えば、入力イベント推定部23は、図6に示すセンサデータから、ウェアラブルデバイス10に上スクロール→タップ→右スワイプという入力イベントが発生したという推定結果を得ることができる。 By performing the above processing, the input event estimation unit 23 can estimate what kind of input event has occurred from the sensor data of the wearable device 10 at each time. As a result, for example, the input event estimation unit 23 can obtain an estimation result that an input event of scrolling up → tapping → swiping right has occurred on the wearable device 10 from the sensor data shown in FIG.

なお、上記の入力イベント推定部23は、ウェアラブルデバイス10のセンサデータ(例えば、加速度データ)について、例えば、データ値の振幅値や周波数等の許容範囲を定義し、許容範囲から外れたセンサデータについては除外してもよい。また、データ入力デバイス20は、データ入力デバイス20のタッチ操作時および非タッチ操作時のセンサデータの機械学習の結果を用いて、ウェアラブルデバイス10のセンサデータから、タッチ操作以外のセンサデータを除外してもよい。このようにすることで入力イベント推定部23は、入力イベントの推定の精度を向上させることができる。 The input event estimation unit 23 defines an allowable range of the sensor data (for example, acceleration data) of the wearable device 10, such as the amplitude value and frequency of the data value, and the sensor data outside the allowable range. May be excluded. Further, the data input device 20 excludes sensor data other than the touch operation from the sensor data of the wearable device 10 by using the result of machine learning of the sensor data during the touch operation and the non-touch operation of the data input device 20. You may. By doing so, the input event estimation unit 23 can improve the accuracy of estimating the input event.

図3の判定部24は、データ入力デバイス20の画面上での入力イベントの時系列データと、ウェアラブルデバイス10のセンサデータから推定された入力イベントの時系列データとを照合することにより、データ入力デバイス20の操作者が、ウェアラブルデバイス10の装着者と同一人物か否かを判定する。 The determination unit 24 of FIG. 3 collates the time-series data of the input event on the screen of the data input device 20 with the time-series data of the input event estimated from the sensor data of the wearable device 10 to input data. It is determined whether or not the operator of the device 20 is the same person as the wearer of the wearable device 10.

具体的には、判定部24は、入力イベント推定部23により推定されたウェアラブルデバイス10の装着者による入力イベントの時系列データである第1の時系列データを取得する。また、判定部24は、入力イベント取得部22により取得されたデータ入力デバイス20における入力イベントの時系列データである第2の時系列データを取得する。 Specifically, the determination unit 24 acquires the first time-series data which is the time-series data of the input event by the wearer of the wearable device 10 estimated by the input event estimation unit 23. Further, the determination unit 24 acquires the second time-series data which is the time-series data of the input event in the data input device 20 acquired by the input event acquisition unit 22.

そして、判定部24は、第1の時系列データと第2の時系列データとを照合し、第1の時系列データにおける入力イベントと第2の時系列データにおける入力イベントとの一致率が所定値以上である場合、データ入力デバイス20の操作者はウェアラブルデバイス10の装着者と同一人物であると判定する。一方、判定部24は、上記の一致率が所定値未満である場合、データ入力デバイス20の操作者はウェアラブルデバイス10の装着者と同一人物ではないと判定する。 Then, the determination unit 24 collates the first time series data with the second time series data, and determines the matching rate between the input event in the first time series data and the input event in the second time series data. If it is equal to or more than the value, it is determined that the operator of the data input device 20 is the same person as the wearer of the wearable device 10. On the other hand, when the matching rate is less than a predetermined value, the determination unit 24 determines that the operator of the data input device 20 is not the same person as the wearer of the wearable device 10.

例えば、判定部24は、図7に示すように、タッチ操作ログから得られた入力イベントの推定結果の時系列での並び(第2の時系列データ)における右スワイプ→タップ→上スクロール→左スワイプ→タップ→タップという入力イベントをひとまとまりとし、ウェアラブルデバイス10の装着者による入力イベントの推定結果の時系列での並び(第1の時系列データ)の中から、そのまとまりが登場する区間を探索する。 For example, as shown in FIG. 7, the determination unit 24 swipes right → taps → scrolls up → left in the time series arrangement (second time series data) of the estimation results of the input events obtained from the touch operation log. The input events of swipe → tap → tap are grouped together, and the section in which the group appears from the time-series sequence of the estimation results of the input events by the wearer of the wearable device 10 (first time-series data). Explore.

そして、判定部24が、ウェアラブルデバイス10の装着者による入力イベントの推定結果の時系列での並びの中から、右スワイプ→タップ→上スクロール→左スワイプ→タップ→タップのまとまりが登場する区間を発見した場合、データ入力デバイス20の操作者はウェアラブルデバイス10の装着者と同一人物であると判定する。このようにすることで、判定部24は、第1の時系列データと第2の時系列データとの間で時間のずれがあった場合でも、両時系列データの入力イベントを照合し、データ入力デバイス20の操作者はウェアラブルデバイス10の装着者と同一人物であるか否かを判定することができる。 Then, the determination unit 24 selects a section in which a group of right swipe → tap → up scroll → left swipe → tap → tap appears from the time series arrangement of the estimation result of the input event by the wearer of the wearable device 10. If found, the operator of the data input device 20 is determined to be the same person as the wearer of the wearable device 10. By doing so, the determination unit 24 collates the input events of both time series data and data even if there is a time lag between the first time series data and the second time series data. The operator of the input device 20 can determine whether or not he / she is the same person as the wearer of the wearable device 10.

また、上記の第1の時系列データにおける入力イベントの推定精度があまり高くない場合も考えられる。このような場合、判定部24は、第1の時系列データと第2の時系列データとの両時系列データにおける入力イベントの一致率が最も高くなるような対応付けを行った上で、両時系列データを照合してもよい。つまり、判定部24は、第1の時系列データと第2の時系列データとの時刻同期をとった上で、両時系列データの照合を行ってもよい。なお、ここでの一致率は、例えば、時系列データにおける入力イベントの種類、入力イベントの並び、入力イベント間の時間間隔等を考慮して判断される。 It is also possible that the estimation accuracy of the input event in the first time series data is not very high. In such a case, the determination unit 24 associates the first time-series data with the second time-series data so that the matching rate of the input events in both time-series data is the highest, and then both. Time series data may be collated. That is, the determination unit 24 may collate both time series data after synchronizing the time between the first time series data and the second time series data. The match rate here is determined in consideration of, for example, the type of input event in the time series data, the arrangement of the input events, the time interval between the input events, and the like.

例えば、図8に示すように、タッチ操作ログから得られた入力イベントの推定結果の時系列での並び(第2の時系列データ)が、右スワイプ→タップ→上スクロール→左スワイプ→タップ→タップであり、センサデータの入力イベントの推定結果の時系列での並び(第1の時系列データ)が、右スワイプ→右スワイプ→タップ→タップ→タップ→タップ→左スワイプ→タップ→タップである場合を考える。 For example, as shown in FIG. 8, the time series arrangement (second time series data) of the estimation result of the input event obtained from the touch operation log is right swipe → tap → up scroll → left swipe → tap → It is a tap, and the time-series arrangement (first time-series data) of the estimation result of the input event of the sensor data is right swipe → right swipe → tap → tap → tap → tap → left swipe → tap → tap. Consider the case.

この場合において、タッチ操作ログにおける入力イベントの推定結果「右スワイプ」に対し、センサデータの入力イベントの推定結果に上記の「右スワイプ」が2つあるとき、判定部24は、両時系列データ全体として入力イベントの推定結果同士の一致率が最も高い候補を選択する。 In this case, when there are two "right swipes" in the estimation result of the input event of the sensor data with respect to the estimation result "right swipe" of the input event in the touch operation log, the determination unit 24 determines both time series data. As a whole, the candidate with the highest matching rate between the estimation results of the input event is selected.

すなわち、図8に示すように、タッチ操作ログから得られた入力イベントの推定結果「右スワイプ」と、センサデータの「右スワイプ」(候補A)とを対応するよう合わせると、両時系列データ間で「右スワイプ」(候補A)以外の入力イベントの推定結果同士の一致率は低い。 That is, as shown in FIG. 8, when the estimation result “right swipe” of the input event obtained from the touch operation log and the “right swipe” (candidate A) of the sensor data are combined so as to correspond to each other, both time series data The match rate between the estimation results of input events other than "right swipe" (candidate A) is low.

一方、タッチ操作ログから得られた入力イベントの推定結果「右スワイプ」と「右スワイプ」(候補B)とを対応するよう合わせると、候補Aの場合と比較して、両時系列データ間で候補B以外の入力イベントの推定結果同士の一致率の方が高くなる。 On the other hand, when the estimation results "right swipe" and "right swipe" (candidate B) of the input event obtained from the touch operation log are combined so as to correspond to each other, the two time series data are compared with the case of candidate A. The match rate between the estimation results of the input events other than candidate B is higher.

よって、判定部24は、タッチ操作ログから得られた入力イベントの推定結果「右スワイプ」と、センサデータの入力イベントの推定結果「右スワイプ」(候補B)とを対応するように両時系列データを合わせた上で(つまり両時系列データの時刻同期をとった上で)、両時系列データの照合を行う。 Therefore, the determination unit 24 has both time series so as to correspond the estimation result "right swipe" of the input event obtained from the touch operation log and the estimation result "right swipe" (candidate B) of the input event of the sensor data. After matching the data (that is, after synchronizing the time of both time series data), the two time series data are collated.

判定部24が上記のような両時系列データの時刻同期をとることで、ウェアラブルデバイス10のセンサデータの示す入力イベントの推定精度が低かった場合でも、データ入力デバイス20の操作者がウェアラブルデバイス10の装着者と同一人物であるか否かを精度よく判定することができる。 By synchronizing the time of both time series data as described above, the determination unit 24 allows the operator of the data input device 20 to perform the wearable device 10 even if the estimation accuracy of the input event indicated by the sensor data of the wearable device 10 is low. It is possible to accurately determine whether or not the person is the same person as the wearer of.

なお、判定部24が、例えば、ウェアラブルデバイス10の各時刻におけるX軸、Y軸、Z軸の加速度データと、データ入力デバイス20の各時刻におけるdownのタッチ操作のみについて抽出したデータとについて、上記の方法により時刻同期をとると、図9に示すグラフのようになる。図9に示すように、上記の方法により両時系列データの時刻同期をとることで、データ入力デバイス20の画面上にdownのタッチ操作が行われたタイミングと、ウェアラブルデバイス10のX軸、Y軸、Z軸の加速度データが大きく変動するタイミングとがほぼ一致させることができることが分かる。 The determination unit 24 describes, for example, the acceleration data of the X-axis, the Y-axis, and the Z-axis at each time of the wearable device 10 and the data extracted only for the down touch operation at each time of the data input device 20. When the time is synchronized by the method of FIG. 9, the graph shown in FIG. 9 is obtained. As shown in FIG. 9, by synchronizing the time of both time series data by the above method, the timing at which the down touch operation is performed on the screen of the data input device 20 and the X-axis and Y of the wearable device 10 It can be seen that the timing at which the acceleration data of the axis and the Z axis fluctuate greatly can be substantially matched.

次に、図10を用いて、上記の判定システムを用いた認証処理の処理手順の例を説明する。なお、以下の説明において、データ入力デバイス20は、データ入力デバイス20にPINコードが入力されると操作ロックを解除し、データ入力デバイス20の操作者とウェアラブルデバイス10の装着者とが同一人物ではないと判定した場合、再度操作ロックを行うものとする。また、ウェアラブルデバイス10は生体認証等により、正規ユーザにより装着されていることを確認し、当該ユーザ(正規ユーザ)による装着が継続されているか否かを確認する機能(同一人物装着継続確認機能)を備えるものとする。 Next, an example of the processing procedure of the authentication process using the above-mentioned determination system will be described with reference to FIG. In the following description, the data input device 20 releases the operation lock when the PIN code is input to the data input device 20, and the operator of the data input device 20 and the wearer of the wearable device 10 are the same person. If it is determined that there is no such operation, the operation lock shall be performed again. In addition, the wearable device 10 is a function of confirming that the wearable device 10 is worn by a legitimate user by biometric authentication or the like, and confirming whether or not the wearable device 10 is continuously worn by the user (regular user) (same person wearing continuation confirmation function). Shall be provided.

さらに、データ入力デバイス20は、PINコードの入力後、ウェアラブルデバイス10とのペアリングを行うものとする。ここでのペアリングの対象となるウェアラブルデバイス10は、データ入力デバイス20と無線通信可能な範囲内にある生体認証済みのウェアラブルデバイス10である。そして、データ入力デバイス20は、ペアリングされたウェアラブルデバイス10からのセンサデータとして加速度データを取得し、この加速度データに基づき、データ入力デバイス20の操作者とウェアラブルデバイス10の装着者との同一人物性判定処理を行うものとする。 Further, the data input device 20 shall be paired with the wearable device 10 after inputting the PIN code. The wearable device 10 to be paired here is a biometrically authenticated wearable device 10 within a range in which wireless communication with the data input device 20 is possible. Then, the data input device 20 acquires acceleration data as sensor data from the paired wearable device 10, and based on this acceleration data, the same person as the operator of the data input device 20 and the wearer of the wearable device 10. Gender determination processing shall be performed.

まず、ウェアラブルデバイス10がユーザにより装着されたこと(S1)を検出すると(S2:装着状態検出)、同一人物により装着が継続しているか否かを確認する同一人物装着継続確認機能をONにする(S3)。 First, when it is detected that the wearable device 10 is worn by the user (S1) (S2: wearing state detection), the same person wearing continuation confirmation function for confirming whether or not the wearing is continued by the same person is turned on. (S3).

そして、データ入力デバイス20は操作ロック状態(S10)の後、ユーザからのPINコード入力を受け付け(S11)、認証OKである場合、ロックを解除し(S12)、ウェアラブルデバイス10の検出を行う(S13)。つまり、データ入力デバイス20は、当該データ入力デバイス20から無線通信可能な範囲内にあるウェアラブルデバイス10を検出する。そして、データ入力デバイス20は検出されたウェアラブルデバイス10に対し、ペアリングの依頼を行い(S14)、当該ウェアラブルデバイス10からペアリング許可の通知を受信すると(S15)、データ入力デバイス20は当該ウェアラブルデバイス10とのペアリングを行う(S16)。 Then, after the operation lock state (S10), the data input device 20 accepts the PIN code input from the user (S11), releases the lock (S12) if the authentication is OK, and detects the wearable device 10 (S10). S13). That is, the data input device 20 detects the wearable device 10 within the range in which wireless communication is possible from the data input device 20. Then, when the data input device 20 requests the detected wearable device 10 for pairing (S14) and receives the pairing permission notification from the wearable device 10 (S15), the data input device 20 is the wearable. Pairing with the device 10 is performed (S16).

なお、ウェアラブルデバイス10は、例えば、当該ウェアラブルデバイス10におけるユーザの生体認証後、同一人物装着継続確認がとれた場合に、データ入力デバイス20へペアリング許可の通知を送信する。そして、データ入力デバイス20は、ペアリング許可の通知の送信元のウェアラブルデバイス10をペアリングの相手(加速度データによる同一人物性判定の対象)として登録する。 The wearable device 10 transmits, for example, a notification of pairing permission to the data input device 20 when it is confirmed that the same person is continuously worn after the biometric authentication of the user in the wearable device 10. Then, the data input device 20 registers the wearable device 10 that is the transmission source of the pairing permission notification as the pairing partner (the target of the identity determination based on the acceleration data).

S16の後、データ入力デバイス20は画面上にペアリング結果の表示と、タッチ操作の開始指示とを行う(S17)。このような表示を見たユーザは、データ入力デバイス20の画面上へのタッチ操作を開始し(S21)、データ入力デバイス20は、ユーザのタッチ操作のログを取得し、記憶部21に記憶する(S22:タッチ操作ログ取得)。また、ウェアラブルデバイス10は当該ユーザの手または腕の動きを示す加速度データを取得する(S23)。さらに、データ入力デバイス20は、ウェアラブルデバイス10へ加速度データの送信依頼を行い(S24)、当該ウェアラブルデバイス10からタイムスタンプが付された加速度データと、当該ウェアラブルデバイス10の機器署名とを受信する(S25)。 After S16, the data input device 20 displays the pairing result on the screen and gives an instruction to start the touch operation (S17). The user who sees such a display starts a touch operation on the screen of the data input device 20 (S21), and the data input device 20 acquires the log of the user's touch operation and stores it in the storage unit 21. (S22: Touch operation log acquisition). In addition, the wearable device 10 acquires acceleration data indicating the movement of the user's hand or arm (S23). Further, the data input device 20 requests the wearable device 10 to transmit acceleration data (S24), and receives the time-stamped acceleration data from the wearable device 10 and the device signature of the wearable device 10 (S24). S25).

S25の後、データ入力デバイス20は、機器署名によりウェアラブルデバイス10の本人性を確認すると、当該ウェアラブルデバイス10から受信した各時刻の加速度データと、S22で取得したタッチ操作ログとを照合することにより、データ入力デバイス20の操作者(ユーザ)とウェアラブルデバイス10の装着者とが同一人物か否か判定する(S26:同一人物性判定処理)。ここで、データ入力デバイス20が、データ入力デバイス20の操作者とウェアラブルデバイス10の装着者とは同一人物ではないと判定した場合(S27でNo)、データ入力デバイス20の操作ロックを行う(S10)。一方、データ入力デバイス20が、データ入力デバイス20の操作者とウェアラブルデバイス10の装着者とが同一人物と判定した場合(S27でYes)、操作ロックは行わず、操作を継続させる(S28)。 After S25, when the data input device 20 confirms the identity of the wearable device 10 by the device signature, the data input device 20 collates the acceleration data at each time received from the wearable device 10 with the touch operation log acquired in S22. , It is determined whether or not the operator (user) of the data input device 20 and the wearer of the wearable device 10 are the same person (S26: same person identity determination process). Here, when the data input device 20 determines that the operator of the data input device 20 and the wearer of the wearable device 10 are not the same person (No in S27), the operation of the data input device 20 is locked (S10). ). On the other hand, when the data input device 20 determines that the operator of the data input device 20 and the wearer of the wearable device 10 are the same person (Yes in S27), the operation lock is not performed and the operation is continued (S28).

このようにすることで、判定システムは、データ入力デバイス20のPINコードの認証後、正規ユーザからの操作は受け付けるが、正規ユーザ以外からの操作は受け付けない(ロックする)ことができる。 By doing so, after the PIN code of the data input device 20 is authenticated, the determination system can accept operations from a legitimate user, but cannot accept (lock) operations from anyone other than the legitimate user.

なお、図10のS16のペアリングにおいて、データ入力デバイス20は、BLE(Bluetooth Low Energy)の電波強度等から、自動でウェアラブルデバイス10を検出してもよいし、周囲にあるウェアラブルデバイス10の候補を画面に表示してユーザに選択させてもよい。いずれの場合も、データ入力デバイス20が誤って他のウェアラブルデバイス10とペアリングしてしまった場合でも、後に行う同一人物性判定処理が成功しないと操作を継続できないようにする(操作ロックを行う)。これにより判定システムは、データ入力デバイス20が、不正に第三者に操作されてしまうことを防止できる。 In the pairing of S16 in FIG. 10, the data input device 20 may automatically detect the wearable device 10 from the radio wave intensity of BLE (Bluetooth Low Energy) or the like, or may be a candidate for the wearable device 10 in the vicinity. May be displayed on the screen and the user may select. In either case, even if the data input device 20 is accidentally paired with another wearable device 10, the operation cannot be continued unless the identity determination process to be performed later is successful (operation lock is performed). ). As a result, the determination system can prevent the data input device 20 from being illegally operated by a third party.

また、図10のS26において、データ入力デバイス20は、所定のタッチ操作数または操作時間ごとに、同一人物性判定処理を行うこととしてもよい。その場合は、判定結果が連続して所定回数NGとなった場合、データ入力デバイス20は他人による操作と判断し、操作ロックを行うようにしてもよい。 Further, in S26 of FIG. 10, the data input device 20 may perform the same personality determination process for each predetermined number of touch operations or operation times. In that case, if the determination result is continuously NG a predetermined number of times, the data input device 20 may determine that the operation is performed by another person and lock the operation.

[その他の実施形態]
なお、データ入力デバイス20は、上記の第1の時系列データ(ウェアラブルデバイス10の装着者による入力イベントの推定結果の時系列での並び)と第2の時系列データ(タッチ操作ログから得られた入力イベントの推定結果の時系列での並び)とを照合する際、両時系列データの時刻同期をとるため、データ取得時にキャリブレーションを行うようにしてもよい。
[Other Embodiments]
The data input device 20 uses the above-mentioned first time-series data (arrangement of the estimation results of input events by the wearer of the wearable device 10 in time series) and second time-series data (obtained from the touch operation log). In order to synchronize the time of both time series data when collating with the time series of the estimation result of the input event), the calibration may be performed at the time of data acquisition.

具体的には、データ入力デバイス20は、図3に示すキャリブレーション部25をさらに備える。このキャリブレーション部25は、データ入力デバイス20の画面上等に、キャリブレーションのためユーザに所定のタッチ操作を促す表示を行う。なお、上記の所定のタッチ操作は、キャリブレーションを行いやすいよう、特徴的なタッチ操作であることが好ましい。そして、判定部24は、この所定のタッチ操作を示す入力イベントが、第1の時系列データと第2の時系列データに出現した場合、当該入力イベントが発生した時刻が同じ時刻であるものとして、第1の時系列データおよび第2の時系列データの時刻同期をとる。 Specifically, the data input device 20 further includes a calibration unit 25 shown in FIG. The calibration unit 25 displays on the screen of the data input device 20 or the like to urge the user to perform a predetermined touch operation for calibration. The above-mentioned predetermined touch operation is preferably a characteristic touch operation so that calibration can be easily performed. Then, when the input event indicating the predetermined touch operation appears in the first time series data and the second time series data, the determination unit 24 assumes that the time when the input event occurs is the same time. , The time synchronization of the first time series data and the second time series data.

このようにデータ入力デバイス20において、第1の時系列データおよび第2の時系列データの時刻同期をとることで、第1の時系列データおよび第2の時系列データに基づく同一人物性判定処理を精度よく行うことができる。 In this way, in the data input device 20, by synchronizing the time of the first time series data and the second time series data, the same person identity determination process based on the first time series data and the second time series data is performed. Can be performed accurately.

また、前記した実施形態において、上記の同一人物性判定処理や、ウェアラブルデバイス10のセンサデータの示す入力イベントの推定は、データ入力デバイス20が行うこととしたが、データ入力デバイス20以外の装置(例えば、判定装置や判定サーバ)が行うこととしてもよい。 Further, in the above-described embodiment, the data input device 20 performs the above-mentioned identity determination process and the estimation of the input event indicated by the sensor data of the wearable device 10, but a device other than the data input device 20 ( For example, a determination device or a determination server) may perform the operation.

[プログラム]
また、上記の実施形態で述べたデータ入力デバイス20の機能を実現するプログラムを所望の情報処理装置(コンピュータ)にインストールすることによって実装できる。例えば、パッケージソフトウェアやオンラインソフトウェアとして提供される上記のプログラムを情報処理装置に実行させることにより、情報処理装置をデータ入力デバイス20として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等がその範疇に含まれる。また、データ入力デバイス20を、クラウドサーバに実装してもよい。
[program]
Further, it can be implemented by installing a program that realizes the function of the data input device 20 described in the above embodiment on a desired information processing device (computer). For example, the information processing device can function as the data input device 20 by causing the information processing device to execute the above program provided as package software or online software. The information processing device referred to here includes a desktop type or notebook type personal computer. In addition, the information processing device includes smartphones, mobile phones, mobile communication terminals such as PHS (Personal Handyphone System), and PDA (Personal Digital Assistant). Further, the data input device 20 may be mounted on the cloud server.

図11を用いて、上記のプログラム(判定プログラム)を実行するコンピュータの一例を説明する。図11に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。 An example of a computer that executes the above program (determination program) will be described with reference to FIG. As shown in FIG. 11, the computer 1000 has, for example, a memory 1010, a CPU 1020, a hard disk drive interface 1030, a disk drive interface 1040, a serial port interface 1050, a video adapter 1060, and a network interface 1070. Each of these parts is connected by a bus 1080.

メモリ1010は、ROM(Read Only Memory)1011およびRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。ディスクドライブ1100には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。 The memory 1010 includes a ROM (Read Only Memory) 1011 and a RAM (Random Access Memory) 1012. The ROM 1011 stores, for example, a boot program such as a BIOS (Basic Input Output System). The hard disk drive interface 1030 is connected to the hard disk drive 1090. The disk drive interface 1040 is connected to the disk drive 1100. A removable storage medium such as a magnetic disk or an optical disk is inserted into the disk drive 1100. For example, a mouse 1110 and a keyboard 1120 are connected to the serial port interface 1050. A display 1130 is connected to the video adapter 1060, for example.

ここで、図11に示すように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。前記した各実施形態で説明した各種データや情報は、例えばハードディスクドライブ1090やメモリ1010に記憶される。 Here, as shown in FIG. 11, the hard disk drive 1090 stores, for example, the OS 1091, the application program 1092, the program module 1093, and the program data 1094. Various data and information described in each of the above-described embodiments are stored in, for example, a hard disk drive 1090 or a memory 1010.

そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。 Then, the CPU 1020 reads the program module 1093 and the program data 1094 stored in the hard disk drive 1090 into the RAM 1012 as needed, and executes each of the above-described procedures.

なお、上記の判定プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、上記のプログラムに係るプログラムモジュール1093やプログラムデータ1094は、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。 The program module 1093 and program data 1094 related to the above determination program are not limited to the case where they are stored in the hard disk drive 1090, for example, are stored in a removable storage medium and are stored by the CPU 1020 via the disk drive 1100 or the like. It may be read out. Alternatively, the program module 1093 and the program data 1094 related to the above program are stored in another computer connected via a network such as LAN (Local Area Network) or WAN (Wide Area Network), and are stored via the network interface 1070. It may be read by the CPU 1020.

10 ウェアラブルデバイス
11 センサデータ取得部
20 データ入力デバイス
21 記憶部
22 入力イベント取得部
23 入力イベント推定部
24 判定部
25 キャリブレーション部
10 Wearable device 11 Sensor data acquisition unit 20 Data input device 21 Storage unit 22 Input event acquisition unit 23 Input event estimation unit 24 Judgment unit 25 Calibration unit

Claims (6)

ウェアラブルデバイスの装着者の手または腕の動きを示すセンサデータを取得するセンサデータ取得部と、
前記取得した各時刻のセンデータに基づき前記ウェアラブルデバイスの装着者によるデータ入力デバイスの画面上でのタッチ操作の種類である入力イベントを推定する推定部と、
前記データ入力デバイスの画面上でのタッチ操作による入力イベントを取得する入力イベント取得部と、
前記推定部により推定された前記ウェアラブルデバイスの装着者による一連の前記入力イベントを時系列で示した第1の時系列データと、前記入力イベント取得部により取得された前記データ入力デバイスにおける一連の前記入力イベントを時系列で示した第2の時系列データとを照合し、前記第1の時系列データにおける一連の前記入力イベントと前記第2の時系列データにおける一連の前記入力イベントとの一致率が所定値以上である場合、前記データ入力デバイスの操作者は前記ウェアラブルデバイスの装着者と同一人物であると判定する判定部と
を備えることを特徴とする判定装置。
A sensor data acquisition unit that acquires sensor data indicating the movement of the wearable device's hand or arm, and a sensor data acquisition unit.
An estimation unit that estimates an input event is the type of touch operation on the screen of the data input device according to the wearer of the wearable device based on the sensor data at each time and the acquired,
An input event acquisition unit that acquires an input event by touch operation on the screen of the data input device,
A series of the in the data input device and the first time series data, acquired by the input event acquiring section showing a series of said input event by the wearer of the wearable device estimated by the estimation unit in chronological collating the second time series data shown in chronological input events, the rate of matching with the sequence of the input event in a series of the input event and the second time series data in the first time series data A determination device including a determination unit that determines that the operator of the data input device is the same person as the wearer of the wearable device when is equal to or greater than a predetermined value.
前記判定部は、
前記第1の時系列データと前記第2の時系列データとを照合する際、前記第1の時系列データにおける一連の入力イベントと前記第2の時系列データにおける一連の入力イベントとの一致率が最も高くなるよう、前記第1の時系列データおよび前記第2の時系列データの時刻同期をとる
ことを特徴とする請求項1に記載の判定装置。
The determination unit
When collating the first time series data with the second time series data, the matching rate between the series of input events in the first time series data and the series of input events in the second time series data. The determination device according to claim 1, wherein the time-synchronization of the first time-series data and the second time-series data is performed so that the value is the highest.
前記判定装置は、
前記データ入力デバイスに、キャリブレーションのための所定のタッチ操作を行うようユーザに促すキャリブレーション部をさらに備え、
前記判定部は、
前記キャリブレーションのための所定のタッチ操作を示す入力イベントが、前記第1の時系列データと前記第2の時系列データに出現した場合、前記入力イベントが発生した時刻が同じ時刻であるものとして、前記第1の時系列データおよび前記第2の時系列データの時刻同期をとった上で、前記第1の時系列データと前記第2の時系列データとを照合する
ことを特徴とする請求項1に記載の判定装置。
The determination device
The data input device is further provided with a calibration unit that prompts the user to perform a predetermined touch operation for calibration.
The determination unit
When an input event indicating a predetermined touch operation for the calibration appears in the first time series data and the second time series data, it is assumed that the time when the input event occurs is the same time. , The first time-series data and the second time-series data are time-synchronized, and then the first time-series data and the second time-series data are collated. Item 1. The determination device according to item 1.
前記推定部は、 The estimation unit
前記データ入力デバイスの画面上に指が触れたdownイベントが発生してから、前記画面上から指が離れたupイベントが発生するまでの時間と、前記画面上に指が触れたまま移動したmoveイベントにおける移動距離とを用いて、前記入力イベントを推定し、 The time from the occurrence of the down event that the finger touches on the screen of the data input device to the occurrence of the up event that the finger separates from the screen, and the move that the finger touches and moves on the screen. The input event is estimated using the distance traveled in the event.
前記判定部は、 The determination unit
前記ウェアラブルデバイスおよび前記データ入力デバイスに前記downイベントが発生したタイミングで、前記第1の時系列データと前記第2の時系列データとの時刻同期をとり、前記第1の時系列データと前記第2の時系列データとを照合する At the timing when the down event occurs in the wearable device and the data input device, the time synchronization between the first time series data and the second time series data is performed, and the first time series data and the first time series data are synchronized. Collate with 2 time series data
ことを特徴とする請求項1に記載の判定装置。 The determination device according to claim 1, wherein the determination device is characterized by the above.
判定装置が、
ウェアラブルデバイスの装着者の手または腕の動きを示すセンサデータを取得するステップと、
前記取得した各時刻のセンデータに基づき前記ウェアラブルデバイスの装着者によるデータ入力デバイスの画面上での入力イベントを推定するステップと、
前記データ入力デバイスの画面上でのタッチ操作の種類である入力イベントを取得するステップと、
前記推定された前記ウェアラブルデバイスの装着者による一連の前記入力イベントを時系列で示した第1の時系列データと、前記取得された前記データ入力デバイスにおける一連の前記入力イベントを時系列で示した第2の時系列データとを照合し、前記第1の時系列データにおける一連の前記入力イベントと前記第2の時系列データにおける一連の前記入力イベントとの一致率が所定値以上である場合、前記データ入力デバイスの操作者は前記ウェアラブルデバイスの装着者と同一人物であると判定するステップと
を含んだことを特徴とする判定方法。
Judgment device
Steps to acquire sensor data indicating the movement of the wearable device wearer's hand or arm, and
Estimating an input event on the screen of the data input device according to the wearer of the wearable device based on the sensor data at each time and the acquired,
A step of acquiring an input event, which is a type of touch operation on the screen of the data input device, and
A first time series data shown in a time series sequence of the input events by the wearer of the estimated the wearable device, showing a series of the input events in the acquired the data input device in time series second time collates the series data, when the rate of matching with the sequence of the input event in a series of the input event and the second time series data in the first time series data is a predetermined value or more, A determination method comprising the step of determining that the operator of the data input device is the same person as the wearer of the wearable device.
ウェアラブルデバイスの装着者の手または腕の動きを示すセンサデータを取得するステップと、
前記取得した各時刻のセンデータに基づき前記ウェアラブルデバイスの装着者によるデータ入力デバイスの画面上での入力イベントを推定するステップと、
前記データ入力デバイスの画面上でのタッチ操作の種類である入力イベントを取得するステップと、
前記推定された前記ウェアラブルデバイスの装着者による一連の前記入力イベントを時系列で示した第1の時系列データと、前記取得された前記データ入力デバイスにおける一連の前記入力イベントを時系列で示した第2の時系列データとを照合し、前記第1の時系列データにおける一連の前記入力イベントと前記第2の時系列データにおける一連の前記入力イベントとの一致率が所定値以上である場合、前記データ入力デバイスの操作者は前記ウェアラブルデバイスの装着者と同一人物であると判定するステップと
をコンピュータに実行させることを特徴とする判定プログラム。
Steps to acquire sensor data indicating the movement of the wearable device wearer's hand or arm, and
Estimating an input event on the screen of the data input device according to the wearer of the wearable device based on the sensor data at each time and the acquired,
A step of acquiring an input event, which is a type of touch operation on the screen of the data input device, and
A first time series data shown in a time series sequence of the input events by the wearer of the estimated the wearable device, showing a series of the input events in the acquired the data input device in time series second time collates the series data, when the rate of matching with the sequence of the input event in a series of the input event and the second time series data in the first time series data is a predetermined value or more, A determination program characterized in that an operator of the data input device causes a computer to perform a step of determining that the operator is the same person as the wearer of the wearable device.
JP2017162061A 2017-08-25 2017-08-25 Judgment device, judgment method, and judgment program Active JP6813456B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017162061A JP6813456B2 (en) 2017-08-25 2017-08-25 Judgment device, judgment method, and judgment program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017162061A JP6813456B2 (en) 2017-08-25 2017-08-25 Judgment device, judgment method, and judgment program

Publications (2)

Publication Number Publication Date
JP2019040405A JP2019040405A (en) 2019-03-14
JP6813456B2 true JP6813456B2 (en) 2021-01-13

Family

ID=65725710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017162061A Active JP6813456B2 (en) 2017-08-25 2017-08-25 Judgment device, judgment method, and judgment program

Country Status (1)

Country Link
JP (1) JP6813456B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7256512B2 (en) * 2018-05-15 2023-04-12 国立大学法人 鹿児島大学 Personal identification system, personal identification method and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016024424A1 (en) * 2014-08-11 2016-02-18 ソニー株式会社 Information-processing device, information processing method, and information-processing system
JP6184931B2 (en) * 2014-10-29 2017-08-23 京セラ株式会社 Mobile terminal and lock control method for mobile terminal
US20160246472A1 (en) * 2015-02-25 2016-08-25 Qualcomm Incorporated Authentication based on a tap sequence performed on a touch screen
KR102253155B1 (en) * 2015-03-31 2021-05-18 삼성전자주식회사 A method for providing a user interface and an electronic device therefor

Also Published As

Publication number Publication date
JP2019040405A (en) 2019-03-14

Similar Documents

Publication Publication Date Title
US9832206B2 (en) System, method and authorization device for biometric access control to digital devices
Zheng et al. You are how you touch: User verification on smartphones via tapping behaviors
Buriro et al. Hold and sign: A novel behavioral biometrics for smartphone user authentication
EP3497621B1 (en) Identifying one or more users based on typing pattern and/or behaviour
EP3100152B1 (en) User-authentication gestures
Meng et al. Surveying the development of biometric user authentication on mobile phones
EP3482331B1 (en) Obscuring data when gathering behavioral data
Mare et al. Zebra: Zero-effort bilateral recurring authentication
Draffin et al. Keysens: Passive user authentication through micro-behavior modeling of soft keyboard interaction
Trojahn et al. Toward mobile authentication with keystroke dynamics on mobile phones and tablets
Ellavarason et al. Touch-dynamics based behavioural biometrics on mobile devices–a review from a usability and performance perspective
Buriro et al. Please hold on: Unobtrusive user authentication using smartphone's built-in sensors
Zhu et al. ShakeIn: secure user authentication of smartphones with single-handed shakes
Lu et al. Safeguard: User reauthentication on smartphones via behavioral biometrics
US9557820B2 (en) Methods and systems for commencing a process based on motion detection
US10027684B1 (en) Method and system for user credential security
Koong et al. A user authentication scheme using physiological and behavioral biometrics for multitouch devices
Ali et al. At your fingertips: Considering finger distinctness in continuous touch-based authentication for mobile devices
Lee et al. A parameterized model to select discriminating features on keystroke dynamics authentication on smartphones
Mare et al. Continuous smartphone authentication using wristbands
JP6813456B2 (en) Judgment device, judgment method, and judgment program
Rahman et al. Movement pattern based authentication for smart mobile devices
JP2018085010A (en) Identity determination apparatus and identity determination method
JP6839053B2 (en) Judgment device, judgment method, and judgment program
Kolosnjaji et al. Learning on a Budget for User Authentication on Mobile Devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200825

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201217

R150 Certificate of patent or registration of utility model

Ref document number: 6813456

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150