JP6813456B2 - Judgment device, judgment method, and judgment program - Google Patents
Judgment device, judgment method, and judgment program Download PDFInfo
- Publication number
- JP6813456B2 JP6813456B2 JP2017162061A JP2017162061A JP6813456B2 JP 6813456 B2 JP6813456 B2 JP 6813456B2 JP 2017162061 A JP2017162061 A JP 2017162061A JP 2017162061 A JP2017162061 A JP 2017162061A JP 6813456 B2 JP6813456 B2 JP 6813456B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- time
- input
- series data
- time series
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Description
本発明は、判定装置、判定方法、および、判定プログラムに関する。 The present invention relates to a determination device, a determination method, and a determination program.
電子行政やWeb上で行われる資格試験等、オンラインサービスでなりすまし申請や替え玉受験等の不正が懸念されている。なりすましや替え玉を防止するための認証方式として、記憶による認証(例えば、パスワードによる認証)、所有物による認証(例えば、ICカードによる認証)、身体的特徴による認証(例えば、指紋や静脈による認証)等が知られている。 There are concerns about fraud such as spoofing applications and replacement ball exams using online services such as qualification tests conducted on the electronic administration and the Web. Authentication methods for preventing spoofing and replacement balls include memory authentication (for example, password authentication), property authentication (for example, IC card authentication), and physical feature authentication (for example, fingerprint and vein authentication). Etc. are known.
しかし、これらの認証方式では、サービス利用開始時に、一度だけしか認証しないことが多く、認証後のキー入力時に他人と入れ替わることで、不正な操作が行われるおそれがある。このような他人との入れ替わりによる対策として、被認証者のキー入力時のキーストローク等、本人の癖を利用した認証(行動的特徴による認証)も提案されている(非特許文献1参照)。例えば、上記のキーストロークを用いた認証では、被認証者がキーを打つときのパターンや速度、リズム等の特徴量を用いることで、被認証者とデータ入力デバイスへのキー入力者との同一人物性の判定を行うことも考えられる。 However, in these authentication methods, authentication is often performed only once at the start of using the service, and there is a possibility that an illegal operation may be performed by replacing the user with another person when the key is input after the authentication. As a countermeasure against such replacement with another person, authentication using the habit of the person such as the keystroke at the time of key input of the person to be authenticated (authentication by behavioral characteristics) has also been proposed (see Non-Patent Document 1). For example, in the above authentication using keystrokes, the subject and the key inputter to the data input device are the same by using features such as the pattern, speed, and rhythm when the subject strikes the key. It is also conceivable to judge the personality.
しかし、例えば、上記のキーストロークを用いた判定では、キー入力(打鍵)の特徴量が変化すると、判定精度が低下する可能性がある。例えば、ユーザのキー入力の習熟度合いの変化、緊張等の精神状態、腕や手への怪我、慣れないキーボードの使用等により、ユーザのキー入力(打鍵)の特徴量が変化すると、判定精度が低下する可能性がある。 However, for example, in the determination using the above keystrokes, if the feature amount of the key input (keystroke) changes, the determination accuracy may decrease. For example, if the feature amount of the user's key input (keystroke) changes due to a change in the user's key input proficiency level, mental state such as tension, injury to the arm or hand, use of an unfamiliar keyboard, etc., the judgment accuracy will be improved. May decrease.
また、データ入力デバイスがタブレット端末やスマートフォン等の場合、タッチ画面上でのスワイプ、タップ等、キー入力以外の操作が行われることも多い。しかしながら、従来、キー入力以外の操作について、データ入力デバイスの操作者が正規ユーザと同一人物であるか否かを判定する技術については検討されていなかった。 Further, when the data input device is a tablet terminal, a smartphone, or the like, operations other than key input such as swiping and tapping on the touch screen are often performed. However, conventionally, for operations other than key input, a technique for determining whether or not the operator of the data input device is the same person as the regular user has not been studied.
そこで、本発明は、キー入力以外の操作を受け付けるデータ入力デバイスであっても、当該データ入力デバイスの操作者が正規ユーザと同一人物であるか否かを精度よく判定することを課題とする。 Therefore, it is an object of the present invention to accurately determine whether or not the operator of the data input device is the same person as the regular user, even if the data input device accepts operations other than key input.
前記した課題を解決するため、本発明は、ウェアラブルデバイスの装着者の手または腕の動きを示すセンサデータを取得するセンサデータ取得部と、前記取得した各時刻のセンタデータに基づき前記ウェアラブルデバイスの装着者によるデータ入力デバイスの画面上での入力イベントを推定する推定部と、前記データ入力デバイスの画面上でのタッチ操作による入力イベントを取得する入力イベント取得部と、前記推定部により推定された前記ウェアラブルデバイスの装着者による前記入力イベントを時系列で示した第1の時系列データと、前記入力イベント取得部により取得された前記データ入力デバイスにおける前記入力イベントを時系列で示した第2の時系列データとを照合し、前記第1の時系列データにおける一連の入力イベントと前記第2の時系列データにおける一連の入力イベントとの一致率が所定値以上である場合、前記データ入力デバイスの操作者は前記ウェアラブルデバイスの装着者と同一人物であると判定する判定部とを備えることを特徴とする。 In order to solve the above-mentioned problems, the present invention comprises a sensor data acquisition unit that acquires sensor data indicating the movement of the wearer's hand or arm of the wearable device, and the wearable device based on the acquired center data at each time. Estimated by the estimation unit, an estimation unit that estimates an input event on the screen of the data input device by the wearer, an input event acquisition unit that acquires an input event by a touch operation on the screen of the data input device, and an estimation unit. A first time-series data showing the input event by the wearer of the wearable device in time series, and a second time-series showing the input event in the data input device acquired by the input event acquisition unit. When the time-series data is collated and the matching rate between the series of input events in the first time-series data and the series of input events in the second time-series data is equal to or more than a predetermined value, the data input device The operator is provided with a determination unit that determines that the wearer of the wearable device is the same person.
本発明によれば、キー入力以外の操作を受け付けるデータ入力デバイスであっても、当該データ入力デバイスの操作者が正規ユーザと同一人物であるか否かを精度よく判定することができる。 According to the present invention, even in a data input device that accepts operations other than key input, it is possible to accurately determine whether or not the operator of the data input device is the same person as a regular user.
以下、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。本発明は以下に説明する実施形態に限定されない。 Hereinafter, embodiments (embodiments) for carrying out the present invention will be described with reference to the drawings. The present invention is not limited to the embodiments described below.
[概要]
まず、図1を用いて、本発明の実施形態の概要を説明する。本実施形態の判定システムにおいて、データ入力デバイス20のユーザは、加速度センサ等のセンサを備えるウェアラブルデバイス10を装着するものとする。つまり、判定システムは、ユーザにより装着されるウェアラブルデバイス10と、ユーザが各種操作を行うデータ入力デバイス20とを備えるものとする。
[Overview]
First, the outline of the embodiment of the present invention will be described with reference to FIG. In the determination system of the present embodiment, the user of the
判定システムは、各時刻におけるウェアラブルデバイス10の装着者(ユーザ)の手または腕の動きを示すセンサデータ(例えば、加速度データ)を取得する。また、判定システムは、データ入力デバイス20から、データ入力デバイスデータを取得する。このデータ入力デバイスデータは、各時刻におけるユーザのタッチ操作の種類(例えば、タップ、ダブルタップ、左スワイプ、右スワイプ、上スクロール、下スクロール等)等、データ入力デバイス20の画面上でのタッチ操作による入力イベントを示すデータである。
The determination system acquires sensor data (for example, acceleration data) indicating the movement of the hand or arm of the
そして、判定システムは、各時刻におけるデータ入力デバイスデータとセンサデータとを照合することにより、データ入力デバイス20の操作者と、ウェアラブルデバイス10の装着者とが同一人物か否かを判定する(同一人物性判定を行う)。
Then, the determination system determines whether or not the operator of the
例えば、図2に示すように、判定システムは、データ入力デバイスデータに示される、データ入力デバイス20のタッチ操作から各時刻において当該データ入力デバイス20で発生した入力イベント(例えば、上スクロール→タップ→右スワイプ)を推定する。また、判定システムは、ウェアラブルデバイス10のセンサデータから各時刻において当該ウェアラブルデバイス10で発生した入力イベント(例えば、上スクロール→タップ→右スワイプ)も推定する。そして、判定システムは、各時刻において両デバイスで発生したと推定される入力イベントを照合し、両者が一致していれば、データ入力デバイス20の操作者は、ウェアラブルデバイス10の装着者と同一人物と判定する。
For example, as shown in FIG. 2, the determination system has an input event (for example, scrolling up → tapping → tapping → tapping → tapping → tapping → tapping → tapping → tapping → tapping → Right swipe) to estimate. The determination system also estimates the input event (for example, up scroll → tap → right swipe) generated in the
つまり、判定システムは、データ入力デバイス20の画面上での時系列での入力イベントと、ウェアラブルデバイス10のセンサデータの示す時系列での入力イベントとが一致していれば(あるいは一致率が所定値以上であれば)、データ入力デバイス20の操作者は、ウェアラブルデバイス10の装着者と同一人物と判定する。
That is, in the determination system, if the time-series input event on the screen of the
このような判定システムによれば、同じ時刻において、データ入力デバイス20で付与するタイムスタンプの値とウェアラブルデバイス10で付与するタイムスタンプの値との間にずれがある場合でも、データ入力デバイス20から取得したデータ(データ入力デバイスデータ)と、ウェアラブルデバイス10から取得したデータ(センサデータ)とを用いて、データ入力デバイス20の操作者が、ウェアラブルデバイス10の装着者と同一人物か否かを判定することができる。
According to such a determination system, even if there is a discrepancy between the time stamp value given by the
一例を挙げると、データ入力デバイス20での一連のタッチ操作を示すタッチ操作ログはデータ入力デバイス20で記録され、そのタイムスタンプ(時刻情報)の値はデータ入力デバイス20で打刻される。一方、センサデータはウェアラブルデバイス10で計測され、データ入力デバイス20へ送信される。このセンサデータのタイムスタンプは、データ入力デバイス20で打刻されるとは限らないし、データ入力デバイス20で打刻されたとしても、タッチ操作ログのタイムスタンプとの時間のずれが生じる。また、機器の仕様や構成の都合上、いずれかのデバイスでタイムスタンプが打刻されない可能性もある。
As an example, a touch operation log indicating a series of touch operations on the
ここで、上記した判定システムによれば、データ入力デバイス20の画面上での一連の入力イベントと、ウェアラブルデバイス10のセンサデータの示す一連の入力イベントとが一致していれば、データ入力デバイス20の操作者は、ウェアラブルデバイス10の装着者と同一人物と判定する。したがって、両デバイスのタイムスタンプのずれがあった場合やタイムスタンプが打刻されなかった場合でも、判定システムは、データ入力デバイス20の操作者と、ウェアラブルデバイス10の装着者とが同一人物か否かを判定することができる。
Here, according to the determination system described above, if the series of input events on the screen of the
次に、判定システムの構成例を説明する。図3に示すように、例えば、判定システムは、ウェアラブルデバイス10と、データ入力デバイス20とを備える。各デバイスの台数は図3に示す台数に限定されない。
Next, a configuration example of the determination system will be described. As shown in FIG. 3, for example, the determination system includes a
ウェアラブルデバイス10は、センサデータ取得部11を備える。このセンサデータ取得部11は、各時刻における当該ウェアラブルデバイス10の装着者の手または腕の動きを示すセンサデータ(例えば、加速度データ、角速度データ、地磁気データ等)を取得し、データ入力デバイス20へ送信する。このウェアラブルデバイス10は、例えば、データ入力デバイス20のタップ操作を行う側の腕に装着される。
The
なお、このウェアラブルデバイス10が、正規ユーザにより装着されているか否かは運用面で確認されるものとする。また、このウェアラブルデバイス10は、当該ウェアラブルデバイス10の着脱状態を監視する機能を備え、当該機能により、同一人物による当該ウェアラブルデバイス10の装着が継続していることを確認できるものとする。
It should be noted that whether or not the
データ入力デバイス20は、画面上のタッチ操作を受け付けるデバイスである。このデータ入力デバイス20は、例えば、パーソナルコンピュータ、タブレット端末、スマートフォン等である。データ入力デバイス20は、記憶部21と、入力イベント取得部22と、入力イベント推定部23と、判定部24とを備える。
The
記憶部21は、データ入力デバイス20の画面上へのタッチ操作のログ(タッチ操作ログ)を記憶する。タッチ操作ログは、例えば、データ入力デバイス20へのタッチ操作のイベント(イベント種類)と、当該イベントの発生時刻(タイムスタンプ)、当該イベントが発生した座標等を対応付けて記録した情報である(図4参照)。このタッチ操作ログは、図4に例示するように、各タッチ操作時における画面上への圧力の値を含んでいてもよい。このタッチ操作のイベントは、例えば、図5に示す「downイベント(指が画面に触れた)」、「upイベント(指が画面から離れた)」、「moveイベント(指が画面に触れたまま移動した)」等である。なお、このタッチ操作ログは、データ入力デバイス20のタッチ操作を記録するタッチ操作記録部(図示省略)等により記録されるものとする。
The
図3の入力イベント取得部22は、データ入力デバイス20の画面上でのタッチ操作による入力イベント(例えば、タップ、ダブルタップ、左スワイプ、右スワイプ、上スクロール、下スクロール等)を取得する。具体的には、入力イベント取得部22は、タッチ操作ログにおける各タッチ操作のイベント種類、イベントが発生した座標、当該座標の圧力等に基づき入力イベントを判定する。
The input event acquisition unit 22 of FIG. 3 acquires an input event (for example, tap, double tap, left swipe, right swipe, up scroll, down scroll, etc.) by a touch operation on the screen of the
例えば、入力イベント取得部22は、タッチ操作において、画面に触れている時間(downからupまでの時間)が閾値以下であり、かつ、画面に触れている間の座標の移動距離が閾値以下であれば、入力イベントはタップと判定する。また、入力イベント取得部22は、タッチ操作において、上記の条件を満たすタップが、所定時間以内の間に2度観測された場合、入力イベントはダブルタップと判定する。 For example, in the touch operation, the input event acquisition unit 22 has a time when the screen is touched (time from down to up) is equal to or less than the threshold value, and the coordinate movement distance while touching the screen is equal to or less than the threshold value. If so, the input event is determined to be a tap. Further, the input event acquisition unit 22 determines that the input event is a double tap when the tap satisfying the above conditions is observed twice within a predetermined time in the touch operation.
また、入力イベント取得部22は、タッチ操作において、画面に触れている間における座標の移動距離が閾値以上、かつ、移動が右→左方向の場合、入力イベントは左スワイプ(左方向へ指をなぞる/はじく)と判定する。また、入力イベント取得部22は、タッチ操作において、画面に触れている間、座標の移動距離が閾値以上かつ移動が左→右方向の場合、入力イベントは右スワイプ(右方向へ指をなぞる/はじく)と判定する。 Further, in the touch operation, when the movement distance of the coordinates while touching the screen is equal to or more than the threshold value and the movement is from right to left, the input event is swiped left (finger to the left). It is judged to be traced / repelled). Further, in the touch operation, when the movement distance of the coordinates is equal to or more than the threshold value and the movement is from left to right while touching the screen, the input event acquisition unit 22 swipes right (traces the finger to the right /). Repel).
また、入力イベント取得部22は、タッチ操作において、画面に触れている間、座標の移動距離が閾値以上かつ移動が下→上方向の場合、入力イベントは上スクロール(上方向へ指をなぞる/はじく)と判定する。また、入力イベント取得部22は、タッチ操作において、画面に触れている間、座標の移動距離が閾値以上かつ移動が上→下方向の場合、入力イベントは下スクロール(下方向へ指をなぞる/はじく)と判定する。 Further, in the touch operation, when the movement distance of the coordinates is equal to or greater than the threshold value and the movement is from downward to upward while touching the screen, the input event acquisition unit 22 scrolls upward (traces the finger upward /). Repel). Further, in the touch operation, when the movement distance of the coordinates is equal to or more than the threshold value and the movement is from upward to downward while touching the screen, the input event acquisition unit 22 scrolls downward (traces the finger downward /). Repel).
入力イベント推定部23は、ウェアラブルデバイス10から受信した各時刻のセンタデータに基づき、各時刻におけるウェアラブルデバイス10によるデータ入力デバイス20の画面上での入力イベントを推定する。
The input event estimation unit 23 estimates the input event on the screen of the
例えば、センサデータが3次元の加速度データであった場合、入力イベント推定部23は、加速度データに基づき、ごく短い時間幅の間に、Z軸に閾値以上の大きさの加速度変化があったとき、入力イベントはタップと推定する。また、入力イベント推定部23は、加速度データに基づき、上記の条件を満たすタップが、所定時間以内の間に2度観測された場合、入力イベントはダブルタップと推定する。 For example, when the sensor data is three-dimensional acceleration data, the input event estimation unit 23 determines that the Z-axis has an acceleration change larger than the threshold value during a very short time width based on the acceleration data. , The input event is presumed to be a tap. Further, the input event estimation unit 23 estimates that the input event is a double tap when the tap satisfying the above conditions is observed twice within a predetermined time based on the acceleration data.
また、入力イベント推定部23は、加速度データに基づき、X軸に大きな加速度変化や継続的な加速度変化があり、移動が右→左方向である場合、入力イベントは左スワイプと推定する。また、入力イベント推定部23は、加速度データに基づき、X軸に大きな加速度変化や継続的な加速度変化があり、移動が左→右方向である場合、入力イベントは右スワイプと推定する。 Further, the input event estimation unit 23 estimates that the input event is a left swipe when there is a large acceleration change or a continuous acceleration change on the X-axis based on the acceleration data and the movement is from right to left. Further, the input event estimation unit 23 estimates that the input event is a right swipe when the X-axis has a large acceleration change or a continuous acceleration change and the movement is from left to right based on the acceleration data.
また、入力イベント推定部23は、加速度データに基づき、Y軸に大きな加速度変化や継続的な加速度変化があり、移動が下→上方向である場合、入力イベントは上スクロールと推定する。また、入力イベント推定部23は、前記センサデータに基づき、Y軸に大きな加速度変化や継続的な加速度変化があり、移動が上→下方向である場合、入力イベントは下スクロールと推定する。 Further, the input event estimation unit 23 estimates that the input event scrolls up when there is a large acceleration change or a continuous acceleration change on the Y-axis based on the acceleration data and the movement is from downward to upward. Further, based on the sensor data, the input event estimation unit 23 estimates that the input event scrolls down when there is a large acceleration change or a continuous acceleration change on the Y-axis and the movement is from upward to downward.
ここで、入力イベント推定部23による入力イベントの推定は、例えば、入力イベントの種類ごとのセンサデータの特徴量による分類、または、センサデータの波形のパターンマッチング等により行ってもよい。 Here, the input event estimation unit 23 may estimate the input event by, for example, classification by the feature amount of the sensor data for each type of the input event, pattern matching of the waveform of the sensor data, or the like.
例えば、入力イベント推定部23は、入力イベントの種類ごとに、当該入力イベントのセンサデータの波形のパターンを用意しておく。そして、入力イベント推定部23は、図6に示すように、取得されたウェアラブルデバイス10の各時刻のセンサデータに対し、所定の時間幅のウィンドウをスライドさせて、各入力イベントのセンサデータの波形のパターンとマッチする区間を探索する。
For example, the input event estimation unit 23 prepares a waveform pattern of the sensor data of the input event for each type of input event. Then, as shown in FIG. 6, the input event estimation unit 23 slides a window having a predetermined time width with respect to the acquired sensor data of the
例えば、入力イベント推定部23は、ウェアラブルデバイス10のセンサデータに対し、図6に示すように、所定の時間幅のウィンドウをスライドさせて、各入力イベントのセンサデータの波形のパターンとマッチする区間を探索する。例えば、入力イベント推定部23は、(1)タップを示すセンサデータの波形のパターンについて、所定の時間幅のウィンドウをスライドさせて、タップと推定される区間を探索する。また、入力イベント推定部23は、(2)上スクロール、(3)右スワイプを示すセンサデータの波形のパターンについても、所定の時間幅のウィンドウをスライドさせて、上スクロール、右スワイプと推定される区間を探索する。
For example, the input event estimation unit 23 slides a window having a predetermined time width with respect to the sensor data of the
入力イベント推定部23が、上記のような処理を行うことで、各時刻におけるウェアラブルデバイス10のセンサデータからどのような入力イベントが発生したかを推定することができる。これにより、例えば、入力イベント推定部23は、図6に示すセンサデータから、ウェアラブルデバイス10に上スクロール→タップ→右スワイプという入力イベントが発生したという推定結果を得ることができる。
By performing the above processing, the input event estimation unit 23 can estimate what kind of input event has occurred from the sensor data of the
なお、上記の入力イベント推定部23は、ウェアラブルデバイス10のセンサデータ(例えば、加速度データ)について、例えば、データ値の振幅値や周波数等の許容範囲を定義し、許容範囲から外れたセンサデータについては除外してもよい。また、データ入力デバイス20は、データ入力デバイス20のタッチ操作時および非タッチ操作時のセンサデータの機械学習の結果を用いて、ウェアラブルデバイス10のセンサデータから、タッチ操作以外のセンサデータを除外してもよい。このようにすることで入力イベント推定部23は、入力イベントの推定の精度を向上させることができる。
The input event estimation unit 23 defines an allowable range of the sensor data (for example, acceleration data) of the
図3の判定部24は、データ入力デバイス20の画面上での入力イベントの時系列データと、ウェアラブルデバイス10のセンサデータから推定された入力イベントの時系列データとを照合することにより、データ入力デバイス20の操作者が、ウェアラブルデバイス10の装着者と同一人物か否かを判定する。
The determination unit 24 of FIG. 3 collates the time-series data of the input event on the screen of the
具体的には、判定部24は、入力イベント推定部23により推定されたウェアラブルデバイス10の装着者による入力イベントの時系列データである第1の時系列データを取得する。また、判定部24は、入力イベント取得部22により取得されたデータ入力デバイス20における入力イベントの時系列データである第2の時系列データを取得する。
Specifically, the determination unit 24 acquires the first time-series data which is the time-series data of the input event by the wearer of the
そして、判定部24は、第1の時系列データと第2の時系列データとを照合し、第1の時系列データにおける入力イベントと第2の時系列データにおける入力イベントとの一致率が所定値以上である場合、データ入力デバイス20の操作者はウェアラブルデバイス10の装着者と同一人物であると判定する。一方、判定部24は、上記の一致率が所定値未満である場合、データ入力デバイス20の操作者はウェアラブルデバイス10の装着者と同一人物ではないと判定する。
Then, the determination unit 24 collates the first time series data with the second time series data, and determines the matching rate between the input event in the first time series data and the input event in the second time series data. If it is equal to or more than the value, it is determined that the operator of the
例えば、判定部24は、図7に示すように、タッチ操作ログから得られた入力イベントの推定結果の時系列での並び(第2の時系列データ)における右スワイプ→タップ→上スクロール→左スワイプ→タップ→タップという入力イベントをひとまとまりとし、ウェアラブルデバイス10の装着者による入力イベントの推定結果の時系列での並び(第1の時系列データ)の中から、そのまとまりが登場する区間を探索する。 For example, as shown in FIG. 7, the determination unit 24 swipes right → taps → scrolls up → left in the time series arrangement (second time series data) of the estimation results of the input events obtained from the touch operation log. The input events of swipe → tap → tap are grouped together, and the section in which the group appears from the time-series sequence of the estimation results of the input events by the wearer of the wearable device 10 (first time-series data). Explore.
そして、判定部24が、ウェアラブルデバイス10の装着者による入力イベントの推定結果の時系列での並びの中から、右スワイプ→タップ→上スクロール→左スワイプ→タップ→タップのまとまりが登場する区間を発見した場合、データ入力デバイス20の操作者はウェアラブルデバイス10の装着者と同一人物であると判定する。このようにすることで、判定部24は、第1の時系列データと第2の時系列データとの間で時間のずれがあった場合でも、両時系列データの入力イベントを照合し、データ入力デバイス20の操作者はウェアラブルデバイス10の装着者と同一人物であるか否かを判定することができる。
Then, the determination unit 24 selects a section in which a group of right swipe → tap → up scroll → left swipe → tap → tap appears from the time series arrangement of the estimation result of the input event by the wearer of the
また、上記の第1の時系列データにおける入力イベントの推定精度があまり高くない場合も考えられる。このような場合、判定部24は、第1の時系列データと第2の時系列データとの両時系列データにおける入力イベントの一致率が最も高くなるような対応付けを行った上で、両時系列データを照合してもよい。つまり、判定部24は、第1の時系列データと第2の時系列データとの時刻同期をとった上で、両時系列データの照合を行ってもよい。なお、ここでの一致率は、例えば、時系列データにおける入力イベントの種類、入力イベントの並び、入力イベント間の時間間隔等を考慮して判断される。 It is also possible that the estimation accuracy of the input event in the first time series data is not very high. In such a case, the determination unit 24 associates the first time-series data with the second time-series data so that the matching rate of the input events in both time-series data is the highest, and then both. Time series data may be collated. That is, the determination unit 24 may collate both time series data after synchronizing the time between the first time series data and the second time series data. The match rate here is determined in consideration of, for example, the type of input event in the time series data, the arrangement of the input events, the time interval between the input events, and the like.
例えば、図8に示すように、タッチ操作ログから得られた入力イベントの推定結果の時系列での並び(第2の時系列データ)が、右スワイプ→タップ→上スクロール→左スワイプ→タップ→タップであり、センサデータの入力イベントの推定結果の時系列での並び(第1の時系列データ)が、右スワイプ→右スワイプ→タップ→タップ→タップ→タップ→左スワイプ→タップ→タップである場合を考える。 For example, as shown in FIG. 8, the time series arrangement (second time series data) of the estimation result of the input event obtained from the touch operation log is right swipe → tap → up scroll → left swipe → tap → It is a tap, and the time-series arrangement (first time-series data) of the estimation result of the input event of the sensor data is right swipe → right swipe → tap → tap → tap → tap → left swipe → tap → tap. Consider the case.
この場合において、タッチ操作ログにおける入力イベントの推定結果「右スワイプ」に対し、センサデータの入力イベントの推定結果に上記の「右スワイプ」が2つあるとき、判定部24は、両時系列データ全体として入力イベントの推定結果同士の一致率が最も高い候補を選択する。 In this case, when there are two "right swipes" in the estimation result of the input event of the sensor data with respect to the estimation result "right swipe" of the input event in the touch operation log, the determination unit 24 determines both time series data. As a whole, the candidate with the highest matching rate between the estimation results of the input event is selected.
すなわち、図8に示すように、タッチ操作ログから得られた入力イベントの推定結果「右スワイプ」と、センサデータの「右スワイプ」(候補A)とを対応するよう合わせると、両時系列データ間で「右スワイプ」(候補A)以外の入力イベントの推定結果同士の一致率は低い。 That is, as shown in FIG. 8, when the estimation result “right swipe” of the input event obtained from the touch operation log and the “right swipe” (candidate A) of the sensor data are combined so as to correspond to each other, both time series data The match rate between the estimation results of input events other than "right swipe" (candidate A) is low.
一方、タッチ操作ログから得られた入力イベントの推定結果「右スワイプ」と「右スワイプ」(候補B)とを対応するよう合わせると、候補Aの場合と比較して、両時系列データ間で候補B以外の入力イベントの推定結果同士の一致率の方が高くなる。 On the other hand, when the estimation results "right swipe" and "right swipe" (candidate B) of the input event obtained from the touch operation log are combined so as to correspond to each other, the two time series data are compared with the case of candidate A. The match rate between the estimation results of the input events other than candidate B is higher.
よって、判定部24は、タッチ操作ログから得られた入力イベントの推定結果「右スワイプ」と、センサデータの入力イベントの推定結果「右スワイプ」(候補B)とを対応するように両時系列データを合わせた上で(つまり両時系列データの時刻同期をとった上で)、両時系列データの照合を行う。 Therefore, the determination unit 24 has both time series so as to correspond the estimation result "right swipe" of the input event obtained from the touch operation log and the estimation result "right swipe" (candidate B) of the input event of the sensor data. After matching the data (that is, after synchronizing the time of both time series data), the two time series data are collated.
判定部24が上記のような両時系列データの時刻同期をとることで、ウェアラブルデバイス10のセンサデータの示す入力イベントの推定精度が低かった場合でも、データ入力デバイス20の操作者がウェアラブルデバイス10の装着者と同一人物であるか否かを精度よく判定することができる。
By synchronizing the time of both time series data as described above, the determination unit 24 allows the operator of the
なお、判定部24が、例えば、ウェアラブルデバイス10の各時刻におけるX軸、Y軸、Z軸の加速度データと、データ入力デバイス20の各時刻におけるdownのタッチ操作のみについて抽出したデータとについて、上記の方法により時刻同期をとると、図9に示すグラフのようになる。図9に示すように、上記の方法により両時系列データの時刻同期をとることで、データ入力デバイス20の画面上にdownのタッチ操作が行われたタイミングと、ウェアラブルデバイス10のX軸、Y軸、Z軸の加速度データが大きく変動するタイミングとがほぼ一致させることができることが分かる。
The determination unit 24 describes, for example, the acceleration data of the X-axis, the Y-axis, and the Z-axis at each time of the
次に、図10を用いて、上記の判定システムを用いた認証処理の処理手順の例を説明する。なお、以下の説明において、データ入力デバイス20は、データ入力デバイス20にPINコードが入力されると操作ロックを解除し、データ入力デバイス20の操作者とウェアラブルデバイス10の装着者とが同一人物ではないと判定した場合、再度操作ロックを行うものとする。また、ウェアラブルデバイス10は生体認証等により、正規ユーザにより装着されていることを確認し、当該ユーザ(正規ユーザ)による装着が継続されているか否かを確認する機能(同一人物装着継続確認機能)を備えるものとする。
Next, an example of the processing procedure of the authentication process using the above-mentioned determination system will be described with reference to FIG. In the following description, the
さらに、データ入力デバイス20は、PINコードの入力後、ウェアラブルデバイス10とのペアリングを行うものとする。ここでのペアリングの対象となるウェアラブルデバイス10は、データ入力デバイス20と無線通信可能な範囲内にある生体認証済みのウェアラブルデバイス10である。そして、データ入力デバイス20は、ペアリングされたウェアラブルデバイス10からのセンサデータとして加速度データを取得し、この加速度データに基づき、データ入力デバイス20の操作者とウェアラブルデバイス10の装着者との同一人物性判定処理を行うものとする。
Further, the
まず、ウェアラブルデバイス10がユーザにより装着されたこと(S1)を検出すると(S2:装着状態検出)、同一人物により装着が継続しているか否かを確認する同一人物装着継続確認機能をONにする(S3)。
First, when it is detected that the
そして、データ入力デバイス20は操作ロック状態(S10)の後、ユーザからのPINコード入力を受け付け(S11)、認証OKである場合、ロックを解除し(S12)、ウェアラブルデバイス10の検出を行う(S13)。つまり、データ入力デバイス20は、当該データ入力デバイス20から無線通信可能な範囲内にあるウェアラブルデバイス10を検出する。そして、データ入力デバイス20は検出されたウェアラブルデバイス10に対し、ペアリングの依頼を行い(S14)、当該ウェアラブルデバイス10からペアリング許可の通知を受信すると(S15)、データ入力デバイス20は当該ウェアラブルデバイス10とのペアリングを行う(S16)。
Then, after the operation lock state (S10), the
なお、ウェアラブルデバイス10は、例えば、当該ウェアラブルデバイス10におけるユーザの生体認証後、同一人物装着継続確認がとれた場合に、データ入力デバイス20へペアリング許可の通知を送信する。そして、データ入力デバイス20は、ペアリング許可の通知の送信元のウェアラブルデバイス10をペアリングの相手(加速度データによる同一人物性判定の対象)として登録する。
The
S16の後、データ入力デバイス20は画面上にペアリング結果の表示と、タッチ操作の開始指示とを行う(S17)。このような表示を見たユーザは、データ入力デバイス20の画面上へのタッチ操作を開始し(S21)、データ入力デバイス20は、ユーザのタッチ操作のログを取得し、記憶部21に記憶する(S22:タッチ操作ログ取得)。また、ウェアラブルデバイス10は当該ユーザの手または腕の動きを示す加速度データを取得する(S23)。さらに、データ入力デバイス20は、ウェアラブルデバイス10へ加速度データの送信依頼を行い(S24)、当該ウェアラブルデバイス10からタイムスタンプが付された加速度データと、当該ウェアラブルデバイス10の機器署名とを受信する(S25)。
After S16, the
S25の後、データ入力デバイス20は、機器署名によりウェアラブルデバイス10の本人性を確認すると、当該ウェアラブルデバイス10から受信した各時刻の加速度データと、S22で取得したタッチ操作ログとを照合することにより、データ入力デバイス20の操作者(ユーザ)とウェアラブルデバイス10の装着者とが同一人物か否か判定する(S26:同一人物性判定処理)。ここで、データ入力デバイス20が、データ入力デバイス20の操作者とウェアラブルデバイス10の装着者とは同一人物ではないと判定した場合(S27でNo)、データ入力デバイス20の操作ロックを行う(S10)。一方、データ入力デバイス20が、データ入力デバイス20の操作者とウェアラブルデバイス10の装着者とが同一人物と判定した場合(S27でYes)、操作ロックは行わず、操作を継続させる(S28)。
After S25, when the
このようにすることで、判定システムは、データ入力デバイス20のPINコードの認証後、正規ユーザからの操作は受け付けるが、正規ユーザ以外からの操作は受け付けない(ロックする)ことができる。
By doing so, after the PIN code of the
なお、図10のS16のペアリングにおいて、データ入力デバイス20は、BLE(Bluetooth Low Energy)の電波強度等から、自動でウェアラブルデバイス10を検出してもよいし、周囲にあるウェアラブルデバイス10の候補を画面に表示してユーザに選択させてもよい。いずれの場合も、データ入力デバイス20が誤って他のウェアラブルデバイス10とペアリングしてしまった場合でも、後に行う同一人物性判定処理が成功しないと操作を継続できないようにする(操作ロックを行う)。これにより判定システムは、データ入力デバイス20が、不正に第三者に操作されてしまうことを防止できる。
In the pairing of S16 in FIG. 10, the
また、図10のS26において、データ入力デバイス20は、所定のタッチ操作数または操作時間ごとに、同一人物性判定処理を行うこととしてもよい。その場合は、判定結果が連続して所定回数NGとなった場合、データ入力デバイス20は他人による操作と判断し、操作ロックを行うようにしてもよい。
Further, in S26 of FIG. 10, the
[その他の実施形態]
なお、データ入力デバイス20は、上記の第1の時系列データ(ウェアラブルデバイス10の装着者による入力イベントの推定結果の時系列での並び)と第2の時系列データ(タッチ操作ログから得られた入力イベントの推定結果の時系列での並び)とを照合する際、両時系列データの時刻同期をとるため、データ取得時にキャリブレーションを行うようにしてもよい。
[Other Embodiments]
The
具体的には、データ入力デバイス20は、図3に示すキャリブレーション部25をさらに備える。このキャリブレーション部25は、データ入力デバイス20の画面上等に、キャリブレーションのためユーザに所定のタッチ操作を促す表示を行う。なお、上記の所定のタッチ操作は、キャリブレーションを行いやすいよう、特徴的なタッチ操作であることが好ましい。そして、判定部24は、この所定のタッチ操作を示す入力イベントが、第1の時系列データと第2の時系列データに出現した場合、当該入力イベントが発生した時刻が同じ時刻であるものとして、第1の時系列データおよび第2の時系列データの時刻同期をとる。
Specifically, the
このようにデータ入力デバイス20において、第1の時系列データおよび第2の時系列データの時刻同期をとることで、第1の時系列データおよび第2の時系列データに基づく同一人物性判定処理を精度よく行うことができる。
In this way, in the
また、前記した実施形態において、上記の同一人物性判定処理や、ウェアラブルデバイス10のセンサデータの示す入力イベントの推定は、データ入力デバイス20が行うこととしたが、データ入力デバイス20以外の装置(例えば、判定装置や判定サーバ)が行うこととしてもよい。
Further, in the above-described embodiment, the
[プログラム]
また、上記の実施形態で述べたデータ入力デバイス20の機能を実現するプログラムを所望の情報処理装置(コンピュータ)にインストールすることによって実装できる。例えば、パッケージソフトウェアやオンラインソフトウェアとして提供される上記のプログラムを情報処理装置に実行させることにより、情報処理装置をデータ入力デバイス20として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等がその範疇に含まれる。また、データ入力デバイス20を、クラウドサーバに実装してもよい。
[program]
Further, it can be implemented by installing a program that realizes the function of the
図11を用いて、上記のプログラム(判定プログラム)を実行するコンピュータの一例を説明する。図11に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
An example of a computer that executes the above program (determination program) will be described with reference to FIG. As shown in FIG. 11, the
メモリ1010は、ROM(Read Only Memory)1011およびRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。ディスクドライブ1100には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。
The memory 1010 includes a ROM (Read Only Memory) 1011 and a RAM (Random Access Memory) 1012. The
ここで、図11に示すように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。前記した各実施形態で説明した各種データや情報は、例えばハードディスクドライブ1090やメモリ1010に記憶される。
Here, as shown in FIG. 11, the hard disk drive 1090 stores, for example, the
そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
Then, the
なお、上記の判定プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、上記のプログラムに係るプログラムモジュール1093やプログラムデータ1094は、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
The
10 ウェアラブルデバイス
11 センサデータ取得部
20 データ入力デバイス
21 記憶部
22 入力イベント取得部
23 入力イベント推定部
24 判定部
25 キャリブレーション部
10 Wearable device 11 Sensor
Claims (6)
前記取得した各時刻のセンサデータに基づき前記ウェアラブルデバイスの装着者によるデータ入力デバイスの画面上でのタッチ操作の種類である入力イベントを推定する推定部と、
前記データ入力デバイスの画面上でのタッチ操作による入力イベントを取得する入力イベント取得部と、
前記推定部により推定された前記ウェアラブルデバイスの装着者による一連の前記入力イベントを時系列で示した第1の時系列データと、前記入力イベント取得部により取得された前記データ入力デバイスにおける一連の前記入力イベントを時系列で示した第2の時系列データとを照合し、前記第1の時系列データにおける一連の前記入力イベントと前記第2の時系列データにおける一連の前記入力イベントとの一致率が所定値以上である場合、前記データ入力デバイスの操作者は前記ウェアラブルデバイスの装着者と同一人物であると判定する判定部と
を備えることを特徴とする判定装置。 A sensor data acquisition unit that acquires sensor data indicating the movement of the wearable device's hand or arm, and a sensor data acquisition unit.
An estimation unit that estimates an input event is the type of touch operation on the screen of the data input device according to the wearer of the wearable device based on the sensor data at each time and the acquired,
An input event acquisition unit that acquires an input event by touch operation on the screen of the data input device,
A series of the in the data input device and the first time series data, acquired by the input event acquiring section showing a series of said input event by the wearer of the wearable device estimated by the estimation unit in chronological collating the second time series data shown in chronological input events, the rate of matching with the sequence of the input event in a series of the input event and the second time series data in the first time series data A determination device including a determination unit that determines that the operator of the data input device is the same person as the wearer of the wearable device when is equal to or greater than a predetermined value.
前記第1の時系列データと前記第2の時系列データとを照合する際、前記第1の時系列データにおける一連の入力イベントと前記第2の時系列データにおける一連の入力イベントとの一致率が最も高くなるよう、前記第1の時系列データおよび前記第2の時系列データの時刻同期をとる
ことを特徴とする請求項1に記載の判定装置。 The determination unit
When collating the first time series data with the second time series data, the matching rate between the series of input events in the first time series data and the series of input events in the second time series data. The determination device according to claim 1, wherein the time-synchronization of the first time-series data and the second time-series data is performed so that the value is the highest.
前記データ入力デバイスに、キャリブレーションのための所定のタッチ操作を行うようユーザに促すキャリブレーション部をさらに備え、
前記判定部は、
前記キャリブレーションのための所定のタッチ操作を示す入力イベントが、前記第1の時系列データと前記第2の時系列データに出現した場合、前記入力イベントが発生した時刻が同じ時刻であるものとして、前記第1の時系列データおよび前記第2の時系列データの時刻同期をとった上で、前記第1の時系列データと前記第2の時系列データとを照合する
ことを特徴とする請求項1に記載の判定装置。 The determination device
The data input device is further provided with a calibration unit that prompts the user to perform a predetermined touch operation for calibration.
The determination unit
When an input event indicating a predetermined touch operation for the calibration appears in the first time series data and the second time series data, it is assumed that the time when the input event occurs is the same time. , The first time-series data and the second time-series data are time-synchronized, and then the first time-series data and the second time-series data are collated. Item 1. The determination device according to item 1.
前記データ入力デバイスの画面上に指が触れたdownイベントが発生してから、前記画面上から指が離れたupイベントが発生するまでの時間と、前記画面上に指が触れたまま移動したmoveイベントにおける移動距離とを用いて、前記入力イベントを推定し、 The time from the occurrence of the down event that the finger touches on the screen of the data input device to the occurrence of the up event that the finger separates from the screen, and the move that the finger touches and moves on the screen. The input event is estimated using the distance traveled in the event.
前記判定部は、 The determination unit
前記ウェアラブルデバイスおよび前記データ入力デバイスに前記downイベントが発生したタイミングで、前記第1の時系列データと前記第2の時系列データとの時刻同期をとり、前記第1の時系列データと前記第2の時系列データとを照合する At the timing when the down event occurs in the wearable device and the data input device, the time synchronization between the first time series data and the second time series data is performed, and the first time series data and the first time series data are synchronized. Collate with 2 time series data
ことを特徴とする請求項1に記載の判定装置。 The determination device according to claim 1, wherein the determination device is characterized by the above.
ウェアラブルデバイスの装着者の手または腕の動きを示すセンサデータを取得するステップと、
前記取得した各時刻のセンサデータに基づき前記ウェアラブルデバイスの装着者によるデータ入力デバイスの画面上での入力イベントを推定するステップと、
前記データ入力デバイスの画面上でのタッチ操作の種類である入力イベントを取得するステップと、
前記推定された前記ウェアラブルデバイスの装着者による一連の前記入力イベントを時系列で示した第1の時系列データと、前記取得された前記データ入力デバイスにおける一連の前記入力イベントを時系列で示した第2の時系列データとを照合し、前記第1の時系列データにおける一連の前記入力イベントと前記第2の時系列データにおける一連の前記入力イベントとの一致率が所定値以上である場合、前記データ入力デバイスの操作者は前記ウェアラブルデバイスの装着者と同一人物であると判定するステップと
を含んだことを特徴とする判定方法。 Judgment device
Steps to acquire sensor data indicating the movement of the wearable device wearer's hand or arm, and
Estimating an input event on the screen of the data input device according to the wearer of the wearable device based on the sensor data at each time and the acquired,
A step of acquiring an input event, which is a type of touch operation on the screen of the data input device, and
A first time series data shown in a time series sequence of the input events by the wearer of the estimated the wearable device, showing a series of the input events in the acquired the data input device in time series second time collates the series data, when the rate of matching with the sequence of the input event in a series of the input event and the second time series data in the first time series data is a predetermined value or more, A determination method comprising the step of determining that the operator of the data input device is the same person as the wearer of the wearable device.
前記取得した各時刻のセンサデータに基づき前記ウェアラブルデバイスの装着者によるデータ入力デバイスの画面上での入力イベントを推定するステップと、
前記データ入力デバイスの画面上でのタッチ操作の種類である入力イベントを取得するステップと、
前記推定された前記ウェアラブルデバイスの装着者による一連の前記入力イベントを時系列で示した第1の時系列データと、前記取得された前記データ入力デバイスにおける一連の前記入力イベントを時系列で示した第2の時系列データとを照合し、前記第1の時系列データにおける一連の前記入力イベントと前記第2の時系列データにおける一連の前記入力イベントとの一致率が所定値以上である場合、前記データ入力デバイスの操作者は前記ウェアラブルデバイスの装着者と同一人物であると判定するステップと
をコンピュータに実行させることを特徴とする判定プログラム。 Steps to acquire sensor data indicating the movement of the wearable device wearer's hand or arm, and
Estimating an input event on the screen of the data input device according to the wearer of the wearable device based on the sensor data at each time and the acquired,
A step of acquiring an input event, which is a type of touch operation on the screen of the data input device, and
A first time series data shown in a time series sequence of the input events by the wearer of the estimated the wearable device, showing a series of the input events in the acquired the data input device in time series second time collates the series data, when the rate of matching with the sequence of the input event in a series of the input event and the second time series data in the first time series data is a predetermined value or more, A determination program characterized in that an operator of the data input device causes a computer to perform a step of determining that the operator is the same person as the wearer of the wearable device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017162061A JP6813456B2 (en) | 2017-08-25 | 2017-08-25 | Judgment device, judgment method, and judgment program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017162061A JP6813456B2 (en) | 2017-08-25 | 2017-08-25 | Judgment device, judgment method, and judgment program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019040405A JP2019040405A (en) | 2019-03-14 |
JP6813456B2 true JP6813456B2 (en) | 2021-01-13 |
Family
ID=65725710
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017162061A Active JP6813456B2 (en) | 2017-08-25 | 2017-08-25 | Judgment device, judgment method, and judgment program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6813456B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7256512B2 (en) * | 2018-05-15 | 2023-04-12 | 国立大学法人 鹿児島大学 | Personal identification system, personal identification method and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016024424A1 (en) * | 2014-08-11 | 2016-02-18 | ソニー株式会社 | Information-processing device, information processing method, and information-processing system |
JP6184931B2 (en) * | 2014-10-29 | 2017-08-23 | 京セラ株式会社 | Mobile terminal and lock control method for mobile terminal |
US20160246472A1 (en) * | 2015-02-25 | 2016-08-25 | Qualcomm Incorporated | Authentication based on a tap sequence performed on a touch screen |
KR102253155B1 (en) * | 2015-03-31 | 2021-05-18 | 삼성전자주식회사 | A method for providing a user interface and an electronic device therefor |
-
2017
- 2017-08-25 JP JP2017162061A patent/JP6813456B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019040405A (en) | 2019-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9832206B2 (en) | System, method and authorization device for biometric access control to digital devices | |
Zheng et al. | You are how you touch: User verification on smartphones via tapping behaviors | |
Buriro et al. | Hold and sign: A novel behavioral biometrics for smartphone user authentication | |
EP3497621B1 (en) | Identifying one or more users based on typing pattern and/or behaviour | |
EP3100152B1 (en) | User-authentication gestures | |
Meng et al. | Surveying the development of biometric user authentication on mobile phones | |
EP3482331B1 (en) | Obscuring data when gathering behavioral data | |
Mare et al. | Zebra: Zero-effort bilateral recurring authentication | |
Draffin et al. | Keysens: Passive user authentication through micro-behavior modeling of soft keyboard interaction | |
Trojahn et al. | Toward mobile authentication with keystroke dynamics on mobile phones and tablets | |
Ellavarason et al. | Touch-dynamics based behavioural biometrics on mobile devices–a review from a usability and performance perspective | |
Buriro et al. | Please hold on: Unobtrusive user authentication using smartphone's built-in sensors | |
Zhu et al. | ShakeIn: secure user authentication of smartphones with single-handed shakes | |
Lu et al. | Safeguard: User reauthentication on smartphones via behavioral biometrics | |
US9557820B2 (en) | Methods and systems for commencing a process based on motion detection | |
US10027684B1 (en) | Method and system for user credential security | |
Koong et al. | A user authentication scheme using physiological and behavioral biometrics for multitouch devices | |
Ali et al. | At your fingertips: Considering finger distinctness in continuous touch-based authentication for mobile devices | |
Lee et al. | A parameterized model to select discriminating features on keystroke dynamics authentication on smartphones | |
Mare et al. | Continuous smartphone authentication using wristbands | |
JP6813456B2 (en) | Judgment device, judgment method, and judgment program | |
Rahman et al. | Movement pattern based authentication for smart mobile devices | |
JP2018085010A (en) | Identity determination apparatus and identity determination method | |
JP6839053B2 (en) | Judgment device, judgment method, and judgment program | |
Kolosnjaji et al. | Learning on a Budget for User Authentication on Mobile Devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190823 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200825 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201026 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6813456 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |