JP6839053B2 - 判定装置、判定方法、および、判定プログラム - Google Patents

判定装置、判定方法、および、判定プログラム Download PDF

Info

Publication number
JP6839053B2
JP6839053B2 JP2017162060A JP2017162060A JP6839053B2 JP 6839053 B2 JP6839053 B2 JP 6839053B2 JP 2017162060 A JP2017162060 A JP 2017162060A JP 2017162060 A JP2017162060 A JP 2017162060A JP 6839053 B2 JP6839053 B2 JP 6839053B2
Authority
JP
Japan
Prior art keywords
input device
data input
screen
time
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017162060A
Other languages
English (en)
Other versions
JP2019040404A (ja
Inventor
史堯 工藤
史堯 工藤
晴佳 鈴木
晴佳 鈴木
慶太 長谷川
慶太 長谷川
元 高橋
高橋  元
慎也 高田
慎也 高田
中村 亨
亨 中村
幸由 大田
幸由 大田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017162060A priority Critical patent/JP6839053B2/ja
Publication of JP2019040404A publication Critical patent/JP2019040404A/ja
Application granted granted Critical
Publication of JP6839053B2 publication Critical patent/JP6839053B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、判定装置、判定方法、および、判定プログラムに関する。
通常、デバイスもしくはシステム利用者の本人性の確認には、ID/PASSWORD認証や生体認証等の本人認証技術が用いられる。しかし、上記認証技術で本人性を確認できるのは、認証の瞬間のみであり、認証後にデバイスを利用している人が、認証を受けた人かどうかまでは保証できない。
認証の瞬間だけでなく、継続的な本人性確認が可能な技術として、リストバンド型のウェアラブルデバイスを用いた認証技術がある(非特許文献1参照)。この技術は、まず、事前に被認証機(ウェアラブルデバイス)と正規ユーザの心電図とを登録しておく。そして、ウェアラブルデバイスの装着時にユーザの心電図による生体認証を行い、認証OKだった場合、当該ウェアラブルデバイスからの無線通信の圏内にある認証端末(例えば、データ入力デバイス)のロックを解除する。また、ウェアラブルデバイスの脱着に伴い、生体信号の入力が失われた場合には、認証状態を解除し、データ入力デバイスを再度ロックすることで、データ入力デバイスが不正に第三者に操作されることを防止する。
Nymi、[平成29年8月5日検索]、インターネット<URL:https://nymi.com/>
上記のようなウェアラブルデバイスを用いた認証において、データ入力デバイスのロックが解除された後、データ入力デバイスに別の人物が操作を行うおそれもある。そこで、データ入力デバイスのロックが解除された後における、当該データ入力デバイスへのキー入力のログと、ウェアラブルデバイスの動きを示すセンサデータとを照合することで、データ入力デバイスへの操作者と、ウェアラブルデバイスの装着者とが同一人物であるか否かを判定する(同一人物性の判定を行う)ことも考えられる。
ここで、データ入力デバイスがタブレット端末やスマートフォン等の場合、上記のようなキー入力のみならず、画面上でのスワイプ、タップ等による操作が行われることも多いが、データ入力デバイスの画面上でのスワイプ、タップ等のキー入力以外による操作に対しても、データ入力デバイスの操作者と、ウェアラブルデバイスの装着者とが同一人物であるか否かを判定する技術は検討されていなかった。
そこで、本発明は、データ入力デバイスの画面上でのスワイプ、タップ等のキー入力以外による操作に対しても、データ入力デバイスの操作者と、ウェアラブルデバイスの装着者とが同一人物であるか否かを判定することを課題とする。
前記した課題を解決するため、本発明は、各時刻におけるウェアラブルデバイスの装着者の手または腕の動きを示すセンサデータを取得するセンサデータ取得部と、データ入力デバイスの画面上での操作が行われた時刻と、前記時刻における操作の内容とを取得するデータ入力デバイスデータ取得部と、前記取得されたデータ入力デバイスの画面上での操作の内容と、前記操作が行われた時刻と同じ時刻における前記センサデータの示す操作の内容とが一致する場合、前記データ入力デバイスの操作者は前記ウェアラブルデバイスの装着者と同一人物であると判定する判定部とを備えることを特徴とする。
本発明によれば、データ入力デバイスの画面上でのスワイプ、タップ等のキー入力以外による操作に対しても、データ入力デバイスの操作者と、ウェアラブルデバイスの装着者とが同一人物であるか否かを判定することができる。
図1は、基本の実施形態の概要を説明するための図である。 図2は、基本の実施形態の判定システムの構成例を示す図である。 図3は、第1の実施形態の判定システムの概要を説明するための図である。 図4は、第1の実施形態の判定システムの構成例を示す図である。 図5は、図4の判定システムの処理手順の例を示すフローチャートである。 図6は、第2の実施形態の判定システムの概要を説明するための図である。 図7は、第2の実施形態の判定システムの構成例を示す図である。 図8は、図7の判定システムの処理手順の例を示すフローチャートである。 図9は、判定プログラムを実行するコンピュータを示す図である。
以下、図面を参照しながら、本発明の実施形態を第1の実施形態と第2の実施形態とに分けて説明する。本発明は各実施形態に限定されない。ここではまず各実施形態の基本となる実施形態に説明する。
[基本の実施形態]
まず、図1を用いて、各実施形態の基本となる実施形態の概要を説明する。本実施形態の判定システムにおいて、データ入力デバイス20の正規ユーザは、加速度センサ等のセンサを備えるウェアラブルデバイス10を装着するものとする。つまり、判定システムは、ユーザにより装着されるウェアラブルデバイス10と、ユーザによる各種操作を受け付けるデータ入力デバイス20とを備える。なお、このウェアラブルデバイス10が、正規ユーザにより装着されていることは運用面で確認されるものとする。
判定システムは、各時刻におけるウェアラブルデバイス10の装着者(ユーザ)の手または腕の動きを示すセンサデータ(例えば、加速度データ)を取得する。また、判定システムは、データ入力デバイス20から、データ入力デバイスデータを取得する。このデータ入力デバイスデータは、例えば、各時刻におけるユーザの画面上での操作の種類(例えば、タップ、ダブルタップ、左スワイプ、右スワイプ、上スクロール、下スクロール等)、画面上での入力座標(例えば、タッチイベントの始点から終点までの入力座標)等のデータ入力デバイス20の画面上での操作の内容を示すデータである。
そして、判定システムは、データ入力デバイス20の画面上での操作の内容と、当該操作が行われた時刻と同じ時刻におけるウェアラブルデバイス10のセンサデータの示す操作内容とを照合することにより、データ入力デバイス20の操作者と、ウェアラブルデバイス10の装着者とが同一人物か否かを判定する(同一人物性判定を行う)。
つまり、判定システムは、データ入力デバイス20の画面上での操作の内容と、当該操作が行われた時刻と同じ時刻におけるウェアラブルデバイス10のセンサデータの示す操作内容とが同じであれば、データ入力デバイス20の操作者は、ウェアラブルデバイス10の装着者と同一人物と判定する。一方、判定システムは、データ入力デバイス20の画面上での操作の内容と、当該操作が行われた時刻と同じ時刻におけるウェアラブルデバイス10のセンサデータの示す操作内容とが同じでなければ、データ入力デバイス20の操作者は、ウェアラブルデバイス10の装着者と同一人物ではないと判定する。
次に、判定システムの構成例を説明する。図2に示すように、例えば、判定システムは、ウェアラブルデバイス10と、データ入力デバイス20と、判定サーバ(判定装置)30とを備える。各デバイス、サーバの台数は図2に示す台数に限定されない。
ウェアラブルデバイス10は、センサデータ取得部11を備える。このセンサデータ取得部11は、当該ウェアラブルデバイス10の動きを示すセンサデータ(例えば、加速度データ、角速度データ、地磁気データ等)を取得し、タイムスタンプ等の時刻情報を付して、無線通信等によりデータ入力デバイス20へ送信する。このウェアラブルデバイス10は、例えば、データ入力デバイス20の画面上での操作を行う側の腕(例えば、画面上でのタッチ操作やスタイラスペンを握る側の腕)等に装着される。これにより、ウェアラブルデバイス10は当該ウェアラブルデバイス10の装着者の画面上での操作時における手または腕の動きを示すセンサデータを取得することができる。
データ入力デバイス20は、マウス、スタイラスペン、指を用いた画面上でのタッチ操作等により入力操作を受け付ける。このデータ入力デバイス20は、例えば、パーソナルコンピュータ、タブレット端末、スマートフォン等により実現される。このデータ入力デバイス20は、操作内容取得部21と、データ送信部22とを備える。
操作内容取得部21は、データ入力デバイス20の画面上での操作の内容と、当該操作が行われた時刻とを取得する。また、データ送信部22は、ウェアラブルデバイス10から送信された各時刻におけるセンサデータと、操作内容取得部21により取得された操作の内容および当該操作が行われた時刻(データ入力デバイスデータ)とを判定サーバ30へ送信する。
判定サーバ30は、データ入力デバイス20の操作者とウェアラブルデバイス10の装着者とが同一人物であるか否かを判定する。この判定サーバ30は、センサデータ取得部31と、データ入力デバイスデータ取得部32と、判定部33とを備える。
センサデータ取得部31は、データ入力デバイス20から送信された、各時刻におけるウェアラブルデバイス10のセンサデータを取得する。データ入力デバイスデータ取得部32は、データ入力デバイス20から送信されたデータ入力デバイスデータを取得する。
判定部33は、取得されたデータ入力デバイス20の画面上での操作の内容と、当該操作が行われた時刻と同じ時刻におけるセンサデータの示すウェアラブルデバイス10の装着者による操作の内容とが一致するか否かを判定する。そして、これらの操作の内容が一致する場合、判定部33は、データ入力デバイス20の操作者はウェアラブルデバイス10の装着者と同一人物であると判定する。一方、これらの操作の内容が一致しない場合、判定部33は、データ入力デバイス20の操作者はウェアラブルデバイス10の装着者と同一人物ではないと判定する。
このようにすることで、判定システムは、データ入力デバイスの画面上でのスワイプ、タップ等のキー入力以外による操作に対しても、データ入力デバイスの操作者と、ウェアラブルデバイスの装着者とが同一人物であるか否かを判定することができる。
[第1の実施形態]
次に、本発明の第1の実施形態を説明する。前記した基本の実施形態と同じ構成については同じ符号を付して説明を省略する。なお、以下、データ入力デバイス20aが取得する操作内容は、データ入力デバイス20aの画面上へのタッチイベントである場合を例に説明する。
まず、図3を用いて、第1の実施形態の判定システムの概要を説明する。第1の実施形態の判定システムは、データ入力デバイス20aの画面上へのタッチイベントを取得する。タッチイベントは、例えば、「down(タッチの開始)」、「move(タッチしたまま動かす)」、「up(タッチの終了)」等である。一連のタッチイベントの示す操作の種類は、例えば、タップ、ダブルタップ、左スワイプ、右スワイプ、上スクロール、下スクロール等である。
例えば、データ入力デバイス20aは、始点から終点までの一連のタッチイベントの内容から、データ入力デバイス20aの画面上への操作の種類(例えば、右スワイプ)を判定する。また、判定システムは、データ入力デバイス20aのタッチイベントの始点から終点までの間(例えば、図3の「down」から「up」まで時間=タッチイベント区間)におけるセンサデータを取得する。そして、判定システムは、タッチイベント区間のセンサデータの特徴量から、当該タッチイベント区間に行われた操作の種類を特定する。
例えば、判定システムは、事前に操作の種類ごとのセンサデータの特徴量を学習しておく。そして、判定システムは、タッチイベント区間におけるセンサデータの特徴量と、上記の学習結果とを用いることで、タッチイベント区間に行われた操作の種類を特定する。つまり、判定システムは、データ入力デバイス20aでの操作が発生した時刻(タッチイベント区間)におけるウェアラブルデバイス10のセンサデータの特徴量から、ウェアラブルデバイス10の装着者によりどのような操作が行われたかを特定する。そして、判定システムは、センサデータの特徴量から特定された操作の種類とデータ入力デバイス20aにおける操作の種類(例えば、右スワイプ)とが同じであれば、データ入力デバイス20aの操作者はウェアラブルデバイス10の装着者と同一人物であると判定する。
次に、図4を用いて第1の実施形態の判定システムの構成例を説明する。図4に示すように、例えば、第1の実施形態の判定システムは、ウェアラブルデバイス10と、データ入力デバイス20aと、判定サーバ30aとを備える。
データ入力デバイス20aは、入力イベント取得部21aを備える。この入力イベント取得部21aは、図2の操作内容取得部21に相当する。入力イベント取得部21aは、データ入力デバイス20aで発生した入力イベントを取得する。具体的には、入力イベント取得部21aは、データ入力デバイス20aの画面上への「down」、「move」、「up」等のタッチイベント、タッチイベントが行われた時刻、一連のタッチイベントから判断された操作の種類(例えば、タップ、ダブルタップ、左スワイプ、右スワイプ、上スクロール、下スクロール等)等とを取得する。
データ送信部22aは、ウェアラブルデバイス10から受信した各時刻のセンサデータと、データ入力デバイス20aの入力イベントデータとを判定サーバ30aへ送信する。この入力イベントデータは、入力イベント取得部21aで取得したタッチイベントの始点から終点までの時刻と、当該始点から終点までの一連のタッチイベントから判断された操作の種類とを示したデータである。
判定サーバ30aは、センサデータ抽出部31aと、データ入力デバイスデータ取得部32と、判定部33aとを備える。
センサデータ抽出部31aは、図2のセンサデータ取得部31に相当する。センサデータ抽出部31aは、データ入力デバイス20aから受信したウェアラブルデバイス10の各時刻のセンサデータの中から、タッチイベントの始点から終点までの間(タッチイベント区間)におけるセンサデータを抽出する。タッチイベント区間がどの時刻からどの時刻までかは、データ入力デバイスデータ取得部32で受信した入力イベントデータから特定可能である。
なお、センサデータ抽出部31aは、タッチイベント区間に相当する時間帯を、タッチイベントの始点から終点までの時間帯と同じ時間帯としてもよいし、タッチイベントの始点から終点までの時間帯を前後にずらした時間帯、または、タッチイベントの始点から終点までの時間帯を拡大した時間帯でもよい。このようにすることで、例えば、ウェアラブルデバイス10とデータ入力デバイス20aとの間で時間のずれがあった場合でも、判定部33aにおける同一人物性の判定処理に与える影響を低減することができる。
判定部33aは、データ入力デバイス20aの画面上での操作と、当該操作が行われた時刻と同じ時刻におけるウェアラブルデバイス10のセンサデータの示す操作とが一致するか否かを判定する。
具体的には、判定部33aは、センサデータ抽出部31aにより抽出されたセンサデータ(つまり、データ入力デバイス20aで操作が行われた時刻と同じ時刻におけるセンサデータ)の特徴量を求める。次に、判定部33は、事前に機械学習等により得られたデータ入力デバイス20aの操作の種類ごとのセンサデータの特徴量と、ウェアラブルデバイス10で測定されたセンサデータの特徴量とを用いて、ウェアラブルデバイス10の装着者により行われた操作の種類を特定する。
そして、判定部33aは、特定したウェアラブルデバイス10の装着者により行われた操作の種類と、データ入力デバイス20aで行われた操作の種類とが一致する場合、データ入力デバイス20aの操作者はウェアラブルデバイス10の装着者と同一人物であると判定する。一方、判定部33aは、特定したウェアラブルデバイス10の装着者により行われた操作の種類と、データ入力デバイス20aで行われた操作の種類とが一致しない場合、データ入力デバイス20aの操作者はウェアラブルデバイス10の装着者と同一人物ではないと判定する。
なお、判定部33aは、上記の同一人物性の判定処理をデータ入力デバイス20aで取得された操作(入力イベント)ごとに行ってもよいし、複数の操作についてまとめて行ってもよい。例えば、データ入力デバイス20aで、右スワイプ→タップ→上スクロールという操作が行われた場合、判定部33aは、これらの一連の操作が行われた時刻(時間帯)におけるセンサデータを用いて、データ入力デバイス20aの操作者がウェアラブルデバイス10の装着者と同一人物か否かを判定してもよい。
次に、図5を用いて、判定システムの処理手順の例を説明する。判定システムのデータ入力デバイス20aは、各時刻におけるウェアラブルデバイス10のセンサデータを取得する(S11:センサデータを取得)。次に、データ入力デバイス20aのデータ送信部22は、S11で取得したセンサデータと、データ入力デバイス20aの入力イベントデータとを判定サーバ30aへ送信する(S12)。
S12の後、判定サーバ30aのデータ入力デバイスデータ取得部32は、データ入力デバイス20aから送信された入力イベントデータを受信する(S13)。また、センサデータ抽出部31aは、データ入力デバイス20aから送信された各時刻のセンサデータを受信する。そして、センサデータ抽出部31aは各時刻のセンサデータの中から、入力イベントデータに示されるタッチイベントの始点から終点までの時間(タッチイベント区間)におけるセンサデータを抽出する。つまり、センサデータ抽出部31aは、データ入力デバイス20aの画面上での操作が行われた時刻と同じ時刻におけるセンサデータを抽出する(S14)。
S14の後、判定部33aは、S14で抽出されたデータ入力デバイス20aの画面上での操作が行われた時刻と同じ時刻におけるセンサデータの特徴量から操作の種類を特定する(S15)。次に、判定部33aは、S15で特定した操作の種類と、データ入力デバイス20aの画面上での操作の種類とが一致している場合(S16でYes)、データ入力デバイス20aの操作者はウェアラブルデバイス10の装着者と同一人物であると判定する(S17)。一方、判定部33aは、S13で特定した操作の種類と、データ入力デバイス20aの画面上での操作の種類とが一致していない場合(S16でNo)、データ入力デバイス20aの操作者はウェアラブルデバイス10の装着者と同一人物ではないと判定する(S18)。
このような判定システムによれば、データ入力デバイス20aの画面上でのスワイプ、タップ等のキー入力以外の操作に対しても、データ入力デバイス20aの操作者と、ウェアラブルデバイス10を装着者とが同一人物であるか否かを判定することができる。
[第2の実施形態]
次に、本発明の第2の実施形態を説明する。前記した基本の実施形態と同じ構成については同じ符号を付して説明を省略する。なお、以下、データ入力デバイス20bが取得する操作内容は、スタイラスペン、指、マウス等による当該データ入力デバイス20aの画面上への入力座標である場合を例に説明する。また、ウェアラブルデバイス10が取得するセンサデータは加速度である場合を例に説明する。
まず、図6を用いて、第2の実施形態の概要を説明する。第2の実施形態の判定システムは、データ入力デバイス20bの重力加速度方向を鉛直成分とする座標系からデータ入力デバイス20bの傾きを取得する。また、判定システムは、データ入力デバイス20bの画面上へのタッチイベント中(例えば、画面に触れてから離すまでの間)の(X,Y)座標での変位(入力軌跡)を算出する。
さらに、判定システムは、各時刻におけるウェアラブルデバイス10の座標系(X´,Y´,Z´)の加速度を、データ入力デバイス20bの傾きと合致する座標系(X,Y,Z)に変換する。そして、判定システムは、変換した座標系(X,Y,Z)における各時刻のデータ入力デバイス20bの加速度から、データ入力デバイス20bのタッチイベント区間に対応する加速度を抽出し、抽出した加速度から、(X,Y)平面(変換した(X,Y,Z)の座標系における(X,Y)平面)での変位を算出する。
そして、判定システムは、データ入力デバイス20bの画面上における(X,Y)座標での変位(入力軌跡)と、ウェアラブルデバイス10の(X,Y)平面での変位とが一致しているか否かを判定する。ここで、変位が一致していれば、判定システムは、データ入力デバイス20bの操作者とウェアラブルデバイス10の装着者とは同一人物と判定し、変位が一致していなければ、データ入力デバイス20bの操作者とウェアラブルデバイス10の装着者とは同一人物ではないと判定する。
次に、図7を用いて第2の実施形態の判定システムの構成例を説明する。図7に示すように、例えば、第2の実施形態の判定システムは、ウェアラブルデバイス10と、データ入力デバイス20bと、判定サーバ30bとを備える。
データ入力デバイス20bは、操作内容取得部21(図2参照)として、入力座標取得部211と、入力座標変位取得部212と、傾き取得部213とを備える。また、データ入力デバイス20bは、データ送信部22bを備える。
入力座標取得部211は各時刻におけるデータ入力デバイス20bの画面上での入力座標を取得する。例えば、入力座標取得部211は、データ入力デバイス20bの画面上でのタッチイベント「down」から「up」まで(タッチイベント区間)のタッチイベントの発生座標(X,Y)と、タッチイベントの時刻とを取得する。
入力座標変位取得部212は、入力座標取得部211による取得された入力座標の始点から終点までの変位(入力座標変位データ)を算出する。なお、ここでの変位は、総変位量であってもよいし、時系列変化でもよい。また、変位は、(X,Y)の合成変位であってもよいし、(X,Y)それぞれの変位であってもよい。
傾き取得部213は、データ入力デバイス20bの傾きを取得する。例えば、傾き取得部213は、データ入力デバイス20bの加速度、角速度、地磁気等を収集し、重力加速度方向を鉛直成分とする世界座標系からの傾きを取得する。
データ送信部22bは、ウェアラブルデバイス10から受信した各時刻のセンサデータと、データ入力デバイス20bの入力座標変位データおよびデータ入力デバイス20bの傾きとをデータ入力デバイスデータとして、判定サーバ30bへ送信する。
判定サーバ30bは、センサデータ抽出部31aと、データ入力デバイスデータ取得部32と、座標変換部34と、ウェアラブル変位算出部35と、判定部33bとを備える。
座標変換部34は、ウェアラブルデバイス10の画面上でのタッチイベントの始点から終点までの時間におけるセンサデータ(ここでは加速度データ)の示す動きを、データ入力デバイス20bの画面の座標系での動きに変換する。変換には、データ入力デバイス20bの画面の傾きとウェアラブルデバイス10の傾きとを用いる。なお、このウェアラブルデバイス10の傾きは、例えば、ウェアラブルデバイス10の重力加速度方向を鉛直方向とする世界座標系からの傾きを用いる。このウェアラブルデバイス10の重力加速度方向を鉛直方向とする世界座標系からの傾きは、ウェアラブルデバイス10のセンサデータに含まれる加速度、角速度、地磁気等から算出可能である。
なお、座標変換部34による座標系の変換は、例えば、以下の文献1,2に示す方法により行うことができる。
文献1:加速度センサーを元に端末の位置を推定する、http://usi3.com/Position_estimation_by_using_acceleration_sensor.html、文献2:Androidで世界座標系の加速度と方位を取得する、http://qiita.com/ryskiwt/items/f6d98c0a82ba7e31c9b3
ウェアラブル変位算出部35は、座標変換部34により座標変換されたウェアラブルデバイス10の動きから、当該ウェアラブルデバイス10の変位を算出する。例えば、ウェアラブル変位算出部35は、タッチイベントの始点から終点までの時間(タッチイベント区間)におけるウェアラブルデバイス10のセンサデータに含まれる加速度データを2階積分することにより、ウェアラブルデバイス10の(X,Y)平面での変位を算出する。なお、ウェアラブル変位算出部35が算出する変位は、入力座標変位取得部212で算出する変位と形式がそろっていれば、総変位量であってもよいし、時系列変化でもよい。また、変位は、(X,Y)の合成変位であってもよいし、(X,Y)それぞれの変位であってもよい。
判定部33bは、ウェアラブル変位算出部35により算出されたタッチイベント区間におけるウェアラブルデバイス10の変位と、データ入力デバイスデータ取得部32により取得された上記のタッチイベント区間におけるデータ入力デバイス20bの変位とが一致するか否かを判定する。そして、判定部33bは、変位が一致する場合、データ入力デバイス20bの操作者がウェアラブルデバイス10の装着者と同一人物と判定する。一方、判定部33bは、変位が一致しない場合、データ入力デバイス20bの操作者はウェアラブルデバイス10の装着者と同一人物ではないと判定する。
つまり、判定部33bは、データ入力デバイス20bの変位とウェアラブルデバイス10の変位とが一致する場合、データ入力デバイス20bの画面上での操作の内容と、ウェアラブルデバイス10の装着者による操作の内容とが一致するとみなし、データ入力デバイス20bの操作者はウェアラブルデバイス10の装着者と同一人物と判定する。一方、判定部33bは、データ入力デバイス20bの変位とウェアラブルデバイス10の変位とが一致しない場合、データ入力デバイス20bの画面上での操作の内容と、ウェアラブルデバイス10の装着者による操作の内容とが一致しないとみなし、データ入力デバイス20bの操作者はウェアラブルデバイス10の装着者と同一人物ではないと判定する。
次に、図8を用いて、判定システムの処理手順の例を説明する。判定システムのデータ入力デバイス20bは、各時刻におけるウェアラブルデバイス10のセンサデータを取得する(S21:センサデータを取得)。次に、データ入力デバイス20bの入力座標取得部211は、各時刻におけるデータ入力デバイス20bの画面上での入力座標を取得する(S22)。そして、入力座標変位取得部212は、S22で取得された各時刻における入力座標を用いて、当該入力座標の始点から終点までの変位(入力座標変位データ)を算出する(S23)。また、傾き取得部213は、データ入力デバイス20bの傾きを取得する(S24)。
データ送信部22bは、S21で取得したセンサデータと、データ入力デバイス20bの入力座標変位データおよびデータ入力デバイス20bの傾きとを判定サーバ30bへ送信する(S25)。
S25の後、判定サーバ30bのデータ入力デバイスデータ取得部32は、データ入力デバイス20bから送信された入力座標変位データおよびデータ入力デバイス20bの傾きを受信する(S26)。また、センサデータ抽出部31aは、データ入力デバイス20bから送信された各時刻のセンサデータを受信する。そして、センサデータ抽出部31aは、受信したセンサデータの中から、入力座標変位データに示されるタッチイベントの始点から終点までの時間(タッチイベント区間)におけるセンサデータを抽出する。つまり、センサデータ抽出部31aは、データ入力デバイス20bの画面上での操作が行われた時刻と同じ時刻におけるセンサデータを抽出する(S27)。
S27の後、座標変換部34は、データ入力デバイス20bの画面上でのタッチイベントの始点から終点までの時間におけるセンサデータ(例えば、加速度データ)の示す動きを、データ入力デバイス20bの画面の座標系での動きに変換する(S28)。
S28の後、ウェアラブル変位算出部35は、S28で変換されたウェアラブルデバイス10の動きから、当該ウェアラブルデバイス10の変位を算出する(S29)。
S29の後、判定部33bは、S29で算出されたタッチイベント区間におけるウェアラブルデバイス10の変位と、S29でデータ入力デバイスデータ取得部32により取得された上記のタッチイベント区間におけるデータ入力デバイス20bの変位とが一致するか否かを判定する(S30)。ここで、判定部33bは、変位が一致していると判定した場合(S30でYes)、データ入力デバイス20bの操作者はウェアラブルデバイス10の装着者と同一人物であると判定する(S31)。一方、判定部33bは、変位が一致していないと判定した場合(S30でNo)、データ入力デバイス20bの操作者はウェアラブルデバイス10の装着者と同一人物ではないと判定する(S32)。
このような判定システムによれば、データ入力デバイス20bの画面上での指、スタイラスペン等による操作に対しても、データ入力デバイス20bの操作者と、ウェアラブルデバイス10の装着者とが同一人物であるか否かを精度よく判定することができる。
[その他の実施形態]
なお、上記の各実施形態で述べた判定サーバ30,30a,30bの機能はそれぞれ、データ入力デバイス20,20a,20bに装備されてもよい。つまり、データ入力デバイス20,20a,20bにおいて、データ入力デバイス20,20a,20bの操作者が、ウェアラブルデバイス10の装着者と同一人物であるか否かを判定してもよい。
[プログラム]
また、上記の実施形態で述べたデータ入力デバイス20,20a,20bおよび判定サーバ30,30a,30bの機能を実現するプログラムを所望の情報処理装置(コンピュータ)にインストールすることによって実装できる。例えば、パッケージソフトウェアやオンラインソフトウェアとして提供される上記のプログラムを情報処理装置に実行させることにより、情報処理装置をデータ入力デバイス20,20a,20bおよび判定サーバ30,30a,30bとして機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等がその範疇に含まれる。また、データ入力デバイス20,20a,20bおよび判定サーバ30,30a,30bを、クラウドサーバに実装してもよい。
図9を用いて、上記のプログラム(判定プログラム)を実行するコンピュータの一例を説明する。図9に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011およびRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。ディスクドライブ1100には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。
ここで、図9に示すように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。前記した各実施形態で説明した各種データや情報は、例えばハードディスクドライブ1090やメモリ1010に記憶される。
そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
なお、上記の判定プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、上記のプログラムに係るプログラムモジュール1093やプログラムデータ1094は、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
10 ウェアラブルデバイス
11,31 センサデータ取得部
20,20a,20b データ入力デバイス
21 操作内容取得部
21a 入力イベント取得部
22,22a,22b データ送信部
30,30a,30b 判定サーバ
31a センサデータ抽出部
32 データ入力デバイスデータ取得部
33,33a,33b 判定部
34 座標変換部
35 ウェアラブル変位算出部
211 入力座標取得部
212 入力座標変位取得部
213 傾き取得部

Claims (5)

  1. 各時刻におけるウェアラブルデバイスの装着者の手または腕の動きを示すセンサデータを取得するセンサデータ取得部と、
    データ入力デバイスの画面上でのタッチイベントの始点から終点までの時間における、前記タッチイベントの画面上での動きと前記データ入力デバイスの画面の傾きとを取得するデータ入力デバイスデータ取得部と、
    前記データ入力デバイスの画面上でのタッチイベントの始点から終点までの時間における、前記ウェアラブルデバイスのセンサデータの示す動きを、前記時間における前記データ入力デバイスの画面の傾きを用いて、前記データ入力デバイスの画面の座標系での動きに変換する座標変換部と、
    前記データ入力デバイスの画面上でのタッチイベントの始点から終点までの時間における、変換された前記ウェアラブルデバイスの動きと、前記画面上での入力座標の始点から終点まで画面上での動きとが一致する場合、前記取得されたデータ入力デバイスの画面上での操作の内容と、前記操作が行われた時刻と同じ時刻における前記センサデータの示す操作の内容とが一致すると判定し、前記データ入力デバイスの操作者は前記ウェアラブルデバイスの装着者と同一人物であると判定する判定部と、
    を備えることを特徴とする判定装置。
  2. 前記判定部は、
    事前学習された前記操作の種類ごとの前記センサデータの特徴量を用いて、前記データ入力デバイスの画面上での操作が行われた時刻と同じ時刻における前記センサデータの特徴量から、前記センサデータの示す操作の種類を特定し、前記特定したセンサデータの示す操作の種類と、前記データ入力デバイスの画面上での操作の種類とが一致する場合、前記データ入力デバイスの操作者は前記ウェアラブルデバイスの装着者と同一人物であると判定する
    ことを特徴とする請求項1に記載の判定装置。
  3. 前記操作の種類は、
    前記データ入力デバイスの画面上の、タップ、ダブルタップ、右スワイプ、左スワイプ、上スクロール、および、下スクロールのいずれかである
    ことを特徴とする請求項2に記載の判定装置。
  4. 判定装置が、
    各時刻におけるウェアラブルデバイスの装着者の手または腕の動きを示すセンサデータを取得するステップと、
    データ入力デバイスの画面上でのタッチイベントの始点から終点までの時間における、前記タッチイベントの画面上での動きと前記データ入力デバイスの画面の傾きとを取得するステップと、
    前記データ入力デバイスの画面上でのタッチイベントの始点から終点までの時間における、前記ウェアラブルデバイスのセンサデータの示す動きを、前記時間における前記データ入力デバイスの画面の傾きを用いて、前記データ入力デバイスの画面の座標系での動きに変換するステップと、
    前記データ入力デバイスの画面上でのタッチイベントの始点から終点までの時間における、変換された前記ウェアラブルデバイスの動きと、前記画面上での入力座標の始点から終点まで画面上での動きとが一致する場合、前記取得されたデータ入力デバイスの画面上での操作の内容と、前記操作が行われた時刻と同じ時刻における前記センサデータの示す操作の内容とが一致すると判定し、前記データ入力デバイスの操作者は前記ウェアラブルデバイスの装着者と同一人物であると判定するステップと、
    を含んだことを特徴とする判定方法。
  5. 各時刻におけるウェアラブルデバイスの装着者の手または腕の動きを示すセンサデータを取得するステップと、
    データ入力デバイスの画面上でのタッチイベントの始点から終点までの時間における、前記タッチイベントの画面上での動きと前記データ入力デバイスの画面の傾きとを取得するステップと、
    前記データ入力デバイスの画面上でのタッチイベントの始点から終点までの時間における、前記ウェアラブルデバイスのセンサデータの示す動きを、前記時間における前記データ入力デバイスの画面の傾きを用いて、前記データ入力デバイスの画面の座標系での動きに変換するステップと、
    前記データ入力デバイスの画面上でのタッチイベントの始点から終点までの時間における、変換された前記ウェアラブルデバイスの動きと、前記画面上での入力座標の始点から終点まで画面上での動きとが一致する場合、前記取得されたデータ入力デバイスの画面上での操作の内容と、前記操作が行われた時刻と同じ時刻における前記センサデータの示す操作の内容とが一致すると判定し、前記データ入力デバイスの操作者は前記ウェアラブルデバイスの装着者と同一人物であると判定するステップと、
    をコンピュータに実行させることを特徴とする判定プログラム。
JP2017162060A 2017-08-25 2017-08-25 判定装置、判定方法、および、判定プログラム Active JP6839053B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017162060A JP6839053B2 (ja) 2017-08-25 2017-08-25 判定装置、判定方法、および、判定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017162060A JP6839053B2 (ja) 2017-08-25 2017-08-25 判定装置、判定方法、および、判定プログラム

Publications (2)

Publication Number Publication Date
JP2019040404A JP2019040404A (ja) 2019-03-14
JP6839053B2 true JP6839053B2 (ja) 2021-03-03

Family

ID=65725760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017162060A Active JP6839053B2 (ja) 2017-08-25 2017-08-25 判定装置、判定方法、および、判定プログラム

Country Status (1)

Country Link
JP (1) JP6839053B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024085376A1 (en) * 2022-10-18 2024-04-25 Samsung Electronics Co., Ltd. Method and electronic device for displaying position of first device on second device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016024424A1 (ja) * 2014-08-11 2017-05-25 ソニー株式会社 情報処理装置、情報処理方法、及び情報処理システム
JP6184931B2 (ja) * 2014-10-29 2017-08-23 京セラ株式会社 携帯端末および携帯端末のロック制御方法

Also Published As

Publication number Publication date
JP2019040404A (ja) 2019-03-14

Similar Documents

Publication Publication Date Title
US10726419B2 (en) Methods and apparatus for providing secure identification, payment processing and/or signing using a gesture-based input device
EP3482331B1 (en) Obscuring data when gathering behavioral data
KR101839860B1 (ko) 동적 키보드 및 터치스크린 생체 측정
CN105980973B (zh) 用户认证手势
US9961547B1 (en) Continuous seamless mobile device authentication using a separate electronic wearable apparatus
US9696815B2 (en) Method, device, system and non-transitory computer-readable recording medium for providing user interface
US11171968B1 (en) Method and system for user credential security
CN107818251B (zh) 一种人脸识别方法及移动终端
US9557820B2 (en) Methods and systems for commencing a process based on motion detection
US11385784B2 (en) Systems and methods for configuring the user interface of a mobile device
WO2016019792A1 (zh) 一种身份认证方法及装置
US20200366670A1 (en) A system and method for authenticating a user
JP6839053B2 (ja) 判定装置、判定方法、および、判定プログラム
JP2014119825A (ja) 情報処理装置、プログラム、及び方法
CN105807919B (zh) 一种控制方法及电子设备
JP6813456B2 (ja) 判定装置、判定方法、および、判定プログラム
JP2016119019A (ja) 情報処理装置、情報処理方法、プログラム
US20150355722A1 (en) Method, Device, System And Non-Transitory Computer-Readable Recording Medium For Providing User Interface
JP7104291B2 (ja) 情報処理システム、情報処理方法、プログラム
JP7299543B2 (ja) 情報処理システム、情報処理方法、プログラム
CN117055738B (zh) 手势识别方法、可穿戴设备及存储介质
JP6403975B2 (ja) 秘密情報入力システム及びプログラム
TWI584154B (zh) 以角度為基礎之項目決定方法及系統,及相關電腦程式產品
JP2018089147A (ja) 本人性判定装置、および、本人性判定方法
KR20140043593A (ko) 지문을 이용한 파일 관리 방법, 장치 및 기록 매체

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200811

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210212

R150 Certificate of patent or registration of utility model

Ref document number: 6839053

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150