JP2016081508A - Authentication system and input device - Google Patents
Authentication system and input device Download PDFInfo
- Publication number
- JP2016081508A JP2016081508A JP2015108879A JP2015108879A JP2016081508A JP 2016081508 A JP2016081508 A JP 2016081508A JP 2015108879 A JP2015108879 A JP 2015108879A JP 2015108879 A JP2015108879 A JP 2015108879A JP 2016081508 A JP2016081508 A JP 2016081508A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- user
- information processing
- software key
- pin
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、認証システム、及び入力装置に関する。 The present invention relates to an authentication system and an input device.
近年、ウェアラブルデバイスやAR(Augmented Reality)技術の発展に伴い、AR技術を用いた種々の装置が提案されている。例えば、特許文献1には、ユーザ装置に予めインストールされた特定のアプリケーションを起動して対象人物にユーザ装置を向けると、ユーザ装置の画面には、対象人物を含む映像が表示されると共に、映像上に対象人物が予め公開している公開情報が表示されるという技術が開示されている。
In recent years, with the development of wearable devices and AR (Augmented Reality) technology, various apparatuses using the AR technology have been proposed. For example, in
この特許文献1に開示された技術では、公開情報が表示されるようになっているが、公開情報へのアクセスは、実際に対象人物を特定してから所定の期間内のみ可能としたり、アクセスIDを変化させることにより、特定の対象人物を追跡することが出来ないようにしてもよいことになっている。
In the technique disclosed in
このような技術背景において、コンピューティングデバイスにおける入力機能は重要な機能の1つであり、ウェアラブルデバイスにおいても、秘密情報などを入力するための十分な入力機能を備えておくことが好ましい。 In such a technical background, an input function in a computing device is one of important functions, and it is preferable that a wearable device also has a sufficient input function for inputting secret information and the like.
しかしながら、従来のウェアラブルデバイスでは、入力機能を提供するためにタッチパネルが用いられているが、このタッチパネルはスマートホンのように表示部と一体となったタッチパネルではないため、暗証番号などの秘密情報の入力には非常に時間を要するという問題点があった。 However, in a conventional wearable device, a touch panel is used to provide an input function. However, since this touch panel is not a touch panel integrated with a display unit like a smartphone, secret information such as a password is not provided. There was a problem that input takes a very long time.
さらに、秘密情報が入力される銀行のATM(automated teller machine)では、暗証番号を入力するタッチパネルに表示させるキー配列をその都度変更するATMもあるが、変更したとしても覗き見される危険性がある。 Furthermore, in ATMs (automated teller machines) of banks where confidential information is input, there are ATMs that change the key layout displayed on the touch panel for entering the password each time, but there is a risk of peeping even if they are changed. is there.
本発明は、このような事情に鑑みてなされたもので、その目的は、秘密情報を安全に入力可能な認証システム、及び入力装置を提供することにある。 The present invention has been made in view of such circumstances, and an object thereof is to provide an authentication system and an input device capable of safely inputting secret information.
上述した課題を解決するために、本発明は、ユーザが目視可能な透過型ディスプレイに文字列を入力するためのソフトウェアキーを表示する表示部と、前記表示部により表示された前記ソフトウェアキーに対する前記ユーザの操作内容を取得する操作内容取得部と、前記操作内容取得部により取得された前記操作内容から、前記ユーザの操作により入力された文字列を秘密情報として取得する文字列取得部と、前記文字列取得部により取得された文字列を用いて、認証処理を実行する認証部とを有することを特徴とする認証システムである。 In order to solve the above-described problem, the present invention provides a display unit that displays a software key for inputting a character string on a transparent display that can be viewed by a user, and the software key displayed by the display unit. An operation content acquisition unit that acquires user operation content, a character string acquisition unit that acquires, as secret information, a character string input by the user operation from the operation content acquired by the operation content acquisition unit, An authentication system comprising: an authentication unit that executes an authentication process using a character string acquired by a character string acquisition unit.
また、本発明の一態様は、上記の認証システムにおいて、前記透過型ディスプレイの動きを示す物理量を検出する検出部と、前記検出部により検出された前記物理量に基づき、前記ユーザにより指定された位置を表す指定位置と、前記ソフトウェアキーとの相対位置を補正する補正部とをさらに有し、前記操作内容取得部は、前記補正部により補正された前記相対位置によって前記ユーザの操作内容を取得することを特徴とする。 According to another aspect of the present invention, in the above authentication system, a detection unit that detects a physical quantity indicating the movement of the transmissive display, and a position specified by the user based on the physical quantity detected by the detection unit. And a correction unit that corrects the relative position of the software key, and the operation content acquisition unit acquires the user operation content from the relative position corrected by the correction unit. It is characterized by that.
また、本発明の一態様は、上記の認証システムにおいて、前記検出部が検出する前記物理量は、前記透過型ディスプレイのパン方向の回転角及びチルト方向の回転角であり、前記補正部は、前記検出部が検出した前記パン方向の回転角及び前記チルト方向の回転角に基づき、前記指定位置と、前記ソフトウェアキーとの相対位置を補正することを特徴とする。 According to another aspect of the present invention, in the authentication system, the physical quantity detected by the detection unit is a rotation angle in a pan direction and a rotation angle in a tilt direction of the transmissive display, and the correction unit The relative position between the specified position and the software key is corrected based on the rotation angle in the pan direction and the rotation angle in the tilt direction detected by the detection unit.
また、本発明の一態様は、上記の認証システムにおいて、前記補正部は、前記検出部が検出した前記パン方向の回転角及び前記チルト方向の回転角に基づき、前記指定位置の補正量または前記ソフトウェアキーの補正量を算出することにより、前記指定位置と、前記ソフトウェアキーとの相対位置を補正することを特徴とする。 Further, according to one aspect of the present invention, in the authentication system, the correction unit may determine the correction amount of the specified position or the correction amount based on the rotation angle in the pan direction and the rotation angle in the tilt direction detected by the detection unit. By calculating the correction amount of the software key, the relative position between the specified position and the software key is corrected.
また、本発明の一態様は、上記の認証システムにおいて、前記補正部は、算出された前記指定位置の補正量に応じて、前記指定位置を前記ソフトウェアキーに対して移動させることにより、前記指定位置と、前記ソフトウェアキーとの相対位置を補正することを特徴とする。 According to another aspect of the present invention, in the authentication system, the correction unit moves the specified position relative to the software key according to the calculated correction amount of the specified position. A relative position between the position and the software key is corrected.
また、本発明の一態様は、上記の認証システムにおいて、前記補正部は、算出された前記ソフトウェアキーの補正量に応じて、前記ソフトウェアキーを前記指定位置に対して移動させることにより、前記指定位置と、前記ソフトウェアキーとの相対位置を補正することを特徴とする。 Further, according to one aspect of the present invention, in the authentication system, the correction unit moves the software key to the specified position in accordance with the calculated correction amount of the software key. A relative position between the position and the software key is corrected.
上述した課題を解決するために、本発明は、ユーザが目視可能な透過型ディスプレイに文字列を入力するためのソフトウェアキーを表示する表示部と、前記表示部により表示された前記ソフトウェアキーに対する前記ユーザの操作内容を取得する操作内容取得部と、前記操作内容取得部により取得された前記操作内容から、前記ユーザの操作により入力された文字列を秘密情報として取得する文字列取得部とを有することを特徴とする入力装置である。 In order to solve the above-described problem, the present invention provides a display unit that displays a software key for inputting a character string on a transparent display that can be viewed by a user, and the software key displayed by the display unit. An operation content acquisition unit that acquires user operation content, and a character string acquisition unit that acquires, as confidential information, a character string input by the user operation from the operation content acquired by the operation content acquisition unit This is an input device.
また、本発明の一態様は、上記の入力装置において、前記透過型ディスプレイの動きを示す物理量を検出する検出部と、前記検出部により検出された前記物理量に基づき、前記ユーザにより指定された位置を表す指定位置と、前記ソフトウェアキーとの相対位置を補正する補正部とをさらに有し、前記操作内容取得部は、前記補正部により補正された前記相対位置によって前記ユーザの操作内容を取得することを特徴とする。 According to another aspect of the present invention, in the above input device, a detection unit that detects a physical quantity indicating the movement of the transmissive display, and a position specified by the user based on the physical quantity detected by the detection unit. And a correction unit that corrects the relative position of the software key, and the operation content acquisition unit acquires the user operation content from the relative position corrected by the correction unit. It is characterized by that.
また、本発明の一態様は、上記の入力装置において、前記検出部が検出する前記物理量は、前記透過型ディスプレイのパン方向の回転角及びチルト方向の回転角であり、前記補正部は、前記検出部が検出した前記パン方向の回転角及び前記チルト方向の回転角に基づき、前記指定位置と、前記ソフトウェアキーとの相対位置を補正することを特徴とする。 According to another aspect of the present invention, in the input device, the physical quantity detected by the detection unit is a rotation angle in a pan direction and a rotation angle in a tilt direction of the transmissive display, and the correction unit The relative position between the specified position and the software key is corrected based on the rotation angle in the pan direction and the rotation angle in the tilt direction detected by the detection unit.
以上説明したように、この発明によれば、秘密情報を安全に入力可能な認証システム、及び入力装置を提供できる。 As described above, according to the present invention, it is possible to provide an authentication system and an input device that can safely input secret information.
図1は、本発明の実施形態に係る眼鏡型ウェアラブルデバイスとしてのスマートグラス10の外観構成を示す図である。
スマートグラス10は、マイク12、カメラ13、タッチパネル14、ディスプレイ15を含んで構成される。このディスプレイ15は、透過型ディスプレイであり、スマートグラス10を装着したユーザの網膜に画像が投影されることで、当該ユーザが目視可能となっている。また、ディスプレイ15には、文字列を入力するためのソフトウェアキーが表示される。具体的には、ATMの暗証番号など秘密情報(以下、「PIN」という)を入力するためのPIN配列1000、1001が表示される。なお、本実施形態において、文字列は文字、数字、記号を含む文字列である。
FIG. 1 is a diagram showing an external configuration of a
The
左側のPIN配列1000は、番号を整列させた場合の表示例を示し、右側のPIN配列1001は番号の位置をランダムに変えた場合の表示例を示している。なお、このPIN配列1000、1001は、0から9の数字キーと、エンターキー(E)、及びクリアキー(C)が設けられているが、PINを入力可能な配列であれば、図1に示されるPIN配列に限定されない。このように、本実施形態では、スマートグラス10を装着したユーザにのみPIN配列が目視可能であるため、PIN配列がスマートグラス10を装着したユーザ以外に盗み見されることはない。
The
図2は、ユーザから見えるPIN配列を示す図である。
図2には、スマートグラス10のレンズ枠1002、ユーザの指1003、及びPIN配列1004が示されている。
図1に示したように、ディスプレイ15は右目に対応するレンズの右斜め上方向に位置されているので、PIN配列1004は、レンズ枠1002の右斜め上方向に存在するようにユーザからは見える。このPIN配列1004に対し、ユーザは指1003による操作を行う。このとき、指1003はカメラ13により撮影されており、指1003の動きはカメラ13により検出されている。こうしてカメラ13により撮影されている状態で、ユーザが指1003による操作を行うことで、PINを入力することができる。
FIG. 2 is a diagram showing a PIN array visible to the user.
FIG. 2 shows a
As shown in FIG. 1, since the
ここで、ユーザが行う操作について説明する。ディスプレイ15は、上述したように透過型ディスプレイであるので、このディスプレイ15を透過して、ユーザの眼とディスプレイ15との直線上に存在する物体も、ユーザは目視可能となっている。従って、ユーザが目とディスプレイ15とを結ぶ直線上に指をかざすと、PIN配列と指とが重なっているように見える。このように見える状態は、ユーザにとって、例えばハードキーやタッチパネルを指で操作する場合と実質的に同じ状態となる。その状態で、ユーザは次に説明する操作を行うことで、文字列を入力可能となっている。
Here, operations performed by the user will be described. Since the
図3は、入力内容を検出するための指の操作A,B,Cを示す図である。図3には、PIN配列1020、指の軌跡1010,1011,1012,1013が示されている。
まず、操作Aは、軌跡1010に示されるように、対象キーの上(直線上において重なる位置)に1秒など予め定められた秒数だけ留まる操作である。図3の場合、ユーザは「1」の上に指を1秒留めることで、「1」を入力することができる。
操作Bは、軌跡1011に示されるように、対象キーの上を予め定められた角度以下でなぞる操作である。図3の場合、ユーザは、「3」の上を指で予め定められた角度以下でなぞることで、「3」を入力することができる。この予め定められた角度については後述する。
操作Cは、軌跡1012,1013に示されるように、対象キーの上を2回連続して予め定められた角度範囲内でなぞる操作である。図3の場合、ユーザは、「8」の上を2回連続して予め定められた角度範囲内でなぞることで、「8」を入力することができる。
FIG. 3 is a diagram showing finger operations A, B, and C for detecting input contents. FIG. 3 shows a
First, the operation A is an operation that remains for a predetermined number of seconds such as 1 second on the target key (position overlapping on the straight line) as indicated by the
The operation B is an operation of tracing the target key at a predetermined angle or less as indicated by the
The operation C is an operation of tracing the target key twice continuously within a predetermined angle range as indicated by the
このように、各操作が行われたことが検出されると、その操作により、ユーザが入力したいと考えた入力位置を確定する必要がある。その入力位置の確定方法の一例として、操作A,B,Cのいずれの操作においても、各操作が検出された時点での指の位置を入力位置とする方法があるが、これに限るものではない。 Thus, when it is detected that each operation has been performed, it is necessary to determine the input position that the user wishes to input by the operation. As an example of the method for determining the input position, there is a method in which the position of the finger at the time when each operation is detected is used as the input position in any of the operations A, B, and C. However, the present invention is not limited to this. Absent.
図4は、予め定められた角度の一例を示す図である。図4には、PIN配列1030、軌跡1031,1032が示されている。なお、図4のPIN配列1030では、分かりやすくするために数字、E、Cを示していない。
一般的に、ユーザは指を正確に直線で動かすことはできないので、若干曲がりながらなぞることとなる。そのような意図しない曲がりと、意図した曲がりとを区別するには、予め定められた角度を、概ね150°以下とすればよいことが現段階では実験的に得られている。従って、軌跡1031の場合は、操作Bとして検出され、軌跡1032の場合は、操作Bとして検出されない。
FIG. 4 is a diagram illustrating an example of a predetermined angle. FIG. 4 shows a
In general, since the user cannot move his / her finger accurately in a straight line, the user traces while slightly bending. At this stage, it has been experimentally obtained that a predetermined angle should be approximately 150 ° or less in order to distinguish such an unintended bend from an intended bend. Accordingly, the
図5は、ユーザが行った操作A,B,Cの検出例を示す図である。図5には、PIN配列1040、指1041、軌跡1042が示されている。
図5において、ユーザは位置Aで操作Aを行い、軌跡1042に示されるようになぞっていき、位置Bで操作Bを行い、さらに軌跡1042に示されるようになぞっていき、位置Cで操作Cを行っている。これにより、PINとして「1」、「3」、「8」が入力されたこととなる。位置Bと位置Cの間の「5」と「6」をなぞっている軌跡が若干曲がっているが、この軌跡のなす角は150°以上であるため、操作Bとして検出されない。
なお、ユーザは、上述した操作A,B,Cの全てを用いて入力する必要はなく、操作A,B,Cのうち、いずれか1つの操作で入力できるようにしてもよい。また、操作A,B,Cのうち、いずれか2つの操作で入力できるようにしてもよい。
さらに、操作A,B,Cに限らず、指でタッチをする操作などを検出するようにしてもよい。また、指に代えて、発光体や特定の色の物体を用いるようにしてもよい。また、ユーザは、指で位置を示すのではなく、音声で位置を示すようにしてもよいし、ユーザが頭を動かすことで位置を示すようにしてもよい。
FIG. 5 is a diagram illustrating a detection example of operations A, B, and C performed by the user. FIG. 5 shows a
In FIG. 5, the user performs the operation A at the position A, traces as indicated by the
Note that the user does not have to input using all of the operations A, B, and C described above, and the user may be able to input by any one of the operations A, B, and C. Moreover, you may enable it to input by any two operation among operation A, B, and C. FIG.
Furthermore, not only the operations A, B, and C, an operation of touching with a finger may be detected. Further, instead of the finger, a light emitter or a specific color object may be used. Further, the user may indicate the position by voice instead of indicating the position by the finger, or may indicate the position by moving the head of the user.
図6は、ディスプレイ15で表示される画像とカメラ13で撮影された指の位置とのずれを示す図である。図6には、ユーザの視界1050、画像表示領域1051、及びカメラ撮影領域1052が示されている。
まず、ユーザの右目の視界1050の中に、ディスプレイ15があり、そこにはPIN配列などの画像が表示される。このユーザの視界に表示される画像の領域を画像表示領域1051としている。そしてこの画像表示領域1051の枠をユーザがなぞる操作を予め行っておく。また、前提として、PIN配列はこの画像表示領域全体に表示されるものとする。
画像表示領域1051の枠をユーザがなぞると、その操作はカメラにより撮影される。カメラにより撮影された指の軌跡も画像表示領域1051と同じく矩形の領域となるが、この領域をカメラ撮影領域1052としている。
FIG. 6 is a diagram illustrating a deviation between the image displayed on the
First, the
When the user traces the frame of the
ユーザが画像表示領域1051の枠をなぞる操作を行った際に得られたカメラ撮影領域1052の4隅の座標(x1、y1)、(x1、y2)、(x2、y2)、(x2、y1)の要素であるx1、x2、y1,y2を、スマートグラス10に設けられたROMなどの記憶装置に予め記憶しておく。これにより、カメラ13で撮影されるカメラ撮影領域1052で検出された座標と画像表示領域1051の座標とを対応させることが可能となる。すなわち、カメラで撮影された指の位置が対応するPIN配列における位置を求めることができる。
The coordinates (x1, y1), (x1, y2), (x2, y2), (x2, y1) of the four corners of the
図7(A)は、カメラで撮影された指の座標(s、t)の変換例を示す図である。図7(A)には、上述した画像表示領域1051とカメラ撮影領域1052とが座標上に示されている。
撮影された指の座標を(s、t)とし、画像表示領域1051のx軸方向の長さをPとし、y軸方向の長さをQとする。また、カメラ撮影領域1052の4隅の座標をそれぞれ(x1、y1)、(x1、y2)、(x2、y2)、(x2、y1)とする。上述したように、x1、x2、y1,y2は記憶装置に記憶されている。
このとき、座標(s、t)に対応する画像表示領域1051での座標は、以下の式1で求められる。
x=P×(s−x1)/(x2−x1)
y=Q×(t−y1)/(y2−y1)…(式1)
FIG. 7A is a diagram illustrating a conversion example of the coordinates (s, t) of the finger photographed by the camera. In FIG. 7A, the
The coordinates of the photographed finger are (s, t), the length of the
At this time, the coordinates in the
x = P × (s−x1) / (x2−x1)
y = Q × (t−y1) / (y2−y1) (Formula 1)
上述したように、PIN配列は、画像表示領域全体に表示されるので、PIN配列における座標と、画像表示領域1051における座標は1対1で対応する。そして、PIN配列と照合するために、PIN配列を画像として表示した場合の座標情報を予め保持しておく。
図7(B)は、PIN配列の座標情報の一例を示す図である。なお、図7(B)のPIN配列1053では、分かりやすくするために数字、E、Cを示していない。図7(B)に示されるPIN配列の場合の座標情報は、α1、α2、α3(=P)、β1、β2、β3、β4(=Q)となる。
As described above, since the PIN array is displayed in the entire image display area, the coordinates in the PIN array and the coordinates in the
FIG. 7B is a diagram illustrating an example of the coordinate information of the PIN array. Note that the numbers, E, and C are not shown in the
この座標情報と、a0〜a9の数列により、PIN配列は表現される。具体的には、座標情報により格子を作り、数列により格子の枠に表示する数字が決定される。例えば、図1のPIN配列1000を示す数列は、1,2,3,4,5,6,7,8,9,0であり、PIN配列1001を示す数列は、5,8,3,7,9,6,2,1,0,4である。以下の説明では、座標情報と数列とをまとめてPIN配列情報と表現する。
このようにして、式1で求まった(x、y)とPIN配列情報とを照合することで、ユーザが入力した文字を正確に取得することができる。
以下の説明では、(s、t)を元座標と表現し、元座標(s、t)から変換された(x、y)を変換座標と表現する。
以上説明した座標の変換において、PIN配列は画像表示領域1051全体に表示されるものとしたが、画像表示領域1051の一部に表示される場合であっても、式1のパラメータを変更することで対応可能である。
The PIN array is expressed by this coordinate information and a number sequence of a0 to a9. Specifically, a grid is created based on the coordinate information, and a number to be displayed on the grid frame is determined by a numerical sequence. For example, the number sequence indicating the
In this way, the character input by the user can be accurately acquired by collating (x, y) obtained in
In the following description, (s, t) is expressed as original coordinates, and (x, y) converted from the original coordinates (s, t) is expressed as converted coordinates.
In the coordinate conversion described above, the PIN array is displayed in the entire
図1から図7まで説明した内容をもとに、以下、各実施形態を説明する。また、各実施形態では、情報処理装置が認証システムの構成の1つとなっているが、この情報処理装置は、PINが入力され、認証された場合にサービスをユーザに提供する銀行のATMを想定している。具体的には、キャッシュカードを挿入した際に、ユーザが暗証番号を入力する場合が想定されている。 Each embodiment will be described below based on the contents described in FIGS. In each embodiment, the information processing apparatus is one of the configurations of the authentication system. This information processing apparatus is assumed to be an ATM of a bank that provides a service to a user when a PIN is input and authenticated. doing. Specifically, it is assumed that the user inputs a personal identification number when a cash card is inserted.
[第1の実施形態]
図8は、本発明の第1の実施形態に係る認証システム1のブロック図である。
認証システム1は、スマートグラス10、情報処理装置20、及び認証装置30を含んで構成される。
スマートグラス10は、PIN配列情報を情報処理装置20から受信し、受信したPIN配列を表示して、そのPIN配列に対してユーザが行った操作A,B,Cに対応する元座標(s、t)を情報処理装置20に送信する。従って、本実施形態におけるスマートグラス10は、PIN配列を表示し、元座標を取得するが、座標変換を行わない構成となっている。
[First embodiment]
FIG. 8 is a block diagram of the
The
The
情報処理装置20は、スマートグラス10から元座標を受信し、それを変換して変換座標を取得し、その変換座標とPIN配列情報とを照合してPINを取得する。情報処理装置20は、キャッシュカードからユーザを識別するIDを取得できるので、そのIDと取得したPINとを認証装置30に送信する。情報処理装置20は、認証装置30から認証されたことを示すOKを受信すると、サービスをユーザに提供し、認証されなかったことを示すNGを受信すると、サービスをユーザに提供しない。
認証装置30は、IDとPINが正規のIDとPINであればOKを送信し、そうでなければNGを送信する。
The
The
次に各装置の構成について説明する。スマートグラス10は、制御部11、入力部17、ディスプレイ15、及び通信部18を含んで構成される。
制御部11は、CPU(Central Processing Unit)やROM(Read Only Memory)、RAM(Random Access Memory)などの記憶装置を含み、スマートグラス10全体を制御する。入力部17は、マイク12、カメラ13、及びタッチパネル14を含む。入力部17は、入力された内容を制御部11に出力したり、制御部11の指示により各種処理を行う。ディスプレイ15は、制御部11の指示により、上述したPIN配列の他に、画像やアプリケーションの画面などを表示する。通信部18は、情報処理装置20と無線通信を行う。以下の各実施形態において、スマートグラス、情報処理装置、及び認証装置での無線通信はセキュリティが保たれているものとする。
Next, the configuration of each device will be described. The
The
情報処理装置20は、制御部21、入力部25、照合部28、座標変換部24、PIN配列生成部27、及び通信部26を含んで構成される。制御部21は、CPUやROM、RAMなどの記憶装置を含み、情報処理装置20全体を制御する。入力部25は、キーパッド22、及びタッチパネル23を含む。入力部25は、入力された内容を制御部21に出力したり、制御部21の指示により各種処理を行う。
The
座標変換部24は、図7で説明した方法により、スマートグラス10から受信した元座標を変換した変換座標を取得する。照合部28は、変換座標とPIN配列とを照合し、入力されたPINを取得する。PIN配列生成部27は、PIN配列1000のように、番号を整列させたPIN配列や、PIN配列1001のようにランダムなPIN配列を示すPIN配列情報を生成し、それを保持する。通信部26は、スマートグラス10及び認証装置30と無線通信を行う。
The coordinate
認証装置30は、制御部31、認証部32、DB33、及び通信部34を含んで構成される。制御部31は、CPUやROM、RAMなどの記憶装置を含み、認証装置30全体を制御する。認証部32は、情報処理装置20から受信したIDとPINから、DB33を参照して認証処理を実行し、認証された場合にはOKを出力し、認証されなかった場合にNGを出力する。出力されたOK/NGは、情報処理装置20に送信される。通信部34は、情報処理装置20と無線通信を行う。
The
図9は、第1の実施形態におけるスマートグラス10、情報処理装置20、及び認証装置30での処理を示すシーケンス図である。
図9において、スマートグラス10は、PIN配列要求を情報処理装置20に送信する(ステップS101)。このPIN配列要求は、例えばキャッシュカードを情報処理装置20に挿入し、スマートグラス10のタッチパネル14でユーザが操作することで、情報処理装置20に送信されるようになっており、実装方法によってはログイン要求と称される場合もある。情報処理装置20は、PIN配列生成部27で生成されたPIN配列情報をスマートグラス10に送信する(ステップS102)。このとき、PIN配列情報が保持される。
FIG. 9 is a sequence diagram illustrating processing in the
In FIG. 9, the
スマートグラス10は、PIN配列情報を受信し、PIN配列をディスプレイ15に表示する(ステップS103)。そして、ユーザの操作から元座標(s、t)を取得する(ステップS104)。スマートグラス10が取得する元座標の数は、PINの桁数であり、これは以下の実施形態でも同じである。例えば、日本の銀行の場合は4桁であるので、そのときは元座標を4つ取得することとなる。
スマートグラス10は、取得された元座標(s、t)と、記憶装置に記憶されているx1,x2,y1,y2(図6,7参照)とを情報処理装置20に送信する(ステップS105)。情報処理装置20は、受信した元座標を座標変換部24により変換し(ステップS106)、照合部28が変換座標からPINを取得する(ステップS107)。
The
The
情報処理装置20は、PINとIDとを認証装置30に送信する(ステップS108)。認証装置30は、受信したPINとIDから、認証部32による認証処理を行い(ステップS109)、認証部32が出力したOKまたはNGを情報処理装置20に送信する(ステップS110)。情報処理装置20は、OKまたはNGをスマートグラス10に送信する(ステップS111)。情報処理装置20は、認証装置30からOKを受信すると、サービスをユーザに提供し、NGを受信すると、サービスをユーザに提供しない。
The
図10は、第1の実施形態に係るスマートグラス10における処理手順を示したフローチャートである。図10において、スマートグラス10は、PIN配列要求を情報処理装置20に送信する(ステップS201)。次いで、情報処理装置20からPIN配列情報を受信する(ステップS202)。そして、受信したPIN配列情報が示すPIN配列をディスプレイ15に表示する(ステップS203)。
FIG. 10 is a flowchart showing a processing procedure in the
そして、ユーザの操作から元座標(s、t)を取得する元座標取得処理を行う(ステップS204)。この元座標取得処理により取得された元座標(s、t)と、記憶装置に記憶されているx1,x2,y1,y2(図6,7参照)とを情報処理装置20に送信する(ステップS205)。そして、情報処理装置20からOKを受信した場合には(ステップS206でYES)、本処理を終了し、NGを受信した場合には(ステップS206でNO)、ステップS201に戻る。 And the original coordinate acquisition process which acquires original coordinate (s, t) from a user's operation is performed (step S204). The original coordinates (s, t) acquired by the original coordinate acquisition process and x1, x2, y1, y2 (see FIGS. 6 and 7) stored in the storage device are transmitted to the information processing device 20 (steps). S205). If OK is received from the information processing apparatus 20 (YES in step S206), the process ends. If NG is received (NO in step S206), the process returns to step S201.
図11は、図10における元座標取得処理における処理手順を示したフローチャートである。この元座標取得処理で取得された元座標(s、t)がユーザの操作内容に対応しているので、以下で説明する元座標取得処理は、ソフトウェアキーに対するユーザの操作内容を取得する処理である。
図11において、制御部11は、カメラ13で撮影された指の軌跡をトレースする(ステップS301)。その間、操作A,B,Cのいずれかを検出したか否か判定する(ステップS302)。
FIG. 11 is a flowchart showing a processing procedure in the original coordinate acquisition processing in FIG. Since the original coordinates (s, t) acquired in this original coordinate acquisition process correspond to the user's operation content, the original coordinate acquisition process described below is a process for acquiring the user's operation content for the software key. is there.
In FIG. 11, the
操作A,B,Cのいずれも検出していない場合には(ステップS302でNO)、ステップS301に戻る。一方、操作A,B,Cのいずれかを検出した場合には(ステップS302でYES)、検出した時の指の位置を示す座標(s、t)を制御部11に設けられたRAMに記憶する(ステップS303)。
次いで、PINの桁数分だけ元座標を取得したか否か判定し(ステップS304)、PINの桁数分だけ元座標を取得した場合には(ステップS304でYES)、本処理を終了し、PINの桁数分だけ元座標を取得していない場合には(ステップS304でNO)、ステップS301に戻る。
If none of operations A, B, and C has been detected (NO in step S302), the process returns to step S301. On the other hand, when any of the operations A, B, and C is detected (YES in step S302), the coordinates (s, t) indicating the position of the finger at the time of detection are stored in the RAM provided in the
Next, it is determined whether or not the original coordinates have been acquired for the number of digits of the PIN (step S304). If the original coordinates have been acquired for the number of digits of the PIN (YES in step S304), this processing is terminated. If the original coordinates are not acquired for the number of digits of PIN (NO in step S304), the process returns to step S301.
図12は、第1の実施形態に係る情報処理装置20における処理手順を示したフローチャートである。
図12において、情報処理装置20は、スマートグラス10からPIN配列要求を受信する(ステップS401)。情報処理装置20は、PIN配列生成部27でPIN配列情報を生成する(ステップS402)。このとき、上述したPIN配列情報が保持される。そして、生成されたPIN配列情報をスマートグラス10に送信する(ステップS403)。
FIG. 12 is a flowchart illustrating a processing procedure in the
In FIG. 12, the
情報処理装置20は、スマートグラス10から元座標(s、t)と、x1,x2,y1,y2(図6,7参照)とを受信する(ステップS404)。そして、受信した元座標を座標変換部24により変換する変換処理を行う(ステップS405)。
次いで、情報処理装置20は、照合部28が変換座標とPIN配列情報とを照合することでPINを取得する(ステップS406)。こうして、本実施の形態では、元座標である操作内容から、ユーザの操作により入力された文字列を取得する。
The
Next, the
情報処理装置20は、PINとIDとを認証装置30に送信する(ステップS407)。情報処理装置20は、OKまたはNGを認証装置30から受信し、受信したOKまたはNGをスマートグラス10に送信する(ステップS408)。
そして、情報処理装置20は、OKを受信したか否か判定する(ステップS409)。OKを受信した場合には(ステップS409でYES)、サービスの提供を開始し(ステップS410)、本処理を終了する。一方、NGを受信した場合には(ステップS409でNO)、そのまま本処理を終了する。
The
Then, the
図13は、図12における変換処理における処理手順を示したフローチャートである。図13において、座標変換部24は、x1,x2,y1,y2を取得し(ステップS501)、さらに元座標(s、t)を取得する(ステップS502)。これらを用いて、座標変換部24は、式1により、変換座標(x、y)を求める(ステップS503)。
次いで、座標変換部24は、PINの桁数分だけ変換座標を取得したか否か判定し(ステップS504)、PINの桁数分だけ変換座標を取得した場合には(ステップS504でYES)、本処理を終了し、PINの桁数分だけ変換座標を取得していない場合には(ステップS504でNO)、ステップS502に戻る。
FIG. 13 is a flowchart showing a processing procedure in the conversion processing in FIG. In FIG. 13, the coordinate
Next, the coordinate
以上説明したように、第1の実施形態によれば、スマートグラス10を装着したユーザのみPIN配列が目視可能であるため、PIN配列が他人に盗み見されることはないので、秘密情報を安全に入力可能となっている。
また、第1の実施形態におけるスマートグラス10は、PIN配列を表示し、元座標を取得するが、変換することなく情報処理装置20に送信するので、スマートグラスの負荷を軽減することができる。なお、情報処理装置20と認証装置30は1つの装置で実現されていてもよい。
As described above, according to the first embodiment, since only the user wearing the
Moreover, although the
[第2の実施形態]
図14は、本発明の第2の実施形態に係る認証システム100のブロック図である。
認証システム100は、スマートグラス110、情報処理装置120、及び認証装置30を含んで構成される。スマートグラス110は、本実施形態において、PIN配列情報を情報処理装置120から受信し、受信したPIN配列情報が示すPIN配列を表示して、そのPIN配列に対してユーザが行った操作A,B,Cに対応する元座標(s、t)を変換して、変換座標を情報処理装置120に送信する。従って、本実施形態におけるスマートグラス110は、PIN配列を表示し、元座標を取得するだけではなく、座標変換を行う構成となっている。
[Second Embodiment]
FIG. 14 is a block diagram of an
The
情報処理装置120は、スマートグラス110から変換座標を受信し、その変換座標とPIN配列情報とを照合してPINを取得する。情報処理装置120は、キャッシュカードからユーザを識別するIDを取得できるので、そのIDと取得したPINとを認証装置30に送信する。情報処理装置120は、認証装置30からOKを受信すると、サービスをユーザに提供し、NGを受信すると、サービスをユーザに提供しない。認証装置30は、第1の実施形態と同じであるので、説明を省略する。
The
次に各装置の構成について説明する。スマートグラス110は、制御部111、入力部117、ディスプレイ115、座標変換部124、及び通信部118を含んで構成される。
制御部111は、CPUやROM、RAMなどの記憶装置を含み、スマートグラス110全体を制御する。入力部117は、マイク112、カメラ113、及びタッチパネル114を含む。入力部117は、入力された内容を制御部111に出力したり、制御部111の指示により各種処理を行う。ディスプレイ115は、制御部111の指示により上述したPIN配列の他に、画像やアプリケーションの画面などを表示する。通信部118は、情報処理装置120と無線通信を行う。座標変換部124は、図7で説明した方法により、制御部111から出力された元座標を変換して変換座標を取得する。
Next, the configuration of each device will be described. The
The
情報処理装置120は、制御部121、入力部125、照合部128、PIN配列生成部127、及び通信部126を含んで構成される。制御部121は、CPUやROM、RAMなどの記憶装置を含み、情報処理装置120全体を制御する。入力部125は、キーパッド122、及びタッチパネル123を含む。入力部125は、入力された内容を制御部121に出力したり、制御部121の指示により各種処理を行う。
照合部128は、変換座標とPIN配列情報とを照合し、入力されたPINを取得する。PIN配列生成部127は、PIN配列1000のように、番号を整列させたPIN配列や、PIN配列1001のようにランダムなPIN配列を示すPIN配列情報を生成し、それを保持する。通信部126は、スマートグラス110及び認証装置30と無線通信を行う。
The
The
図15は、第2の実施形態におけるスマートグラス110、情報処理装置120、及び認証装置30での処理を示すシーケンス図である。
図15において、スマートグラス110は、PIN配列要求を情報処理装置120に送信する(ステップS601)。情報処理装置120は、PIN配列生成部127で生成されたPIN配列情報をスマートグラス110に送信する(ステップS602)。このとき、上述したPIN配列情報が保持される。
スマートグラス110は、受信したPIN配列情報が示すPIN配列をディスプレイ115に表示する(ステップS603)。そして、ユーザの操作から元座標(s、t)を取得する(ステップS604)。
スマートグラス110は、元座標を座標変換部124により変換し(ステップS605)、変換座標(x、y)を情報処理装置120に送信する(ステップS606)。情報処理装置120は、受信した変換座標から照合部128によりPINを取得する(ステップS607)。
FIG. 15 is a sequence diagram illustrating processing in the
In FIG. 15, the
The
The
情報処理装置120は、PINとIDとを認証装置30に送信する(ステップS608)。認証装置30は、受信したPINとIDから、認証部32による認証処理を行い(ステップS609)、認証部32が出力したOKまたはNGを情報処理装置120に送信する(ステップS610)。情報処理装置120は、OKまたはNGをスマートグラス110に送信する(ステップS611)。情報処理装置120は、認証装置30からOKを受信すると、サービスをユーザに提供し、NGを受信すると、サービスをユーザに提供しない。
The
図16は、第2の実施形態に係るスマートグラス110における処理手順を示したフローチャートである。図16において、スマートグラス110は、PIN配列要求を情報処理装置120に送信する(ステップS701)。次いで、情報処理装置120からPIN配列情報を受信する(ステップS702)。そして、受信したPIN配列情報が示すPIN配列をディスプレイ115に表示する(ステップS703)。
FIG. 16 is a flowchart showing a processing procedure in the
次いで、上述した元座標取得処理(図11参照)を行い(ステップS704)、さらに変換処理(図13参照)を行う(ステップS705)。この元座標取得処理と変換処理により取得された変換座標(x、y)を情報処理装置120に送信する(ステップS706)。そして、情報処理装置120からOKを受信した場合には(ステップS707でYES)、本処理を終了し、NGを受信した場合には(ステップS707でNO)、ステップS701に戻る。 Next, the above-described original coordinate acquisition process (see FIG. 11) is performed (step S704), and further the conversion process (see FIG. 13) is performed (step S705). The converted coordinates (x, y) acquired by the original coordinate acquisition process and the conversion process are transmitted to the information processing apparatus 120 (step S706). If OK is received from the information processing apparatus 120 (YES in step S707), the process ends. If NG is received (NO in step S707), the process returns to step S701.
図17は、第2の実施形態に係る情報処理装置120における処理手順を示したフローチャートである。
図17において、情報処理装置120は、スマートグラス110からPIN配列要求を受信する(ステップS801)。情報処理装置120は、PIN配列生成部127でPIN配列情報を生成する(ステップS802)。このとき、PIN配列情報が保持される。そして、生成されたPIN配列をスマートグラス110に送信する(ステップS803)。
FIG. 17 is a flowchart illustrating a processing procedure in the
In FIG. 17, the
情報処理装置120は、スマートグラス110から変換座標(x、y)を受信する(ステップS804)。そして、情報処理装置120は、照合部128が変換座標とPIN配列とを照合することでPINを取得する(ステップS805)。情報処理装置120は、PINとIDとを認証装置30に送信する(ステップS806)。情報処理装置120は、OKまたはNGを認証装置30から受信し、受信したOKまたはNGをスマートグラス110に送信する(ステップS807)。
そして、情報処理装置120は、OKを受信したか否か判定する(ステップS808)。OKを受信した場合には(ステップS808でYES)、サービスの提供を開始し(ステップS809)、本処理を終了する。一方、NGを受信した場合には(ステップS808でNO)、そのまま本処理を終了する。
The
Then, the
以上説明したように、第2の実施形態によれば、スマートグラス110を装着したユーザのみPIN配列が目視可能であるため、PIN配列が他人に盗み見されることはないので、秘密情報を安全に入力可能となっている。
また、第2の実施形態におけるスマートグラス110は、PIN配列を表示し、元座標を取得し、変換座標を情報処理装置120に送信するので、第1の実施形態と比較して、スマートグラス110と情報処理装置120との間のトラヒックの軽減でき、さらに情報処理装置120の負荷を軽減することができる。なお、情報処理装置120と認証装置30は1つの装置で実現されていてもよい。
As described above, according to the second embodiment, since only the user wearing the
In addition, the
[第3の実施形態]
図18は、本発明の第3の実施形態に係る認証システム200のブロック図である。
認証システム200は、スマートグラス210、情報処理装置220、及び認証装置30を含んで構成される。スマートグラス210は、本実施形態において、PIN配列情報を情報処理装置220から受信し、受信したPIN配列を表示して、そのPIN配列に対してユーザが行った操作A,B,Cに対応する元座標(s、t)を変換する。さらに、スマートグラス210は、変換座標とPIN配列情報とを照合してPINを取得し、PINを情報処理装置220に送信する。従って、本実施形態におけるスマートグラス210は、PIN配列情報が示すPIN配列を表示し、元座標を取得し、座標変換し、PIN配列情報との照合を行うことでPINを取得する構成となっている。
[Third embodiment]
FIG. 18 is a block diagram of an
The
情報処理装置220は、スマートグラス210からPINを受信し、キャッシュカードからユーザを識別するIDを取得できるので、そのIDと受信したPINとを認証装置30に送信する。情報処理装置220は、認証装置30からOKを受信すると、サービスをユーザに提供し、NGを受信すると、サービスをユーザに提供しない。認証装置30は、第1の実施形態と同じであるので、説明を省略する。
Since the
次に各装置の構成について説明する。スマートグラス210は、制御部211、入力部217、ディスプレイ215、座標変換部224、照合部228、及び通信部218を含んで構成される。
制御部211は、CPUやROM、RAMなどの記憶装置を含み、スマートグラス210全体を制御する。入力部217は、マイク212、カメラ213、及びタッチパネル214を含む。入力部217は、入力された内容を制御部211に出力したり、制御部211の指示により各種処理を行う。ディスプレイ215は、制御部211の指示により上述したPIN配列の他に、画像やアプリケーションの画面などを表示する。通信部218は、情報処理装置220と無線通信を行う。座標変換部224は、図7で説明した方法により、制御部211から出力された元座標を変換して変換座標を取得する。照合部228は、座標変換部224が出力した変換座標とPIN配列情報とを照合し、入力されたPINを取得する。
Next, the configuration of each device will be described. The
The
情報処理装置220は、制御部221、入力部225、PIN配列生成部227、及び通信部226を含んで構成される。制御部221は、CPUやROM、RAMなどの記憶装置を含み、情報処理装置220全体を制御する。入力部225は、キーパッド222、及びタッチパネル223を含む。入力部225は、入力された内容を制御部221に出力したり、制御部221の指示により各種処理を行う。PIN配列生成部227は、PIN配列1000のように、番号を整列させたPIN配列や、PIN配列1001のようにランダムなPIN配列を示すPIN配列を生成し、上述したPIN配列情報を保持する。ここで保持されたPIN配列情報は、スマートグラス210に送信される。通信部226は、スマートグラス210及び認証装置30と無線通信を行う。
The
図19は、第3の実施形態におけるスマートグラス210、情報処理装置220、及び認証装置30での処理を示すシーケンス図である。
図19において、スマートグラス210は、PIN配列要求を情報処理装置220に送信する(ステップS901)。情報処理装置220は、PIN配列生成部227で生成されたPIN配列情報をスマートグラス210に送信する(ステップS902)。
スマートグラス210は、受信したPIN配列情報が示すPIN配列をディスプレイ215に表示する(ステップS903)。そして、ユーザの操作から元座標(s、t)を取得する(ステップS904)。
スマートグラス210は、元座標を座標変換部224により変換し(ステップS905)、変換座標から照合部228によりPINを取得し(ステップS906)、PINを情報処理装置220に送信する(ステップS907)。
FIG. 19 is a sequence diagram illustrating processing in the
In FIG. 19, the
The
The
情報処理装置220は、PINとIDとを認証装置30に送信する(ステップS908)。認証装置30は、受信したPINとIDから、認証部32による認証処理を行い(ステップS909)、認証部32が出力したOKまたはNGを情報処理装置220に送信する(ステップS910)。情報処理装置220は、OKまたはNGをスマートグラス210に送信する(ステップS911)。情報処理装置220は、認証装置30からOKを受信すると、サービスをユーザに提供し、NGを受信すると、サービスをユーザに提供しない。
The
図20は、第3の実施形態に係るスマートグラス210における処理手順を示したフローチャートである。図20において、スマートグラス210は、PIN配列要求を情報処理装置220に送信する(ステップS1001)。次いで、情報処理装置220からPIN配列情報を受信する(ステップS1002)。そして、受信したPIN配列情報が示すPIN配列をディスプレイ215に表示する(ステップS1003)。
FIG. 20 is a flowchart illustrating a processing procedure in the
次いで、上述した元座標取得処理(図11参照)を行い(ステップS1004)、さらに変換処理(図13参照)を行う(ステップS1005)。次いで、スマートグラス210は、照合部228が変換座標とPIN配列情報とを照合することでPINを取得し(ステップS1006)、PINを情報処理装置220に送信する(ステップS1007)。
そして、情報処理装置220からOKを受信した場合には(ステップS1008でYES)、本処理を終了し、NGを受信した場合には(ステップS1008でNO)、ステップS1001に戻る。
Next, the above-described original coordinate acquisition process (see FIG. 11) is performed (step S1004), and the conversion process (see FIG. 13) is further performed (step S1005). Next, in the
If OK is received from the information processing apparatus 220 (YES in step S1008), the process ends. If NG is received (NO in step S1008), the process returns to step S1001.
図21は、第3の実施形態に係る情報処理装置220における処理手順を示したフローチャートである。
図21において、情報処理装置220は、スマートグラス210からPIN配列要求を受信する(ステップS1101)。情報処理装置220は、PIN配列生成部227でPIN配列情報を生成する(ステップS1102)。そして、生成されたPIN配列情報をスマートグラス210に送信する(ステップS1103)。
FIG. 21 is a flowchart illustrating a processing procedure in the
In FIG. 21, the
情報処理装置220は、スマートグラス210からPINを受信する(ステップS1104)。そして、情報処理装置220は、PINとIDとを認証装置30に送信する(ステップS1105)。情報処理装置220は、OKまたはNGを認証装置30から受信し、受信したOKまたはNGをスマートグラス210に送信する(ステップS1106)。
そして、情報処理装置220は、OKを受信したか否か判定する(ステップS1107)。OKを受信した場合には(ステップS1107でYES)、サービスの提供を開始し(ステップS1108)、本処理を終了する。一方、NGを受信した場合には(ステップS1107でNO)、そのまま本処理を終了する。
The
Then, the
以上説明したように、第3の実施形態によれば、スマートグラス210を装着したユーザのみPIN配列が目視可能であるため、PIN配列が他人に盗み見されることはないので、秘密情報を安全に入力可能となっている。
また、第3の実施形態におけるスマートグラス210は、PIN配列を表示し、元座標を取得し、座標変換し、PIN配列情報との照合を行うことでPINを取得して、PINを情報処理装置220に送信するので、第1の実施形態と比較して、情報処理装置220の負荷を軽減することができる。なお、情報処理装置220と認証装置30は1つの装置で実現されていてもよい。
As described above, according to the third embodiment, since only the user wearing the
In addition, the
[第4の実施形態]
図22は、本発明の第4の実施形態に係る認証システム300のブロック図である。
第4の実施形態が第1〜3の実施形態と異なる大きな点は、スマートグラス310が認証装置330にPINとIDを直接送信する点である。スマートグラス310が認証装置にIDを送信するためには、情報処理装置320が取得しているIDを送信してもらうか、ユーザに入力させるか、予めスマートグラス310が記憶しておくことが考えられるが、ここでは情報処理装置320がキャッシュカードの挿入により既にIDを取得しているため、情報処理装置320がスマートグラス310にIDを送信する構成としている。
[Fourth Embodiment]
FIG. 22 is a block diagram of an
The major difference between the fourth embodiment and the first to third embodiments is that the
第4の実施形態において、認証システム300は、スマートグラス310、情報処理装置320、及び認証装置330を含んで構成される。スマートグラス310は、上述したようにIDとPIN配列情報とを情報処理装置320から受信し、受信したPIN配列情報が示すPIN配列を表示して、そのPIN配列に対してユーザが行った操作A,B,Cに対応する元座標(s、t)を変換する。さらに、スマートグラス310は、変換座標とPIN配列情報とを照合してPINを取得し、PINとIDとを認証装置330に送信する。従って、本実施形態におけるスマートグラス310は、IDを取得し、PIN配列を表示し、元座標を取得し、座標変換し、PIN配列との照合を行うことでPINを取得し、PINとIDとを認証装置330に送信する構成となっている。
In the fourth embodiment, the
情報処理装置320は、スマートグラス310へPIN配列情報の送信とともにIDを送信する。そして、情報処理装置320は、認証装置330からOKを受信すると、サービスをユーザに提供し、NGを受信すると、サービスをユーザに提供しない。
The
認証装置330は、IDとPINが正規のIDとPINであればOKを送信し、そうでなければNGを送信する。
The
次に各装置の構成について説明する。スマートグラス310は、制御部311、入力部317、ディスプレイ315、座標変換部324、照合部328、及び通信部318を含んで構成される。
制御部311は、CPUやROM、RAMなどの記憶装置を含み、スマートグラス310全体を制御する。入力部317は、マイク312、カメラ313、及びタッチパネル314を含む。入力部317は、入力された内容を制御部311に出力したり、制御部311の指示により各種処理を行う。ディスプレイ315は、制御部311の指示により上述したPIN配列の他に、画像やアプリケーションの画面などを表示する。通信部318は、情報処理装置320及び認証装置333と無線通信を行う。座標変換部324は、図7で説明した方法により、制御部311から出力された元座標を変換して変換座標を取得する。照合部328は、座標変換部324が出力した変換座標とPIN配列情報とを照合し、入力されたPINを取得する。
Next, the configuration of each device will be described. The
The
情報処理装置320は、制御部321、入力部325、PIN配列生成部327、及び通信部326を含んで構成される。制御部321は、CPUやROM、RAMなどの記憶装置を含み、情報処理装置320全体を制御する。入力部325は、キーパッド322、及びタッチパネル323を含む。入力部325は、入力された内容を制御部321に出力したり、制御部321の指示により各種処理を行う。PIN配列生成部327は、PIN配列1000のように、番号を整列させたPIN配列や、PIN配列1001のようにランダムなPIN配列を示すPIN配列情報を生成し、それを保持する。ここで保持されたPIN配列情報は、スマートグラス210に送信される。通信部326は、スマートグラス310及び認証装置330と無線通信を行う。
The
認証装置330は、制御部331、認証部332、DB333、及び通信部334を含んで構成される。制御部331は、CPUやROM、RAMなどの記憶装置を含み、認証装置330全体を制御する。認証部332は、スマートグラス310から受信したIDとPINから、DB333を参照して認証処理を行い、認証された場合にはOKを出力し、認証されなかった場合にNGを出力する。出力されたOK/NGは、スマートグラス310及び情報処理装置320に送信される。通信部334は、スマートグラス310及び情報処理装置320と無線通信を行う。
The
図23は、第4の実施形態におけるスマートグラス310、情報処理装置320、及び認証装置330での処理を示すシーケンス図である。
図23において、スマートグラス310は、PIN配列要求を情報処理装置320に送信する(ステップS1201)。情報処理装置320は、PIN配列生成部327で生成されたPIN配列情報とキャッシュカードにより取得したIDとをスマートグラス310に送信する(ステップS1202)。
FIG. 23 is a sequence diagram illustrating processing in the
In FIG. 23, the
スマートグラス310は、受信したPIN配列情報が示すPIN配列をディスプレイ315に表示する(ステップS1203)。そして、ユーザの操作から元座標(s、t)を取得する(ステップS1204)。
スマートグラス310は、元座標を座標変換部324により変換し(ステップS1205)、変換座標から照合部328によりPINを取得し(ステップS1206)、PINとIDとを認証装置330に送信する(ステップS1207)。
The
The
認証装置330は、受信したPINとIDから、認証部332による認証処理を行い(ステップS1208)、認証部332が出力したOKまたはNGを情報処理装置320及びスマートグラス310に送信する(ステップS1209)。情報処理装置320は、認証装置330からOKを受信すると、サービスをユーザに提供し、NGを受信すると、サービスをユーザに提供しない。
なお、上記処理において、認証装置330はスマートグラス310と情報処理装置320にOK/NGを送信しているが、これに限らず、情報処理装置320のみにOK/NGを送信し、スマートグラス310は他の実施形態と同じく、情報処理装置320からOK/NGを受信するようにしてもよい。
The
In the above process, the
図24は、第4の実施形態に係るスマートグラス310における処理手順を示したフローチャートである。図24において、スマートグラス310は、PIN配列要求を情報処理装置320に送信する(ステップS1301)。次いで、情報処理装置220からPIN配列情報とIDとを受信する(ステップS1302)。そして、受信したPIN配列情報が示すPIN配列をディスプレイ215に表示する(ステップS1303)。
FIG. 24 is a flowchart showing a processing procedure in the
次いで、上述した元座標取得処理(図11参照)を行い(ステップS1304)、さらに変換処理(図13参照)を行う(ステップS1305)。さらに、スマートグラス210は、照合部328が変換座標とPIN配列情報とを照合することでPINを取得し(ステップS1306)、PINとIDとを認証装置330に送信する(ステップS1307)。
そして、認証装置330からOKを受信した場合には(ステップS1308でYES)、本処理を終了し、NGを受信した場合には(ステップS1308でNO)、ステップS1301に戻る。
Next, the above-described original coordinate acquisition process (see FIG. 11) is performed (step S1304), and the conversion process (see FIG. 13) is further performed (step S1305). Further, in the
If OK is received from the authentication device 330 (YES in step S1308), the process ends. If NG is received (NO in step S1308), the process returns to step S1301.
図25は、第4の実施形態に係る情報処理装置320における処理手順を示したフローチャートである。
図25において、情報処理装置320は、スマートグラス310からPIN配列要求を受信する(ステップS1401)。情報処理装置320は、PIN配列生成部327でPIN配列情報を生成する(ステップS1402)。そして、生成されたPIN配列情報とキャッシュカードから取得したIDとをスマートグラス310に送信する(ステップS1403)。
FIG. 25 is a flowchart illustrating a processing procedure in the
In FIG. 25, the
情報処理装置320は、OKまたはNGを認証装置330から受信する(ステップS1404)。情報処理装置320は、OKを受信したか否か判定する(ステップS1405)。OKを受信した場合には(ステップS1405でYES)、サービスの提供を開始し(ステップS1406)、本処理を終了する。一方、NGを受信した場合には(ステップS1405でNO)、そのまま本処理を終了する。
The
以上説明したように、第4の実施形態によれば、スマートグラス310を装着したユーザのみPIN配列が目視可能であるため、PIN配列が他人に盗み見されることはないので、秘密情報を安全に入力可能となっている。
また、第4の実施形態におけるスマートグラス310は、IDを取得し、PIN配列を表示し、元座標を取得し、座標変換し、PIN配列情報との照合を行うことでPINを取得して、さらにPINとIDとを認証装置330に送信するので、第1の実施形態と比較して、情報処理装置220の負荷を軽減することができる。なお、情報処理装置320と認証装置330は1つの装置で実現されていてもよい。
As described above, according to the fourth embodiment, since only the user wearing the
Further, the
[第5の実施形態]
第5の実施形態が第1〜4の実施形態と異なる大きな点は、ユーザがPINを情報処理装置に入力するという点である。
図26は、第5の実施形態でのユーザの入力例を示す図である。図26には、スマートグラスのレンズ枠1002、PIN配列1004、ATM画面1100、ブランクキーボード1101、及びユーザの指1003が示されている。
図26に示されるように、ユーザはレンズ枠1002内のPIN配列1004を確認できる。一方、情報処理装置のATM画面1100に設けられたソフトキーはブランクキーボード1101となっている。
PIN配列1004及びブランクキーボード1101は、ともに4×3のマスからなっているので、PIN配列1004及びブランクキーボード1101のマスは1対1で対応している。
[Fifth Embodiment]
The major difference between the fifth embodiment and the first to fourth embodiments is that the user inputs a PIN to the information processing apparatus.
FIG. 26 is a diagram illustrating an example of user input in the fifth embodiment. FIG. 26 shows a
As shown in FIG. 26, the user can confirm the
Since both the
そこで、ユーザは、PIN配列1004のマスに対応するブランクキーボード1101のソフトキーをタッチすることで、PINを入力することができる。
図27は、本発明の第5の実施形態に係る認証システム400のブロック図である。
第5の実施形態において、認証システム400は、スマートグラス410、情報処理装置420、及び認証装置430を含んで構成される。スマートグラス410は、PIN配列情報を情報処理装置420から受信し、受信したPIN配列情報が示すPIN配列を表示する。従って、本実施形態におけるスマートグラス410は、PIN配列を表示する構成となっている。
Therefore, the user can input the PIN by touching the soft key of the
FIG. 27 is a block diagram of an
In the fifth embodiment, the
情報処理装置420は、スマートグラス410へPIN配列情報を送信する。そして、情報処理装置420は、ブランクキーボード1101をタッチパネル423に表示する。照合部428は、タッチパネル423に表示されたブランクキーボード1101にユーザがタッチしたソフトキーの座標とPIN配列情報とを照合することにより、PINを取得する。
情報処理装置420は、キャッシュカードからユーザを識別するIDを取得できるので、そのIDと取得したPINとを認証装置30に送信する。情報処理装置420は、認証装置30からOKを受信すると、サービスをユーザに提供し、NGを受信すると、サービスをユーザに提供しない。認証装置30は、第1の実施形態と同じであるので、説明を省略する。
The
Since the
次に各装置の構成について説明する。スマートグラス410は、制御部411、入力部417、ディスプレイ415、及び通信部418を含んで構成される。
制御部411は、CPUやROM、RAMなどの記憶装置を含み、スマートグラス410全体を制御する。入力部417は、マイク412、カメラ413、及びタッチパネル414を含む。入力部417は、入力された内容を制御部411に出力したり、制御部411の指示により各種処理を行う。ディスプレイ415は、制御部411の指示により上述したPIN配列の他に、画像やアプリケーションの画面などを表示する。通信部418は、情報処理装置420と無線通信を行う。
Next, the configuration of each device will be described. The
The
情報処理装置420は、制御部421、入力部425、PIN配列生成部427、及び通信部426を含んで構成される。制御部421は、CPUやROM、RAMなどの記憶装置を含み、情報処理装置420全体を制御する。入力部425は、キーパッド422、及びタッチパネル423を含む。入力部425は、入力された内容を制御部421に出力したり、制御部421の指示により各種処理を行う。
The
特に本実施形態において、タッチパネル423はユーザがタッチした座標を照合部428に出力する。PIN配列生成部427は、PIN配列1000のように、番号を整列させたPIN配列や、PIN配列1001のようにランダムなPIN配列を示すPIN配列情報を生成する。照合部428は、タッチパネル423が出力した座標とPIN配列情報とを照合し、入力されたPINを取得する。通信部426は、スマートグラス410及び認証装置30と無線通信を行う。
In particular, in the present embodiment, the
図28は、第5の実施形態におけるスマートグラス410、情報処理装置420、及び認証装置30での処理を示すシーケンス図である。
図28において、スマートグラス410は、PIN配列要求を情報処理装置420に送信する(ステップS1501)。情報処理装置420は、PIN配列生成部427で生成されたPIN配列情報をスマートグラス410に送信する(ステップS1502)。このとき、上述したPIN配列情報が保持される。
スマートグラス410は、受信したPIN配列情報が示すPIN配列をディスプレイ415に表示する(ステップS1503)。
FIG. 28 is a sequence diagram illustrating processing in the
In FIG. 28, the
The
一方、情報処理装置420において、ブランクキーボード1101にユーザがタッチしたソフトキーの座標をタッチパネル423が取得する(ステップS1504)。次いで、照合部428は、タッチパネル423が出力した座標とPIN配列情報とを照合し、入力されたPINを取得する(ステップS1505)。
情報処理装置420は、PINとIDとを認証装置430に送信する(ステップS1506)。認証装置30は、受信したPINとIDから、認証部32による認証処理を行い(ステップS1507)、認証部32が出力したOKまたはNGを情報処理装置420に送信する(ステップS1508)。情報処理装置420は、OKまたはNGをスマートグラス410に送信する(ステップS1509)。情報処理装置420は、認証装置30からOKを受信すると、サービスをユーザに提供し、NGを受信すると、サービスをユーザに提供しない。
On the other hand, in the
The
図29は、第5の実施形態に係るスマートグラス410における処理手順を示したフローチャートである。図29において、スマートグラス410は、PIN配列要求を情報処理装置420に送信する(ステップS1601)。次いで、情報処理装置420からPIN配列情報を受信する(ステップS1602)。そして、受信したPIN配列情報が示すPIN配列をディスプレイ415に表示する(ステップS1603)。
そして、情報処理装置420からOKを受信した場合には(ステップS1604でYES)、本処理を終了し、NGを受信した場合には(ステップS1604でNO)、ステップS1601に戻る。
FIG. 29 is a flowchart showing a processing procedure in the
If OK is received from the information processing apparatus 420 (YES in step S1604), the process ends. If NG is received (NO in step S1604), the process returns to step S1601.
図30は、第5の実施形態に係る情報処理装置420における処理手順を示したフローチャートである。
図30において、情報処理装置420は、スマートグラス410からPIN配列要求を受信する(ステップS1701)。情報処理装置420は、PIN配列生成部427でPIN配列情報を生成する(ステップS1702)。このとき、上述したPIN配列情報が保持される。そして、生成されたPIN配列情報をスマートグラス410に送信する(ステップS1703)。
次いで、ブランクキーボード1101にユーザがタッチしたソフトキーの座標をタッチパネル423が取得する(ステップS1704)。次いで、照合部428は、タッチパネル423が出力した座標とPIN配列情報とを照合し、入力されたPINを取得する(ステップS1705)。
FIG. 30 is a flowchart showing a processing procedure in the
In FIG. 30, the
Next, the
情報処理装置420は、PINとIDとを認証装置30に送信する(ステップS1706)。情報処理装置420は、OKまたはNGを認証装置30から受信し、受信したOKまたはNGをスマートグラス410に送信する(ステップS1707)。
そして、情報処理装置420は、OKを受信したか否か判定する(ステップS1708)。OKを受信した場合には(ステップS1708でYES)、サービスの提供を開始し(ステップS1709)、本処理を終了する。一方、NGを受信した場合には(ステップS1708でNO)、そのまま本処理を終了する。
The
Then, the
以上説明したように、第5の実施形態によれば、スマートグラス310を装着したユーザのみPIN配列が目視可能であるため、PIN配列が他人に盗み見されることはないので、秘密情報を安全に入力可能となっている。なお、情報処理装置420と認証装置30は1つの装置で実現されていてもよい。
また、第5の実施形態におけるスマートグラス310は、PIN配列を表示するのみであるため、スマートグラス310の負荷を軽減することができる。さらに、認証システム400全体として、元座標の取得や座標の変換が不要となるため、各装置の負荷を軽減することができる。また、ブランクキーボードを表示する処理やタッチされた座標を取得して、PIN配列情報と照合する処理は、従来のATMにおける処理を流用することができる。
このように、本実施形態によれば、予め定められたユーザであるスマートグラスを装着したユーザが目視可能な透過型ディスプレイに文字列を入力するためのソフトウェアキーを表示し、表示されたソフトウェアキーに対するユーザの操作内容である元座標を取得し、取得された操作内容から、ユーザの操作により入力された文字列を取得し、取得された文字列を用いて、認証処理を実行するので、秘密情報を安全に入力可能となっている。
なお、以上説明した各実施形態では、ウェアラブルデバイスの例として、スマートグラスを用いたが、スマートグラスに代えて、ヘッドマウントディスプレイを用いるようにしてもよい。
As described above, according to the fifth embodiment, since only the user wearing the
Moreover, since the
As described above, according to the present embodiment, the software key for inputting the character string is displayed on the transmissive display visible to the user wearing the smart glass as the predetermined user, and the displayed software key is displayed. The original coordinates that are the user's operation contents for the user are acquired, the character string input by the user's operation is acquired from the acquired operation contents, and the authentication process is executed using the acquired character string. Information can be entered safely.
In each embodiment described above, smart glasses are used as an example of a wearable device, but a head mounted display may be used instead of smart glasses.
[第6の実施形態]
スマートグラスは、ユーザの頭部に装着されるため、ユーザの頭部が動いた場合、それに伴い透過型ディスプレイも動くことから、誤入力が発生する可能性がある。従って、透過型ディスプレイの動きに応じて生じるズレを補正する必要がある。そこで、第6の実施形態では、図11で説明した元座標を取得する元座標取得処理において、透過型ディスプレイの動きに応じて、ユーザにより指定された位置を表す指定位置と、ソフトウェアキーとの相対位置を補正する補正処理について説明する。元座標取得処理は、第1〜第4実施形態において共通の処理であるため、この補正処理は第1〜第4実施形態に適用される。なお、透過型ディスプレイは、ユーザの頭部に一体的に装着されることから、ユーザの頭部(または顔)の動きに伴って透過型ディスプレイが動くため、以下の説明では、透過型ディスプレイの動きを、頭部または顔の動きと表現することがある。
[Sixth Embodiment]
Since the smart glasses are attached to the user's head, when the user's head moves, the transmissive display also moves with the movement, which may cause an erroneous input. Therefore, it is necessary to correct the deviation that occurs according to the movement of the transmissive display. Therefore, in the sixth embodiment, in the original coordinate acquisition process for acquiring the original coordinates described with reference to FIG. 11, the specified position indicating the position specified by the user according to the movement of the transmissive display, and the software key A correction process for correcting the relative position will be described. Since the original coordinate acquisition process is a process common to the first to fourth embodiments, this correction process is applied to the first to fourth embodiments. Since the transmissive display is integrally attached to the user's head, the transmissive display moves in accordance with the movement of the user's head (or face). Movement may be expressed as head or face movement.
図31は、第1〜第4実施形態におけるスマートグラス10、110、210、310に、頭部の動きを示す物理量を検出する検出部としての加速度センサASを設けた構成を示す図である。図31(A)は、第1実施形態のスマートグラス10に加速度センサASを設けた構成を示す図である。図31(B)は、第2実施形態のスマートグラス110に加速度センサASを設けた構成を示す図である。図31(C)は、第3、4実施形態のスマートグラス210、310に加速度センサASを設けた構成を示す図である。
いずれの実施形態においても、加速度センサASは制御部11、111、211、311に接続する。そして、加速度センサASが検出する物理量は、透過型ディスプレイのパン方向の回転角及びチルト方向の回転角である。加速度センサASは、回転角を定期的(例えば10ミリ秒ごと)に検出し、検出するたびに回転角を制御部11、111、211、311に通知する。
FIG. 31 is a diagram illustrating a configuration in which an acceleration sensor AS as a detection unit that detects a physical quantity indicating the movement of the head is provided in the
In any embodiment, the acceleration sensor AS is connected to the
制御部11、111、211、311が実行する補正処理では、加速度センサASが検出したパン方向の回転角及びチルト方向の回転角に基づき、ユーザにより指定された位置を表す指定位置と、ソフトウェアキーとの相対位置を補正する。なお、スマートグラス10、110、210、310における補正処理は、いずれの構成であっても同じ処理となることから、以下の実施形態では便宜的にスマートグラス10及びその構成を用いて説明する。
In the correction process executed by the
図31で示した構成で実行される補正処理では、現実世界での距離と画面内での距離を対応付けておく必要がある。図32は、現実世界での距離と、ディスプレイ15の画面内での距離との対応を説明するための図である。
まず、図32(A)に示されるように、ユーザが例えば長さm1の基準物(例えば物差し)2000Rを腕に持ち、それをスマートグラス10のカメラ13で撮影することで、図32(B)に示されるように、ディスプレイ15の画面内での長さがm2の基準物2000Vが表示される。これは、ユーザが長さAの腕を伸ばした状態で操作したときの現実世界での距離とディスプレイ15の画面内での距離の対応を示している。
In the correction processing executed with the configuration shown in FIG. 31, it is necessary to associate the distance in the real world with the distance in the screen. FIG. 32 is a diagram for explaining the correspondence between the distance in the real world and the distance in the screen of the
First, as shown in FIG. 32A, the user holds, for example, a reference object (for example, a ruler) 2000R having a length m1 in his / her arm and shoots it with the
従って、まずスマートグラス10に物差しの長さm1を予め登録しておき、スマートグラス10が長さm2を検出することで、現実世界での距離dと画面内での距離Dは、m1:m2=d:Dで対応付けられる。以下、m2/m1をmとし(D=md)、制御部11は、このmを保持しておく。
次に、頭部の動きをパン方向とチルト方向の2軸の回転角で検出したときの画面内での距離について説明する。まず、スマートグラス10の加速度センサASは、上述したようにパン方向の回転角θとチルト方向の回転角φとを定期的に検出する。
Therefore, first, the length m1 of the ruler is registered in advance in the
Next, the distance in the screen when the movement of the head is detected with the rotation angles of the two axes in the pan direction and the tilt direction will be described. First, the acceleration sensor AS of the
図33は、頭部が動いたことによる現実世界での距離と画面内での距離との対応を示す図である。本実施形態では、右方向及び上方向をプラス方向とし、左方向及び下方向をマイナス方向と定義している。加速度センサASは、検出した方向に従って、回転角に符号をつけて通知するものとする。まず図33(A)を用いてパン方向の距離について説明する。
加速度センサASから、左右いずれかの方向の回転角θが取得された場合、ユーザの腕の長さがAであるので、現実世界での距離xは、余弦定理によりx=2A(1−cosθ)1/2となる。従って、画面内での距離Xは、上記mを用いてX=mx…(式2)となる。
FIG. 33 is a diagram illustrating the correspondence between the distance in the real world and the distance in the screen due to the movement of the head. In the present embodiment, the right direction and the upward direction are defined as positive directions, and the left direction and the downward direction are defined as negative directions. It is assumed that the acceleration sensor AS notifies the rotation angle with a sign according to the detected direction. First, the distance in the pan direction will be described with reference to FIG.
When the rotation angle θ in either the left or right direction is acquired from the acceleration sensor AS, the length of the user's arm is A, and therefore the distance x in the real world is x = 2A (1−cos θ) according to the cosine theorem. ) 1/2 . Accordingly, the distance X in the screen is expressed as X = mx (Expression 2) using m.
次に、図33(B)を用いてチルト方向の距離について説明する。加速度センサASから、上下いずれかの方向の回転角φが取得された場合、ユーザの腕の長さがAであるので、現実世界での距離yは、余弦定理によりy=2A(1−cosφ)1/2となる。従って、画面内での距離Yは、上記mを用いてY=my…(式3)となる。 Next, the distance in the tilt direction will be described with reference to FIG. When the rotation angle φ in either the upper or lower direction is acquired from the acceleration sensor AS, the length of the user's arm is A. Therefore, the distance y in the real world is y = 2A (1−cos φ by the cosine theorem. ) 1/2 . Therefore, the distance Y in the screen is Y = my (Expression 3) using m.
このようにして得られた補正量X、Yを用いて補正が行われる。本実施形態では、上述したように、ユーザにより指定された位置を表す指定位置と、ソフトウェアキーとの相対位置を補正する。具体的に、本実施形態に係る補正処理は2つある。
1つは、算出された指定位置(以下、「ポインタ」ともいう)の補正量X、Yに応じて、ポインタをソフトウェアキーに対して移動させることにより、ポインタと、ソフトウェアキーとの相対位置を補正する補正処理(以下、「ポインタ補正処理」という)である。もう1つは、算出されたソフトウェアキーの補正量X、Yに応じて、ソフトウェアキーをポインタに対して移動させることにより、ポインタと、ソフトウェアキーとの相対位置を補正する補正処理(以下、「ソフトウェアキー補正処理」という)である。これらの補正処理を説明するために、以下の説明では、図7(A)で示した画像表示領域1051の座標を絶対座標と表現する。
Correction is performed using the correction amounts X and Y thus obtained. In the present embodiment, as described above, the relative position between the designated position representing the position designated by the user and the software key is corrected. Specifically, there are two correction processes according to the present embodiment.
One is that the relative position between the pointer and the software key is changed by moving the pointer with respect to the software key according to the correction amounts X and Y of the calculated designated position (hereinafter also referred to as “pointer”). This is correction processing to be corrected (hereinafter referred to as “pointer correction processing”). The other is a correction process for correcting the relative position between the pointer and the software key by moving the software key with respect to the pointer in accordance with the calculated correction amounts X and Y of the software key (hereinafter, “ Software key correction process). In order to describe these correction processes, in the following description, the coordinates of the
図34は、ポインタと、ソフトウェアキーとの相対位置の補正例を示す図である。図34では、パン方向の一例として右方向、チルト方向の一例として上方向に顔が向いた場合の補正例を示している。
まず、ポインタ補正処理について説明する。顔が右方向に向いた場合、ポインタPは、ソフトウェアキーSKの左側に移動することとなる。それを補正するためには、図34(A)のポインタP’に示されるように、右側にポインタPを移動させる。
FIG. 34 is a diagram illustrating a correction example of the relative position between the pointer and the software key. FIG. 34 shows a correction example when the face is directed to the right as an example of the pan direction and upward as an example of the tilt direction.
First, the pointer correction process will be described. When the face turns to the right, the pointer P moves to the left side of the software key SK. In order to correct this, the pointer P is moved to the right as indicated by the pointer P ′ in FIG.
一方、顔が左方向に向いた場合は図示していないが、右方向の場合とは逆に、左側にポインタPを移動させることで補正する。よって、パン方向におけるポインタ補正処理では、顔が向いた方向と同方向にポインタを移動させる補正を行うこととなる。
次に、顔が上方向に向いた場合、ポインタPは、ソフトウェアキーSKの下側に移動することとなる。それを補正するためには、図34(B)のポインタP’に示されるように、上側にポインタPを移動させる。
On the other hand, although not shown when the face is directed to the left, the correction is performed by moving the pointer P to the left, contrary to the case of the right. Therefore, in the pointer correction process in the pan direction, correction is performed in which the pointer is moved in the same direction as the face is facing.
Next, when the face faces upward, the pointer P moves to the lower side of the software key SK. In order to correct this, the pointer P is moved upward as indicated by the pointer P ′ in FIG.
一方、顔が下方向に向いた場合は図示していないが、上方向の場合とは逆に、下側にポインタPを移動させる。よって、チルト方向におけるポインタ補正処理では、顔が向いた方向と同方向にポインタを移動させる補正を行うこととなる。
以上より、ポインタ補正処理では、パン方向及びチルト方向のいずれの場合も、顔が向いた方向と同方向にポインタPを移動させる補正を行うこととなる。よって、ポインタPの絶対座標における座標を(p、q)と置くと、ポインタ補正処理による補正後のポインタP’の絶対座標における座標(p’、q’)は以下のようになる。
(p’、q’)=(p+sgn(θ)X、q+sgn(φ)Y)…(式4)
ここで、sgnは符号関数であり、sgn(x)は、xが負のときは「−1」、xが0のときは「0」、xが正のときは「1」となる。上述したように、ポインタ補正処理では、顔が向いた方向と同方向にポインタを移動させるので、X、Yはプラス方向に作用する。こうして得られた座標(p’、q’)にポインタを表示する。また、この座標(p’、q’)が元座標(s、t)となる。
On the other hand, although not shown when the face is directed downward, the pointer P is moved downward, contrary to the upward direction. Therefore, in the pointer correction process in the tilt direction, correction is performed in which the pointer is moved in the same direction as the face is facing.
As described above, in the pointer correction process, in both the pan direction and the tilt direction, correction is performed in which the pointer P is moved in the same direction as the face is facing. Therefore, if the coordinates in the absolute coordinates of the pointer P are set as (p, q), the coordinates (p ′, q ′) in the absolute coordinates of the pointer P ′ after correction by the pointer correction processing are as follows.
(P ′, q ′) = (p + sgn (θ) X, q + sgn (φ) Y) (Formula 4)
Here, sgn is a sign function, and sgn (x) is “−1” when x is negative, “0” when x is 0, and “1” when x is positive. As described above, in the pointer correction process, the pointer moves in the same direction as the face faces, so X and Y act in the plus direction. A pointer is displayed at the coordinates (p ′, q ′) thus obtained. Further, the coordinates (p ′, q ′) become the original coordinates (s, t).
次にソフトウェアキー補正処理について説明する。顔が右方向に向いた場合、ソフトウェアキーSKは、ポインタPの右側に移動することとなる。それを補正するためには、図34(C)のソフトウェアキーSK’に示されるように、左側にソフトウェアキーSKを移動させる。
一方、顔が左方向に向いた場合は図示していないが、右方向の場合とは逆に、右側にソフトウェアキーSKを移動させる。よって、パン方向におけるソフトウェアキー補正処理では、顔が向いた方向と逆方向にソフトウェアキーを移動させる補正を行うこととなる。
Next, software key correction processing will be described. When the face turns to the right, the software key SK moves to the right side of the pointer P. In order to correct this, the software key SK is moved to the left as shown by the software key SK ′ in FIG.
On the other hand, although not shown when the face is directed leftward, the software key SK is moved to the right, contrary to the rightward direction. Therefore, in the software key correction process in the pan direction, correction is performed by moving the software key in the direction opposite to the direction in which the face is directed.
次に、顔が上方向に向いた場合、ソフトウェアキーSKは、ソフトウェアキーSKの上側に移動することとなる。それを補正するためには、図34(D)のソフトウェアキーSK’に示されるように、下側にソフトウェアキーSKを移動させる。
一方、顔が下方向に向いた場合は図示していないが、上方向の場合とは逆に、上側にソフトウェアキーSKを移動させる。よって、チルト方向におけるソフトウェアキー補正処理では、顔が向いた方向と逆方向にソフトウェアキーを移動させる補正を行うこととなる。
以上より、ソフトウェアキー補正処理では、パン方向及びチルト方向のいずれの場合も、顔が向いた方向と逆方向にソフトウェアキーを移動させる補正を行うこととなるが、ソフトウェアキー補正処理は、ポインタ補正処理と比較して若干複雑であるため、さらに図を用いて説明する。図35は、ソフトウェアキー補正処理を説明するための図である。
Next, when the face is directed upward, the software key SK moves to the upper side of the software key SK. In order to correct it, the software key SK is moved downward as shown by the software key SK ′ in FIG.
On the other hand, although not shown when the face is directed downward, the software key SK is moved upward, contrary to the upward direction. Therefore, in the software key correction process in the tilt direction, correction is performed by moving the software key in the direction opposite to the direction in which the face is directed.
As described above, in the software key correction process, in both the pan direction and the tilt direction, correction is performed by moving the software key in the direction opposite to the face direction. However, the software key correction process performs pointer correction. Since it is slightly more complicated than the processing, it will be further described with reference to the drawings. FIG. 35 is a diagram for explaining the software key correction process.
図35に示される座標は絶対座標であり、ソフトウェアキーSKからソフトウェアキーSK’に補正するものとする。また、ソフトウェアキーSKの4隅をPn(αn、βn)、(n=1、2、3、4)(P1(α1、β1)、P2(α2、β2)、P3(α3、β3)、P4(α4、β4))とする。
このとき、補正後のソフトウェアキーSK’の絶対座標における4隅の座標Pn’(αn’、βn’)、(n=1、2、3、4)は以下のようになる。
(αn’、βn’)=(αn−sgn(θ)X、βn−sgn(φ)Y)…(式5)
The coordinates shown in FIG. 35 are absolute coordinates, and are corrected from the software key SK to the software key SK ′. The four corners of the software key SK are Pn (αn, βn), (n = 1, 2, 3, 4) (P1 (α1, β1), P2 (α2, β2), P3 (α3, β3), P4. (Α4, β4)).
At this time, coordinates Pn ′ (αn ′, βn ′) and (n = 1, 2, 3, 4) of the four corners in the absolute coordinates of the corrected software key SK ′ are as follows.
(Αn ′, βn ′) = (αn−sgn (θ) X, βn−sgn (φ) Y) (Formula 5)
上述したように、ソフトウェアキー補正処理では、顔が向いた方向と逆方向にソフトウェアキーを移動させるので、X、Yはマイナス方向に作用する。こうして得られた4隅の座標Pn’(αn’、βn’)で定まる矩形をX軸方向に3分割し、Y軸方向に4分割することで、ソフトウェアキーSK’を表示することができる。
さらに、ソフトウェアキー補正処理では、図35に示されるように、ポインタPの表示位置はそのまま変化しないが、ソフトウェアキーSK’は絶対座標からずれているため、ポインタPが表示されている絶対座標における座標と、ユーザが指定している座標は異なる。実際、図35に示されるように、絶対座標と一致するソフトウェアキーSKでは、ポインタPは右上の領域Zに存在する。例えば、図1のPIN配列1000では、ユーザは「3」を指定していることとなる。しかし、ユーザはソフトウェアキーSK’を見ているため、ポインタPは、領域Z’に存在する。例えば、図1のPIN配列1000では、ユーザは「5」を指定していることとなる。
As described above, in the software key correction process, since the software key is moved in the direction opposite to the direction in which the face is directed, X and Y act in the minus direction. The rectangle defined by the four corner coordinates Pn ′ (αn ′, βn ′) thus obtained is divided into three in the X-axis direction and divided into four in the Y-axis direction, whereby the software key SK ′ can be displayed.
Furthermore, in the software key correction process, as shown in FIG. 35, the display position of the pointer P does not change as it is, but the software key SK ′ is deviated from the absolute coordinates, and therefore the absolute coordinates at which the pointer P is displayed. The coordinates and the coordinates specified by the user are different. In fact, as shown in FIG. 35, the pointer P exists in the upper right region Z in the software key SK that matches the absolute coordinates. For example, in the
そこで、ポインタPが表示されている絶対座標における座標を(p、q)と置くと、ユーザの指定位置を示す座標(p’、q’)は以下のようになる。
(p’、q’)=(p−sgn(θ)X、q−sgn(φ)Y)…(式6)
この計算を行う補正処理を、ソフトウェアキーポインタ補正処理と表現する。また、座標(p’、q’)が元座標(s、t)となる。
Therefore, if the coordinates in the absolute coordinates where the pointer P is displayed are (p, q), the coordinates (p ′, q ′) indicating the user's designated position are as follows.
(P ′, q ′) = (p−sgn (θ) X, q−sgn (φ) Y) (Formula 6)
The correction processing for performing this calculation is expressed as software key pointer correction processing. The coordinates (p ′, q ′) are the original coordinates (s, t).
以上説明した補正処理を適用した図11の元座標取得処理について説明する。上記補正処理は、図11の元座標取得処理のステップS301での軌跡をトレースする処理(以下、「トレース処理」という)において実行される。具体的には、加速度センサASからθ、φが通知されるたびにトレース処理が実行される。なお、加速度センサASは、頭部が動いていない場合でも、θ=0、及びφ=0を通知するものとする。
また、以下の補正処理では、頭部の動きと同時に頭部と同方向に腕が動いた場合には補正を行わないようにしている。例えば、顔が右に向き、腕も右方向に同時に移動した場合、加速度センサASからは右に向いたことを示すθが通知されるが、ディスプレイ15の画面内のソフトウェアキーとポインタの相対位置はほとんど変化しない。従って、相対位置がほとんど変化していない場合は、頭部の動きと同時に頭部と同方向に腕が動いたと判定し、補正を行わない。
The original coordinate acquisition process of FIG. 11 to which the correction process described above is applied will be described. The correction process is executed in the process of tracing the locus in step S301 of the original coordinate acquisition process in FIG. 11 (hereinafter referred to as “trace process”). Specifically, the trace processing is executed every time θ and φ are notified from the acceleration sensor AS. Note that the acceleration sensor AS notifies θ = 0 and φ = 0 even when the head is not moving.
Further, in the following correction processing, correction is not performed when the arm moves in the same direction as the head simultaneously with the movement of the head. For example, when the face is turned to the right and the arm is moved to the right at the same time, the acceleration sensor AS is notified of θ indicating that the face is turned to the right. Hardly changes. Therefore, when the relative position hardly changes, it is determined that the arm moves in the same direction as the head simultaneously with the movement of the head, and correction is not performed.
さらに、ポインタ補正処理を適用した場合、ユーザが指定している絶対座標における座標と表示するポインタの位置に補正した分のズレが生じる。このズレを示すベクトルをオフセットと表現する。例えば、絶対座標におけるポインタの座標が(a、b)であったが、補正により(c、d)に表示することとなったとする。このときベクトル(c−a、d−b)がオフセットとなり、補正後は、絶対座標におけるポインタの座標をオフセットでずらすオフセット補正を行う。オフセット補正された座標は、ポインタの表示位置であり、ユーザの指定位置でもある。また、オフセットは、ポインタ補正処理が行われた場合に再びズレが生じるため、ポインタ補正処理が行われるたびに更新される。 Further, when the pointer correction process is applied, a deviation corresponding to the coordinates in the absolute coordinates designated by the user and the position of the pointer to be displayed occurs. A vector indicating this deviation is expressed as an offset. For example, it is assumed that the coordinates of the pointer in absolute coordinates are (a, b), but are displayed at (c, d) by correction. At this time, the vector (c−a, db) becomes an offset, and after correction, offset correction is performed by shifting the coordinates of the pointer in absolute coordinates by the offset. The offset-corrected coordinates are the display position of the pointer and also the position designated by the user. In addition, the offset is updated every time the pointer correction process is performed because the deviation occurs again when the pointer correction process is performed.
ソフトウェアキー補正処理を適用した場合もオフセット補正が必要である。ソフトウェアキー補正処理におけるオフセットは、絶対座標とソフトウェアキーのズレを示すベクトルであり、具体的には、ソフトウェアキーの原点の絶対座標における座標となる。図35で説明すると、ベクトルP2’がオフセットとなる。表示している座標からP2’を引くことにより、ユーザの指定位置を補正する。ソフトウェアキー自体がずれて表示されているため、表示するポインタの座標に対するオフセット補正は不要であるが、指定位置の座標に対するオフセット補正は必要である。
このように、補正処理では、加速度センサASが検出したパン方向の回転角及びチルト方向の回転角に基づき、指定位置の補正量またはソフトウェアキーの補正量を算出することにより、ユーザにより指定された位置を表す指定位置と、ソフトウェアキーとの相対位置を補正する。なお、以下に説明するポインタ補正処理及びソフトウェアキー補正処理は、ユーザがいずれかを選択可能となっており、ユーザに選択された補正処理を実行する。
Even when software key correction processing is applied, offset correction is necessary. The offset in the software key correction process is a vector indicating the deviation between the absolute coordinate and the software key, and specifically, the coordinate in the absolute coordinate of the origin of the software key. Explaining in FIG. 35, the vector P2 ′ is an offset. The position designated by the user is corrected by subtracting P2 ′ from the displayed coordinates. Since the software key itself is displayed shifted, offset correction for the coordinates of the pointer to be displayed is unnecessary, but offset correction for the coordinates of the designated position is necessary.
As described above, in the correction process, the correction amount of the specified position or the correction amount of the software key is calculated based on the rotation angle in the pan direction and the rotation angle in the tilt direction detected by the acceleration sensor AS. The relative position between the specified position representing the position and the software key is corrected. The pointer correction process and the software key correction process described below can be selected by the user, and the correction process selected by the user is executed.
図36は、元座標取得処理におけるステップS301のトレース処理にポインタ補正処理を適用した処理手順を示したフローチャートである。
図36において、制御部11は、加速度センサASから、パン方向の回転角θ、及びチルト方向の回転角φが通知されると(ステップS1801でYES)、絶対座標における現在のポインタの座標を取得し(ステップS1802)、上述したオフセット補正を行い、オフセット補正後の座標を(u,v)とする(ステップS1803)。なお、オフセットは、デフォルトでは(0、0)がスマートグラス10の初期化時にセットされる。
FIG. 36 is a flowchart showing a processing procedure in which the pointer correction process is applied to the trace process in step S301 in the original coordinate acquisition process.
In FIG. 36, when the rotation angle θ in the pan direction and the rotation angle φ in the tilt direction are notified from the acceleration sensor AS (YES in step S1801), the
次いで、制御部11は、通知されたθまたはφの絶対値が閾値T1以上か否か判定する(ステップS1804)。この閾値T1は、0以上の値であって、補正を行う対象とする回転角を規定するものである。例えば、比較的ゆっくりと回転している場合、すなわちθまたはφの絶対値が小さく、ユーザの入力に支障が出ない程度の回転角の場合は、補正を行わないようにすることができる。閾値T1は、ユーザにより設定可能としてもよい。
Next, the
通知されたθまたはφの絶対値が閾値T1以上ではない場合、すなわち|θ|<T1かつ|φ|<T1の場合には(ステップS1804でNO)、制御部11は、補正を行わずに(s、t)に(u、v)を代入(s←u、t←v)して(ステップS1809)、ステップS1808に進む。この(s、t)は、ポインタの座標を保持する変数で、デフォルトでは例えばソフトウェアキーの中央の座標がスマートグラス10の初期化時にセットされる。
通知されたθまたはφの絶対値が閾値T1以上の場合には(ステップS1804でYES)、制御部11は、(s、t)と(u、v)との距離が閾値T2以上か否か判定する(ステップS1805)。この閾値T2は、上述した頭部の動きと同時に頭部と同方向に腕が動いた場合に該当するか否かを判定するための閾値である。閾値T2は、ユーザにより設定可能としてもよい。
If the notified absolute value of θ or φ is not greater than or equal to the threshold T1, that is, if | θ | <T1 and | φ | <T1 (NO in step S1804), the
If the notified absolute value of θ or φ is greater than or equal to the threshold T1 (YES in step S1804), the
(s、t)と(u、v)との距離が閾値T2以上ではない場合には(ステップS1805でNO)、制御部11は、頭部の動きと同時に頭部と同方向に腕が動いたと判定して、上述したステップS1809に進む。
一方、(s、t)と(u、v)との距離が閾値T2以上の場合には(ステップS1805でYES)、制御部11は、上述したポインタ補正処理を行う(ステップS1807)。ポインタ補正処理では、式2、式3、式4等を用いて補正する。このポインタ補正処理により、(s、t)が更新される。次いで、制御部11は、オフセットを更新する(ステップS1807)。オフセットは、(s、t)とユーザが指定している絶対座標における座標を用いて更新される。
次いで、制御部11は、座標(s、t)にポインタを表示して(ステップS1808)、本処理を終了する。この座標(s、t)は、元座標取得処理のステップS303で記憶される座標である。
When the distance between (s, t) and (u, v) is not greater than or equal to the threshold T2 (NO in step S1805), the
On the other hand, when the distance between (s, t) and (u, v) is greater than or equal to the threshold T2 (YES in step S1805), the
Next, the
図37は、元座標取得処理におけるステップS301のトレース処理にソフトウェアキー補正処理を適用した処理手順を示したフローチャートである。
図37において、制御部11は、加速度センサASから、パン方向の回転角θ、及びチルト方向の回転角φが通知されると(ステップS1901でYES)、絶対座標における現在のポインタの座標(u,v)を取得する(ステップS1902)。
FIG. 37 is a flowchart showing a processing procedure in which software key correction processing is applied to the tracing processing in step S301 in the original coordinate acquisition processing.
In FIG. 37, when the
次いで、制御部11は、通知されたθまたはφの絶対値が閾値T1以上か否か判定する(ステップS1903)。この閾値T1は、図36のT1と同じ閾値である。
通知されたθまたはφの絶対値が閾値T1以上ではない場合には(ステップS1903でNO)、制御部11は、補正を行わずに(s、t)に(a、b)を代入(a←u、b←v)して(ステップS1910)、ステップS1907に進む。この(a、b)は、ポインタの座標を保持する変数で、デフォルトでは例えばソフトウェアキーの中央の座標がスマートグラス10の初期化時にセットされる。
Next, the
If the notified absolute value of θ or φ is not equal to or greater than the threshold value T1 (NO in step S1903), the
通知されたθまたはφの絶対値が閾値T1以上の場合には(ステップS1903でYES)、制御部11は、(a、b)と(u、v)との距離が閾値T2以上か否か判定する(ステップS1904)。この閾値T2は、図36のT2と同じ閾値である。
(a、b)と(u、v)との距離が閾値T2以上ではない場合には(ステップS1904でNO)、制御部11は、頭部の動きと同時に頭部と同方向に腕が動いたと判定して、上述したステップS1908に進む。
If the notified absolute value of θ or φ is greater than or equal to the threshold T1 (YES in step S1903), the
When the distance between (a, b) and (u, v) is not greater than or equal to the threshold T2 (NO in step S1904), the
一方、(a、b)と(u、v)との距離が閾値T2以上の場合には(ステップS1904でYES)、制御部11は、上述したオフセット補正を行う(ステップS1905)。このオフセット補正は、現在の座標(u,v)に対して行われる。次いで制御部11は、上述したソフトウェアキー補正処理を行う(ステップS1906)。ソフトウェアキー補正処理では、式2、式3、式5等を用いて補正する。そして、制御部11は、オフセット補正された(u,v)に対して、上述した式6に示されるソフトウェアキーポインタ補正処理を行う(ステップS1906)。これにより、ユーザが指定している座標(s、t)が更新される。この座標(s、t)は、元座標取得処理のステップS303で記憶される座標である。次いで、制御部11は、ソフトウェアキーの補正に伴い、オフセットも変化するため、オフセットを更新する(ステップS1908)。
次いで、制御部11は、座標(u、v)にポインタを表示して(ステップS1909)、本処理を終了する。
On the other hand, when the distance between (a, b) and (u, v) is equal to or greater than the threshold T2 (YES in step S1904), the
Next, the
以上説明したポインタ補正処理、及びソフトウェアキー補正処理によれば、加速度センサASにより検出された物理量に基づき、ユーザにより指定された位置を表す指定位置と、前記ソフトウェアキーとの相対位置を補正するので、ユーザによる誤入力を抑制することができる。
さらに、加速度センサASが検出する物理量は、透過型ディスプレイのパン方向の回転角及びチルト方向の回転角であり、頭部が動く可能性のある左右方向及び上下方向の動きに対応できるため、より精度よく補正することが可能となる。
According to the pointer correction process and the software key correction process described above, the relative position between the specified position representing the position specified by the user and the software key is corrected based on the physical quantity detected by the acceleration sensor AS. Incorrect input by the user can be suppressed.
Furthermore, the physical quantity detected by the acceleration sensor AS is the rotation angle in the pan direction and the tilt direction in the transmissive display, and can cope with the horizontal and vertical movements that may cause the head to move. It is possible to correct with high accuracy.
また、ポインタ補正処理及びソフトウェアキー補正処理により、ユーザはポインタ補正処理及びソフトウェアキー補正処理のいずれかを選択できるので、ユーザの使い勝手や利便性を向上させることができる。
なお、上述した実施形態では、ポインタ補正処理及びソフトウェアキー補正処理のいずれか一方を実行する形態について説明したが、組合せて実行するようにしてもよい。ポインタ補正処理及びソフトウェアキー補正処理を組み合わせて実行する処理は、例えば、頭部の動きが大きい場合に有効である。
なお、本実施形態では、加速度センサを用いて頭部の動きを検出したが、角速度センサを用いてもよい。また本実施形態では、パン方向とチルト方向の2軸で頭部の動きを検出したが、例えば3軸または6軸で頭部の動きを検出するようにしてもよい。
Further, since the user can select either the pointer correction process or the software key correction process by the pointer correction process and the software key correction process, it is possible to improve the usability and convenience of the user.
In the above-described embodiment, the mode in which one of the pointer correction process and the software key correction process is executed has been described, but may be executed in combination. A process executed by combining the pointer correction process and the software key correction process is effective, for example, when the movement of the head is large.
In the present embodiment, the movement of the head is detected using an acceleration sensor, but an angular velocity sensor may be used. Further, in the present embodiment, the head movement is detected by the two axes of the pan direction and the tilt direction, but the head movement may be detected by, for example, three axes or six axes.
上述した実施形態におけるスマートグラス10、110、210、310、410の処理をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。 You may make it implement | achieve the process of the smart glasses 10,110,210,310,410 in embodiment mentioned above with a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be a program for realizing a part of the above-described functions, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system. You may implement | achieve using programmable logic devices, such as FPGA (Field Programmable Gate Array).
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
1,100,200,300,400 認証システム
10,110,210,310,410 スマートグラス
11,21,31,111,121,211,221,311,321,331,411,421 制御部(操作内容取得部、表示部)
13,113,213,313,413 カメラ
15,115,215,315,415 ディスプレイ
18,26,34,118,126,218,226,318,326,334,418,426 通信部
20,120,220,320,420 情報処理装置
24,124,224,324 座標変換部
28,128,228,328,428 照合部(文字列取得部)
30,330 認証装置、32,332 認証部、AS 加速度センサ
1,100,200,300,400 Authentication system 10,110,210,310,410
13, 113, 213, 313, 413
30,330 Authentication device, 32,332 Authentication unit, AS acceleration sensor
Claims (9)
前記表示部により表示された前記ソフトウェアキーに対する前記ユーザの操作内容を取得する操作内容取得部と、
前記操作内容取得部により取得された前記操作内容から、前記ユーザの操作により入力された文字列を秘密情報として取得する文字列取得部と、
前記文字列取得部により取得された文字列を用いて、認証処理を実行する認証部と
を有することを特徴とする認証システム。 A display unit that displays a software key for inputting a character string on a transmissive display visible to the user;
An operation content acquisition unit for acquiring the operation content of the user for the software key displayed by the display unit;
From the operation content acquired by the operation content acquisition unit, a character string acquisition unit that acquires, as confidential information, a character string input by the user's operation;
An authentication system comprising: an authentication unit that performs an authentication process using the character string acquired by the character string acquisition unit.
前記検出部により検出された前記物理量に基づき、前記ユーザにより指定された位置を表す指定位置と、前記ソフトウェアキーとの相対位置を補正する補正部とをさらに有し、
前記操作内容取得部は、前記補正部により補正された前記相対位置によって前記ユーザの操作内容を取得することを特徴とする請求項1に記載の認証システム。 A detection unit for detecting a physical quantity indicating the movement of the transmissive display;
Based on the physical quantity detected by the detection unit, further includes a specified position that represents the position specified by the user, and a correction unit that corrects the relative position of the software key,
The authentication system according to claim 1, wherein the operation content acquisition unit acquires the user operation content based on the relative position corrected by the correction unit.
前記補正部は、前記検出部が検出した前記パン方向の回転角及び前記チルト方向の回転角に基づき、前記指定位置と、前記ソフトウェアキーとの相対位置を補正することを特徴とする請求項2に記載の認証システム。 The physical quantity detected by the detection unit is a rotation angle in a pan direction and a rotation angle in a tilt direction of the transmissive display,
The correction unit corrects a relative position between the designated position and the software key based on the rotation angle in the pan direction and the rotation angle in the tilt direction detected by the detection unit. The authentication system described in.
前記表示部により表示された前記ソフトウェアキーに対する前記ユーザの操作内容を取得する操作内容取得部と、
前記操作内容取得部により取得された前記操作内容から、前記ユーザの操作により入力された文字列を秘密情報として取得する文字列取得部と
を有することを特徴とする入力装置。 A display unit that displays a software key for inputting a character string on a transmissive display visible to the user;
An operation content acquisition unit for acquiring the operation content of the user for the software key displayed by the display unit;
An input device comprising: a character string acquisition unit that acquires, as secret information, a character string input by the user's operation from the operation content acquired by the operation content acquisition unit.
前記検出部により検出された前記物理量に基づき、前記ユーザにより指定された位置を表す指定位置と、前記ソフトウェアキーとの相対位置を補正する補正部とをさらに有し、
前記操作内容取得部は、前記補正部により補正された前記相対位置によって前記ユーザの操作内容を取得することを特徴とする請求項7に記載の入力装置。 A detection unit for detecting a physical quantity indicating the movement of the transmissive display;
Based on the physical quantity detected by the detection unit, further includes a specified position that represents the position specified by the user, and a correction unit that corrects the relative position of the software key,
The input device according to claim 7, wherein the operation content acquisition unit acquires the user operation content based on the relative position corrected by the correction unit.
前記補正部は、前記検出部が検出した前記パン方向の回転角及び前記チルト方向の回転角に基づき、前記指定位置と、前記ソフトウェアキーとの相対位置を補正することを特徴とする請求項8に記載の入力装置。 The physical quantity detected by the detection unit is a rotation angle in a pan direction and a rotation angle in a tilt direction of the transmissive display,
The correction unit corrects a relative position between the designated position and the software key based on the rotation angle in the pan direction and the rotation angle in the tilt direction detected by the detection unit. The input device described in 1.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014210228 | 2014-10-14 | ||
JP2014210228 | 2014-10-14 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016081508A true JP2016081508A (en) | 2016-05-16 |
Family
ID=55956353
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015108879A Pending JP2016081508A (en) | 2014-10-14 | 2015-05-28 | Authentication system and input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016081508A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020515923A (en) * | 2016-10-26 | 2020-05-28 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | Performing virtual reality input |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007133835A (en) * | 2005-11-14 | 2007-05-31 | Sharp Corp | Virtual key input device, information terminal device, charger for information terminal device, and program |
JP2008152441A (en) * | 2006-12-15 | 2008-07-03 | Hitachi Software Eng Co Ltd | Character data input device |
JP2011203847A (en) * | 2010-03-24 | 2011-10-13 | Konami Digital Entertainment Co Ltd | Item selection device, item selection method, and program |
JP2012138011A (en) * | 2010-12-27 | 2012-07-19 | Ns Solutions Corp | Information processing system, information processing method and program |
JP2012174208A (en) * | 2011-02-24 | 2012-09-10 | Sony Corp | Information processing apparatus, information processing method, program, and terminal device |
JP2014131094A (en) * | 2012-12-28 | 2014-07-10 | Seiko Epson Corp | Display device and method of controlling display device |
JP2014157482A (en) * | 2013-02-15 | 2014-08-28 | Konica Minolta Inc | Operation display system |
-
2015
- 2015-05-28 JP JP2015108879A patent/JP2016081508A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007133835A (en) * | 2005-11-14 | 2007-05-31 | Sharp Corp | Virtual key input device, information terminal device, charger for information terminal device, and program |
JP2008152441A (en) * | 2006-12-15 | 2008-07-03 | Hitachi Software Eng Co Ltd | Character data input device |
JP2011203847A (en) * | 2010-03-24 | 2011-10-13 | Konami Digital Entertainment Co Ltd | Item selection device, item selection method, and program |
JP2012138011A (en) * | 2010-12-27 | 2012-07-19 | Ns Solutions Corp | Information processing system, information processing method and program |
JP2012174208A (en) * | 2011-02-24 | 2012-09-10 | Sony Corp | Information processing apparatus, information processing method, program, and terminal device |
JP2014131094A (en) * | 2012-12-28 | 2014-07-10 | Seiko Epson Corp | Display device and method of controlling display device |
JP2014157482A (en) * | 2013-02-15 | 2014-08-28 | Konica Minolta Inc | Operation display system |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020515923A (en) * | 2016-10-26 | 2020-05-28 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | Performing virtual reality input |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI575424B (en) | Method, storage devices and system for picture gesture authentication | |
JP2019087279A (en) | Systems and methods of direct pointing detection for interaction with digital device | |
US20190392422A1 (en) | Mobile terminal and control method therefor | |
US11112881B2 (en) | Systems and methods for identifying user-operated features of input interfaces obfuscating user navigation | |
US11301056B2 (en) | Systems and methods for obfuscating user selections | |
US11526273B2 (en) | Systems and methods of selection acknowledgement for interfaces promoting obfuscation of user operations | |
Ling et al. | I know what you enter on gear vr | |
US11209979B2 (en) | Systems and methods for input interfaces promoting obfuscation of user navigation and selections | |
JP6300705B2 (en) | Authentication management method by device cooperation, information processing device, wearable device, computer program | |
US11086514B2 (en) | Systems and methods for obfuscating user navigation and selections directed by free-form input | |
JP2017004354A (en) | Display control method, display control program, information processing terminal, and wearable device | |
CN105808015A (en) | Peep-proof user interaction device and peep-proof user interaction method | |
JP6065908B2 (en) | Stereoscopic image display device, cursor display method thereof, and computer program | |
CN105814575B (en) | Authenticating device, Verification System, program, storage medium and authentication method | |
US10591986B2 (en) | Remote work supporting system, remote work supporting method, and program | |
Bianchi et al. | Open sesame: Design guidelines for invisible passwords | |
JP2016081508A (en) | Authentication system and input device | |
Lee et al. | Enhancing the security of personal identification numbers with three-dimensional displays | |
JP2012198608A (en) | Input device and input method | |
CN113051538A (en) | Information unlocking method and electronic equipment | |
JP6252042B2 (en) | Information processing system, information processing apparatus, information processing method, and program | |
WO2021161769A1 (en) | Information processing device, information processing method, and program | |
WO2022215346A1 (en) | Electronic device | |
CN117313075A (en) | Password input method, electronic device and storage medium | |
JP2018028455A (en) | Guide support device, guide support method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180330 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190305 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190730 |