JP6272069B2 - Information processing apparatus, information processing method, computer program, and recording medium - Google Patents

Information processing apparatus, information processing method, computer program, and recording medium Download PDF

Info

Publication number
JP6272069B2
JP6272069B2 JP2014027561A JP2014027561A JP6272069B2 JP 6272069 B2 JP6272069 B2 JP 6272069B2 JP 2014027561 A JP2014027561 A JP 2014027561A JP 2014027561 A JP2014027561 A JP 2014027561A JP 6272069 B2 JP6272069 B2 JP 6272069B2
Authority
JP
Japan
Prior art keywords
image
finger
user
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014027561A
Other languages
Japanese (ja)
Other versions
JP2015153231A (en
JP2015153231A5 (en
Inventor
友宣 中村
友宣 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014027561A priority Critical patent/JP6272069B2/en
Publication of JP2015153231A publication Critical patent/JP2015153231A/en
Publication of JP2015153231A5 publication Critical patent/JP2015153231A5/ja
Application granted granted Critical
Publication of JP6272069B2 publication Critical patent/JP6272069B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、GUI(Graphics User Interface)を備えた情報処理装置において、ユーザに操作されるGUIオブジェクトを表示する技術に関する。   The present invention relates to a technique for displaying a GUI object operated by a user in an information processing apparatus having a GUI (Graphics User Interface).

ユーザは、スマートフォンのようなタッチパネルを備えた携帯型の情報処理装置を、片手で持ちながら操作することが多い。例えば、ユーザは、親指でタッチパネルの表示画面に表示されたGUIオブジェクトの操作を行い、その他の指で情報処理装置本体を支持する。片手で操作を行う場合、ユーザの手の大きさや情報処理装置の持ち方によっては、タッチパネル上でユーザの親指が届きにくい領域が発生してしまうことがある。この場合、ユーザは、親指が届きにくい領域に表示されるGUIオブジェクトを操作することが困難になる。ユーザの操作を容易にするために、例えば特許文献1、2のような技術が提案されている。   A user often operates a portable information processing apparatus having a touch panel such as a smartphone while holding it with one hand. For example, the user operates the GUI object displayed on the display screen of the touch panel with the thumb, and supports the information processing apparatus main body with the other fingers. When an operation is performed with one hand, an area where the user's thumb is difficult to reach may occur on the touch panel depending on the size of the user's hand and how the information processing apparatus is held. In this case, it becomes difficult for the user to operate the GUI object displayed in the region where the thumb is difficult to reach. In order to facilitate user operations, techniques such as Patent Documents 1 and 2 have been proposed.

特許文献1には、ユーザが指等でタッチパネルに線図を描く動作を行うことで指の可動範囲を決定し、その範囲内にGUIオブジェクトを表示する情報処理装置が開示されている。特許文献2には、ドラッグ操作又はフリック操作による指のタッチ位置の軌跡の平均曲率半径と曲率中心座標とに基づいて、ユーザにとって操作が容易な領域を特定し、その領域内にGUIオブジェクトを表示する情報処理装置が開示されている。   Patent Document 1 discloses an information processing apparatus in which a user determines a movable range of a finger by performing a drawing operation on a touch panel with a finger or the like, and displays a GUI object within the range. Patent Document 2 specifies an area that is easy for a user to operate based on an average curvature radius and a curvature center coordinate of a trajectory of a finger touch position by a drag operation or a flick operation, and displays a GUI object in the area. An information processing apparatus is disclosed.

特開2007−274136号公報JP 2007-274136 A 特開2012−108674号公報JP 2012-108674 A

特許文献1では、ユーザが明示的に指示した領域にGUIオブジェクトが表示される。特許文献2では、ユーザによる明示的な領域の指示はない。しかし、事前にドラッグ操作又はフリック操作を行う必要がある。このように、いずれの技術もユーザによるタッチパネルへの入力操作が行われてから、GUIオブジェクトの表示位置に制御を加えるものであり、ユーザにとっては最初の操作が煩わしい場合もあった。   In Patent Document 1, a GUI object is displayed in an area explicitly designated by the user. In Patent Document 2, there is no explicit area instruction from the user. However, it is necessary to perform a drag operation or a flick operation in advance. As described above, in any technique, after the user performs an input operation on the touch panel, control is performed on the display position of the GUI object, and the initial operation may be troublesome for the user.

本発明は、上記の問題を解決するために、片手で操作する際の操作性を向上させた携帯型の情報処理端末を提供することを主たる課題とする。   In order to solve the above problems, it is a main object of the present invention to provide a portable information processing terminal with improved operability when operated with one hand.

上記課題を解決する本発明の情報処理装置は、オブジェクトを表示する表示画面であるタッチパネルであって、ユーザの操作指示を受け付ける操作受付手段と、ユーザの指の生体情報を表す第1の画像を保持する保持手段と、前記ユーザの指の生体情報を読み取り、読み取った生体情報を表す第2の画像を取得するセンサと、前記センサで読み取った前記第2の画像と前記第1の画像との特徴を照合する照合手段と、前記照合手段の照合の結果、前記第1の画像と前記第2の画像との特徴が一致すると見做される場合、前記第1の画像に対する前記第2の画像の回転角度に基づいて、前記センサを操作した指の方向を特定し、特定した指の方向に基づいて前記表示画面上の前記オブジェクトと前記指との距離が初期状態より近い位置に表示されるように前記オブジェクトの表示領域を決定する決定手段と、前記表示領域に前記オブジェクトを表示させる表示制御手段と、を備えることを特徴とする。 An information processing apparatus of the present invention that solves the above problem is a touch panel that is a display screen for displaying an object, and includes an operation receiving unit that receives a user's operation instruction and a first image that represents biological information of the user's finger. A holding means for holding; a sensor for reading biometric information of the user's finger; acquiring a second image representing the read biometric information; and the second image and the first image read by the sensor A collation means for collating features; and, as a result of collation by the collation means, if it is considered that the features of the first image and the second image match, the second image with respect to the first image rotation angle on the basis to identify the direction of the finger operating the sensor, is displayed on the distance a position closer than the initial state of the said object on said display screen based on the direction of the specified finger finger Characterized by comprising determination means for determining the display area of the object so that, and a display control means for displaying the object in the display area.

本発明によれば、操作手段を操作した指の方向に基づいてオブジェクトの表示領域を決定するために、情報処理装置を片手で操作する際の操作性を向上させることができる。   According to the present invention, since the display area of the object is determined based on the direction of the finger that operated the operation means, it is possible to improve the operability when operating the information processing apparatus with one hand.

(a)〜(c)は、情報処理装置の構成を表す図。(A)-(c) is a figure showing the structure of information processing apparatus. 指紋登録処理を表すフローチャート。The flowchart showing a fingerprint registration process. 指紋登録処理の説明図。Explanatory drawing of a fingerprint registration process. ロック解除処理を表すフローチャート。The flowchart showing a lock release process. (a)、(b)は、ロック解除時の動作を表す図。(A), (b) is a figure showing operation | movement at the time of lock release. 情報処理装置の機能ブロック図。The functional block diagram of information processing apparatus. 表示領域を登録する処理を表すフローチャート。The flowchart showing the process which registers a display area. (a)はガイダンスの例示図、(b)は表示領域の算出処理の説明図。(A) is an illustration figure of guidance, (b) is explanatory drawing of the calculation process of a display area.

以下、図面を参照して実施形態を詳細に説明する。ただし、本実施形態に記載されている構成要素はあくまでも例示であり、本発明の範囲をそれらのみに限定する趣旨のものではない。   Hereinafter, embodiments will be described in detail with reference to the drawings. However, the components described in the present embodiment are merely examples, and are not intended to limit the scope of the present invention only to them.

本実施形態では、タッチパネルと、指紋読取センサを有するホームボタンとを備えた携帯型の情報処理装置について説明する。なお、「ホームボタン」は、スリープ状態にある情報処理装置を動作状態に復帰させるために操作される操作部である。また、個別のアプリケーションの実行画面から、いわゆるホーム画面(アプリケーションや各種機能の設定メニューなどに遷移可能な初期画面)に戻る指示も、ホームボタンを押下する操作によって入力される。このような情報処理装置には、スマートフォンやタブレットPC(Personal Computer)を用いることができる。   In the present embodiment, a portable information processing apparatus including a touch panel and a home button having a fingerprint reading sensor will be described. The “home button” is an operation unit operated to return the information processing apparatus in the sleep state to the operation state. Also, an instruction to return from an individual application execution screen to a so-called home screen (an initial screen that can be changed to a setting menu of an application or various functions) is input by an operation of pressing the home button. A smartphone or a tablet PC (Personal Computer) can be used for such an information processing apparatus.

一般的にこの種の情報処理装置は、操作が一定時間行われずにスリープ状態になると、操作にロックがかかる。「ロック」がかかった情報処理装置は、ユーザ認証が行われない限り、ユーザによる操作を受け付けない。本実施形態の情報処理装置は、ユーザ認証に指紋認証技術を用いる。指紋を取得するための指紋読取センサは、ホームボタンに設けられる。ユーザがホームボタンを押下することで、指紋読取センサは、ユーザの指紋を読み取る。情報処理装置は、指紋読取センサで読み取った指紋の画像により、指紋認証によるユーザ認証を行うことができる。ユーザ認証が終了すると、情報処理装置は、ロックを解除して、GUIオブジェクトをタッチパネルの表示画面に表示する。図1は、このような情報処理装置100の構成を表す図である。   Generally, this type of information processing apparatus is locked when the operation is not performed for a certain period of time and enters a sleep state. The information processing apparatus that is “locked” does not accept user operations unless user authentication is performed. The information processing apparatus according to the present embodiment uses a fingerprint authentication technique for user authentication. A fingerprint reading sensor for acquiring a fingerprint is provided on the home button. When the user presses the home button, the fingerprint reading sensor reads the user's fingerprint. The information processing apparatus can perform user authentication by fingerprint authentication based on the fingerprint image read by the fingerprint reading sensor. When the user authentication is completed, the information processing apparatus releases the lock and displays the GUI object on the display screen of the touch panel. FIG. 1 is a diagram illustrating the configuration of such an information processing apparatus 100.

図1(a)は、情報処理装置100のハードウェア構成図である。情報処理装置100は、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、及びRAM(Random Access Memory)103を備えたコンピュータである。CPU101は、ROM102に格納されたコンピュータプログラムを読み出し、RAM103を作業領域として実行することで、情報処理装置100の動作を制御する。コンピュータプログラムは、HDD(Hard Disk Drive)104に格納されていてもよい。HDD104は、この他に、ユーザの指紋画像を表す指紋画像データ等の電子データを格納する。   FIG. 1A is a hardware configuration diagram of the information processing apparatus 100. The information processing apparatus 100 is a computer including a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, and a RAM (Random Access Memory) 103. The CPU 101 reads the computer program stored in the ROM 102 and executes the RAM 103 as a work area, thereby controlling the operation of the information processing apparatus 100. The computer program may be stored in an HDD (Hard Disk Drive) 104. In addition to this, the HDD 104 stores electronic data such as fingerprint image data representing the fingerprint image of the user.

なお、コンピュータプログラムや電子データは、外部記憶装置に格納されていてもよい。外部記憶装置は、情報処理装置100にネットワークを介して接続される装置の他に、例えば、メディア(記録媒体)と、当該メディアへのアクセスを実現するための外部記憶ドライブにより実現することもできる。このようなメディアには、例えば、フレキシブルディスク(FD)、CD−ROM、DVD、USBメモリ、MO、フラッシュメモリ等を用いることができる。   Note that the computer program and electronic data may be stored in an external storage device. The external storage device can be realized by, for example, a medium (recording medium) and an external storage drive for realizing access to the medium in addition to a device connected to the information processing apparatus 100 via a network. . As such a medium, for example, a flexible disk (FD), a CD-ROM, a DVD, a USB memory, an MO, a flash memory, or the like can be used.

情報処理装置100は、この他に、指紋読取センサ105、タッチパネル107、及びボタン操作部108を備える。指紋読取センサ105は、ホームボタンに設けられており、ユーザの指紋を読み取り、その画像(指紋画像)のデータ(指紋画像データ)を取得する。本実施形態の指紋読取センサ105は、静電容量方式であり、指紋の凹凸による電荷の変化を読み取り、電荷の量から指紋画像データを取得する。指紋画像データは、デジタル信号であり、後述の指紋照合処理等の画像処理に用いられる。なお、指紋読取センサは、静電容量方式に限らず、感圧方式や光学方式であってもよい。本実施形態では、指紋読取センサ105は、ホームボタンの表面に設置されている。   In addition, the information processing apparatus 100 includes a fingerprint reading sensor 105, a touch panel 107, and a button operation unit 108. The fingerprint reading sensor 105 is provided on the home button, reads a user's fingerprint, and acquires data (fingerprint image data) of the image (fingerprint image). The fingerprint reading sensor 105 of the present embodiment is a capacitive type, reads a change in charge due to fingerprint irregularities, and acquires fingerprint image data from the amount of charge. The fingerprint image data is a digital signal and is used for image processing such as fingerprint collation processing described later. Note that the fingerprint reading sensor is not limited to the capacitive method, and may be a pressure-sensitive method or an optical method. In the present embodiment, the fingerprint reading sensor 105 is installed on the surface of the home button.

タッチパネル107は、ディスプレイ及びタッチ位置を検出するポインティングデバイスを備える。タッチパネル107は、ディスプレイにGUIオブジェクト等の画像が表示される。ポインティングデバイスは、例えば透過したシート状であり、ディスプレイの表示画面上に重ねられる。ユーザがディスプレイをタッチすると、ポインティングデバイスはタッチ位置を検出して、検出したタッチ位置をCPU101に送信する。CPU101は、例えば、ポインティングデバイスから送信されたタッチ位置に相当する表示画面上の位置に表示されるGUIオブジェクトを特定し、特定したGUIオブジェクトに関連づけられる処理を実行する。本実施形態では、タッチパネル107は静電容量方式であるがこれに限らず、例えば、感圧方式や光学方式であってもよい。   The touch panel 107 includes a display and a pointing device that detects a touch position. The touch panel 107 displays an image such as a GUI object on a display. The pointing device is, for example, a transparent sheet, and is superimposed on the display screen of the display. When the user touches the display, the pointing device detects the touch position and transmits the detected touch position to the CPU 101. For example, the CPU 101 specifies a GUI object displayed at a position on the display screen corresponding to the touch position transmitted from the pointing device, and executes a process associated with the specified GUI object. In the present embodiment, the touch panel 107 is a capacitive method, but is not limited thereto, and may be a pressure-sensitive method or an optical method, for example.

ボタン操作部108は、ホームボタン等の物理ボタンであり、ユーザに操作(押下)されることによって、当該ボタンに対応付けられた操作指示を受け付けてCPU101に入力する。CPU101は、操作指示に応じた処理を実行する。例えば、ホームボタンが押下された場合、CPU101にスリープ状態からの復帰、あるいはホーム画面への遷移指示が入力される。本実施形態では、ホームボタンが押下された時に情報処理装置100がロックされた状態にあれば、さらに、押下時に指紋読取センサ105が取得した指紋データに基づいてロック状態を解除する解除指示が入力される。   The button operation unit 108 is a physical button such as a home button. When the button is operated (pressed) by the user, an operation instruction associated with the button is received and input to the CPU 101. The CPU 101 executes processing according to the operation instruction. For example, when the home button is pressed, an instruction to return from the sleep state or to change to the home screen is input to the CPU 101. In this embodiment, if the information processing apparatus 100 is in a locked state when the home button is pressed, a release instruction for releasing the locked state is input based on fingerprint data acquired by the fingerprint reading sensor 105 when the home button is pressed. Is done.

図1(b)は、情報処理装置100の機能ブロック図である。CPU101がコンピュータプログラムを実行することで、取得部109、照合部110、特定部111、表示制御部112、記憶部113、操作検出部114の各機能ブロックが情報処理装置100に実現される。なお、各機能ブロックは、このようにソフトウェア処理で実現する他に、ハードウェアで構成してもよい。その場合、各機能ブロックは、演算回路等を組み合わせて実現される。   FIG. 1B is a functional block diagram of the information processing apparatus 100. When the CPU 101 executes the computer program, the functional blocks of the acquisition unit 109, the collation unit 110, the identification unit 111, the display control unit 112, the storage unit 113, and the operation detection unit 114 are realized in the information processing apparatus 100. Each functional block may be configured by hardware in addition to being realized by software processing as described above. In that case, each functional block is realized by combining arithmetic circuits and the like.

取得部109は、指紋読取センサ105から指紋画像データを取得する。照合部110は、取得部109で取得した指紋画像データを、情報処理装置100の操作が許可されたユーザの指紋画像であるとして登録し、記憶部113に記憶する。また、照合部110は、ロックがかかっているときに取得部109が取得した指紋画像データと、記憶部113に記憶した指紋画像データとを照合する。照合処理は、本実施形態では、指紋照合で利用実績の高いマニューシャ・マッチング方式で行う。マニューシャ・マッチング方式では、まず指紋画像からマニューシャ(特徴点)を抽出する。特徴点は、例えば、指紋の紋様の中心点、指紋の凸線の分岐点、指紋の凸線の端点等である。照合部110は、照合を行う2つの指紋画像データが表す指紋画像のそれぞれから抽出した特徴点を、1点ずつ対応付けする。照合部110は、対応が取れた点の数を類似度とし、類似度が閾値以上であれば2つの指紋画像が一致していると判定する。特定部111は、照合部110が2つの指紋画像が一致していると判定した場合に、登録済みの指紋画像に対する、照合した指紋画像の回転角度から、情報処理装置100の操作を行う手の指の方向を特定する。表示制御部112は、表示画像を生成してタッチパネル107のディスプレイに表示する。表示制御部112は、特定部111で特定した指の方向に応じて、GUIオブジェクトを表示する領域を決定する。記憶部113は、各機能ブロックで処理に用いるデータを記憶する。例えば、記憶部113は、照合処理に用いるユーザが予め登録した指紋画像データ、指の方向を特定する処理に用いる指紋画像と指の方向の対応関係を示すデータ、ディスプレイに表示する画像の構成データ等を記憶する。操作検出部114は、ホームボタン等のボタン操作部108や、タッチパネル107をユーザが操作することによって入力される指示を検出する。例えば、操作検出部114は、ホームボタンの押下によりホームボタンから送信されるスリープ状態からの復帰指示、あるいはホーム画面への遷移指示を検出する。本実施形態では、ホームボタンが押下された時に情報処理装置100がロックされた状態にあれば、さらに指紋データに基づいてロック状態を解除する解除指示を検出する。   The acquisition unit 109 acquires fingerprint image data from the fingerprint reading sensor 105. The collation unit 110 registers the fingerprint image data acquired by the acquisition unit 109 as a fingerprint image of a user permitted to operate the information processing apparatus 100 and stores the fingerprint image data in the storage unit 113. The collation unit 110 collates the fingerprint image data acquired by the acquisition unit 109 when the lock is applied and the fingerprint image data stored in the storage unit 113. In this embodiment, the matching process is performed by a minutia matching method that has a high use record in fingerprint matching. In the minutia matching method, minutiae (feature points) are first extracted from a fingerprint image. The feature points are, for example, the center point of the fingerprint pattern, the branch point of the fingerprint convex line, the end point of the fingerprint convex line, and the like. The collation unit 110 associates feature points extracted from each of the fingerprint images represented by the two fingerprint image data to be collated one by one. The collation unit 110 uses the number of points that can be matched as the similarity, and determines that the two fingerprint images match if the similarity is equal to or greater than a threshold value. When the collation unit 110 determines that the two fingerprint images match, the specifying unit 111 operates the information processing apparatus 100 based on the rotation angle of the collated fingerprint image with respect to the registered fingerprint image. Specify the finger direction. The display control unit 112 generates a display image and displays it on the display of the touch panel 107. The display control unit 112 determines an area for displaying the GUI object according to the direction of the finger specified by the specifying unit 111. The storage unit 113 stores data used for processing in each functional block. For example, the storage unit 113 stores fingerprint image data registered in advance by the user for use in the collation processing, data indicating the correspondence between the fingerprint image used for the processing for specifying the finger direction and the direction of the finger, and configuration data for the image displayed on the display Memorize etc. The operation detection unit 114 detects an instruction input by the user operating the button operation unit 108 such as a home button or the touch panel 107. For example, the operation detection unit 114 detects a return instruction from a sleep state or an instruction to transition to the home screen transmitted from the home button when the home button is pressed. In the present embodiment, if the information processing apparatus 100 is in a locked state when the home button is pressed, a release instruction for releasing the locked state is further detected based on fingerprint data.

図1(c)は、情報処理装置100の外観図である。情報処理装置100は、タッチパネル107と同一面下部に、指紋読取センサ105が設けられたホームボタンを備える。ユーザが情報処理装置100を片手で操作する場合、タッチパネル107及びホームボタンは、片手の親指で触れられる。また、ホームボタンを押下することでロックを解除したユーザは、その直後からタッチパネル107に対するタッチ操作を開始するため、その間に情報処理装置100の持ち方を大きく変更する可能性が低い。本実施形態では、ホームボタンとタッチパネル107との位置関係が固定されているので、ホームボタンを押下したときのユーザの指の向きに基づいて、タッチパネル107上におけるユーザの指の可動範囲を推定することが可能となる。なお、タッチパネル107とホームボタンとの位置関係が特定可能な所定位置であれば、ホームボタンの配置は、タッチパネル107の下部に限らない。   FIG. 1C is an external view of the information processing apparatus 100. The information processing apparatus 100 includes a home button provided with a fingerprint reading sensor 105 in the lower surface of the touch panel 107. When the user operates the information processing apparatus 100 with one hand, the touch panel 107 and the home button are touched with the thumb of one hand. In addition, since the user who releases the lock by pressing the home button starts the touch operation on the touch panel 107 immediately after that, the user is unlikely to change the way of holding the information processing apparatus 100 during that time. In this embodiment, since the positional relationship between the home button and the touch panel 107 is fixed, the movable range of the user's finger on the touch panel 107 is estimated based on the orientation of the user's finger when the home button is pressed. It becomes possible. Note that the arrangement of the home button is not limited to the lower part of the touch panel 107 as long as the positional relationship between the touch panel 107 and the home button can be specified.

図2は、情報処理装置100にユーザの指紋を登録する処理を表すフローチャートである。情報処理装置100は、例えば指紋を登録するためのアプリケーションプログラムを有しており、このアプリケーションプログラムが起動されることで、ユーザの指紋の登録が可能になる。アプリケーションプログラムが起動されると、表示制御部112は、タッチパネル107のディスプレイに、ユーザに指紋の登録方法を説明するためのガイダンス画像を表示する(S201)。図3は、指紋登録処理の説明図である。ガイダンス画像401は、ユーザに指紋の登録方法を指示する。   FIG. 2 is a flowchart showing processing for registering a user's fingerprint in the information processing apparatus 100. The information processing apparatus 100 has, for example, an application program for registering a fingerprint, and the user's fingerprint can be registered by starting this application program. When the application program is activated, the display control unit 112 displays a guidance image for explaining a fingerprint registration method to the user on the display of the touch panel 107 (S201). FIG. 3 is an explanatory diagram of the fingerprint registration process. A guidance image 401 instructs the user how to register a fingerprint.

ガイダンス画像401を表示した情報処理装置100は、ユーザがガイダンス画像401の指示に従って親指402でホームボタンを押下するのを待つ(S202)。ユーザがホームボタンを押下すると(S202:Y)、指紋読取センサ105がユーザの指紋を読み取る。取得部109は、指紋読取センサ105が読み取った指紋の指紋画像データを取得する(S203)。指紋画像データを取得すると、表示制御部112は、取得した指紋画像データによりタッチパネル107に指紋画像を表示する(S204)。表示制御部112は、指紋画像とともに、指紋画像を登録する「OK」ボタンと指紋画像の再読み取りのための「やり直し」ボタンとを、タッチパネル107に表示する。   The information processing apparatus 100 displaying the guidance image 401 waits for the user to press the home button with the thumb 402 in accordance with the instruction of the guidance image 401 (S202). When the user presses the home button (S202: Y), the fingerprint reading sensor 105 reads the user's fingerprint. The acquisition unit 109 acquires fingerprint image data of the fingerprint read by the fingerprint reading sensor 105 (S203). When the fingerprint image data is acquired, the display control unit 112 displays the fingerprint image on the touch panel 107 based on the acquired fingerprint image data (S204). Along with the fingerprint image, the display control unit 112 displays an “OK” button for registering the fingerprint image and a “redo” button for rereading the fingerprint image on the touch panel 107.

ユーザは、指紋画像を確認して、「OK」ボタン又は「やり直し」ボタンを押下する(S205)。操作検出部114が、ユーザが「やり直し」ボタンを押下したことを検出すると(S205:N)、表示制御部112は、再度、タッチパネル107にガイダンス画像401を表示する(S201)。操作検出部114が、ユーザが「OK」ボタンを押下したことを検出すると(S205:Y)、照合部110は、表示した指紋画像の指紋画像データを情報処理装置100の操作を許可されたユーザの指紋画像として登録し、記憶部113に記憶する(S206)。このようにして、ユーザの指紋の登録が終了する。   The user confirms the fingerprint image and presses the “OK” button or the “Redo” button (S205). When the operation detection unit 114 detects that the user has pressed the “Redo” button (S205: N), the display control unit 112 displays the guidance image 401 on the touch panel 107 again (S201). When the operation detection unit 114 detects that the user has pressed the “OK” button (S205: Y), the collation unit 110 uses the fingerprint image data of the displayed fingerprint image to allow the user to operate the information processing apparatus 100. Is registered as a fingerprint image and stored in the storage unit 113 (S206). In this way, registration of the user's fingerprint is completed.

指紋の登録時には、親指402の付け根から先端を通る直線403と、タッチパネル107の面の下端から上端を通る直線404の方向が一致する状態でホームボタンが押下される。本実施形態では、この登録した状態の親指402の向き(直線403)の直線404に対する回転角度を「0度」とする。   At the time of registering the fingerprint, the home button is pressed in a state where the direction of the straight line 403 passing from the base of the thumb 402 to the straight line 404 passing from the lower end of the surface of the touch panel 107 to the upper end coincides. In the present embodiment, the rotation angle of the orientation (straight line 403) of the thumb 402 in the registered state with respect to the straight line 404 is “0 degree”.

図4は、情報処理装置100がロックされた状態から指紋認証によりユーザ認証を行いロックを解除する処理を表すフローチャートである。ロックの解除の処理は、ユーザがホームボタンを押下して、指紋読取センサ105がユーザの指紋を読み取ることにより処理される。取得部109は、指紋読取センサ105で読み取った指紋画像の指紋画像データを取得する(S301)。この指紋画像は、記憶部113に既に登録された指紋画像(以下、「特録指紋画像」という。)と比較される、認証用の指紋画像(以下、「認証指紋画像」という。)である。取得部109により認証指紋画像の指紋画像データを取得すると、照合部110は、記憶部113に記憶された登録指紋画像の指紋画像データを読み出し、登録指紋画像及び認証指紋画像の各々の特徴点を抽出する(S302)。特徴点は、上述の通り、例えば、指紋の紋様の中心点、指紋の凸線の分岐点、指紋の凸線の端点等である。   FIG. 4 is a flowchart showing a process of releasing the lock by performing user authentication by fingerprint authentication from a state where the information processing apparatus 100 is locked. The unlocking process is performed when the user presses the home button and the fingerprint reading sensor 105 reads the user's fingerprint. The acquisition unit 109 acquires fingerprint image data of the fingerprint image read by the fingerprint reading sensor 105 (S301). This fingerprint image is an authentication fingerprint image (hereinafter referred to as “authentication fingerprint image”) to be compared with a fingerprint image already registered in the storage unit 113 (hereinafter referred to as “special fingerprint image”). . When the fingerprint image data of the authentication fingerprint image is acquired by the acquisition unit 109, the collation unit 110 reads the fingerprint image data of the registered fingerprint image stored in the storage unit 113, and extracts the feature points of each of the registration fingerprint image and the authentication fingerprint image. Extract (S302). As described above, the feature points are, for example, the center point of the fingerprint pattern, the branch point of the fingerprint convex line, the end point of the fingerprint convex line, and the like.

照合部110は、抽出した特徴点同士の位置関係により、認証指紋画像の各特徴点の位置と回転のずれを補正する(S303)。具体的には、照合部110は、登録指紋画像と認証指紋画像との各特徴点の位置座標の一致性が高まるように、認証指紋画像の特徴点の平行移動及び回転を行う。照合部110は、各特徴点の位置と回転ずれの補正後に、登録指紋画像の特徴点と認証指紋画像の特徴点とを1点ずつ対応付ける(S304)。照合部110は、位置座標が一致する特徴点同士を対応付けすることで登録指紋画像と認証指紋画像との照合を行う。照合部110は、対応付けした特徴点の数をカウントし、そのカウント値が閾値以上であるか否かを判断する(S305)。対応付けられた特徴点のカウント値が閾値未満であれば(S305:N)、照合部110は、照合の結果、認証指紋画像と登録指紋画像とが一致せず、ユーザ認証ができなかったと判断して処理を終了する。対応付けられた特徴点の数が閾値以上であれば(S305:Y)、照合部110は、照合の結果、認証指紋画像と登録指紋画像とが一致して、ユーザ認証ができたと判断する。情報処理装置100は、ユーザ認証できたと判断したために、ロックを解除する(S306)。   The collation unit 110 corrects the position and rotation deviation of each feature point of the authentication fingerprint image based on the positional relationship between the extracted feature points (S303). Specifically, the collation unit 110 performs parallel movement and rotation of the feature points of the authentication fingerprint image so that the coincidence of the position coordinates of each feature point of the registered fingerprint image and the authentication fingerprint image is enhanced. The collation unit 110 associates the feature points of the registered fingerprint image and the feature points of the authentication fingerprint image one by one after correcting the position and rotation deviation of each feature point (S304). The collation unit 110 collates the registered fingerprint image and the authentication fingerprint image by associating feature points having the same position coordinates. The collation unit 110 counts the number of feature points associated with each other, and determines whether the count value is equal to or greater than a threshold value (S305). If the count value of the associated feature point is less than the threshold (S305: N), the collation unit 110 determines that the authentication fingerprint image and the registered fingerprint image do not match as a result of the collation and the user authentication cannot be performed. To finish the process. If the number of associated feature points is equal to or greater than the threshold value (S305: Y), the collation unit 110 determines that the authentication fingerprint image and the registered fingerprint image coincide with each other as a result of collation, and user authentication has been performed. Since the information processing apparatus 100 determines that the user authentication is successful, the information processing apparatus 100 releases the lock (S306).

ユーザ認証後、特定部111は、ステップS303において認証指紋画像の特定点を回転した角度により、操作を行う手の指の方向を特定する(S307)。表示制御部112は、特定部111で特定した手の指の方向に基づいて、タッチパネル107に表示領域を決めて、この表示領域内にGUIオブジェクトを表示する(S308)。これにより、GUIオブジェクトは、ユーザが指で操作しやすい位置に表示される。ステップS301〜S306の処理は通常のロックの解除処理と同様であり、ユーザは、何ら特別な操作を行う必要が無い。このような通常の処理で得られる特定点の回転角度に基づいて指の方向を特定するために、ユーザの操作性が損なわれることなく、GUIオブジェクトがユーザの指で操作しやすい位置に表示される。   After the user authentication, the specifying unit 111 specifies the direction of the finger of the hand performing the operation based on the angle obtained by rotating the specific point of the authentication fingerprint image in step S303 (S307). The display control unit 112 determines a display area on the touch panel 107 based on the direction of the finger of the hand specified by the specifying unit 111, and displays a GUI object in the display area (S308). Thereby, the GUI object is displayed at a position where the user can easily operate with a finger. The processing in steps S301 to S306 is similar to the normal unlocking processing, and the user does not need to perform any special operation. Since the direction of the finger is specified based on the rotation angle of the specific point obtained by such normal processing, the GUI object is displayed at a position where it can be easily operated by the user's finger without impairing the user's operability. The

本実施形態では、記憶部113に、指の方向(回転角度)に対応付けて段階的に定められたGUIオブジェクトの表示領域の情報が記憶される。従って、表示制御部112は、記憶部113に記憶されたこの情報に基づいて、特定した指の方向に対応付けられた表示領域を、GUIオブジェクトの表示領域に決定することができる。具体的には、「−180度〜180度」の回転角度の絶対値が小さいほど、タッチパネル107にGUIオブジェクトを表示する領域が狭くなるように表示領域が決められる。特定した指の方向に対応付けられた表示領域がない場合には、特定した指の方向に近い指の方向に対応付けられた表示領域、或いは特定した指の方向よりも回転角度が小さい指の方向に対応付けられた表示領域を、GUIオブジェクトの表示領域に決定する。本実施形態では、図3の親指402の方向(直線403と直線404の成す角度)を「0度」とし、「−180度〜180度の範囲で、時計回りに何度回転すれば0度になるか」を、指の方向を示す情報として用いる。   In the present embodiment, the storage unit 113 stores information on the display area of the GUI object determined in a stepwise manner in association with the finger direction (rotation angle). Therefore, the display control unit 112 can determine the display area associated with the specified finger direction as the display area of the GUI object based on this information stored in the storage unit 113. Specifically, the display area is determined such that the area where the GUI object is displayed on the touch panel 107 becomes narrower as the absolute value of the rotation angle “−180 degrees to 180 degrees” is smaller. If there is no display area associated with the identified finger direction, the display area associated with the finger direction close to the identified finger direction or the finger whose rotation angle is smaller than the identified finger direction The display area associated with the direction is determined as the GUI object display area. In the present embodiment, the direction of the thumb 402 in FIG. 3 (the angle formed by the straight line 403 and the straight line 404) is set to “0 degree”, and “0 degree when rotated clockwise within the range of −180 degrees to 180 degrees”. Is used as information indicating the direction of the finger.

図5は、ユーザによる情報処理装置100のロック解除時の動作を表す図である。図5(a)と図5(b)とでは、ユーザが情報処理装置100を持つ位置が異なる。図5(a)の手の方が図5(b)の手よりも情報処理装置100を深く握り込んでいる形になっている。そのために、図5(a)の手の親指502の方が図5(b)の手の親指504よりもディスプレイ上の届く範囲が広くなる。   FIG. 5 is a diagram illustrating an operation when the information processing apparatus 100 is unlocked by the user. FIG. 5A and FIG. 5B differ in the position where the user has the information processing apparatus 100. The hand shown in FIG. 5A holds the information processing apparatus 100 deeper than the hand shown in FIG. 5B. For this reason, the thumb 502 in FIG. 5A has a wider reach on the display than the thumb 504 in FIG. 5B.

図5(a)では、親指502の付け根から先端を通る直線505が、指紋画像を登録するときの親指の付け根から先端を通る直線403(図3参照)との間でなす角が「90度」である。つまり直線505は、直線403に平行なタッチパネル107の面の下端から上端を通る直線404に対して「90度」回転している。親指502から取得された指紋画像は、時計回りに「−90度」回転することで、記憶部113に登録された登録指紋画像と同じ向きの画像になる。図4のステップS303の処理の際に、照合部110は、親指502から取得された認証指紋画像を、時計回りに「−90度」回転する。   In FIG. 5A, the angle formed between the straight line 505 passing through the tip from the base of the thumb 502 and the straight line 403 passing through the tip from the base of the thumb when registering the fingerprint image (see FIG. 3) is “90 degrees. It is. That is, the straight line 505 is rotated “90 degrees” with respect to the straight line 404 passing through the upper end from the lower end of the surface of the touch panel 107 parallel to the straight line 403. The fingerprint image acquired from the thumb 502 is rotated in the clockwise direction by “−90 degrees”, so that the image has the same orientation as the registered fingerprint image registered in the storage unit 113. In the process of step S <b> 303 in FIG. 4, the collation unit 110 rotates the authentication fingerprint image acquired from the thumb 502 by “−90 degrees” clockwise.

図5(b)では、親指504の付け根から先端を通る直線506が、指紋画像を登録するときの親指の付け根から先端を通る直線403(図3参照)との間でなす角が「60度」である。つまり直線506は、直線403に平行なタッチパネル107の面の下端から上端を通る直線404に対して「60度」回転している。親指504から取得された指紋画像は、時計回りに「−60度」回転することで、記憶部113に登録された登録指紋画像と同じ向きの画像になる。図4のステップS303の処理の際に、照合部110は、親指502から取得された認証指紋画像を、時計回りに「−60度」回転する。   In FIG. 5B, the angle formed between the straight line 506 passing through the tip from the base of the thumb 504 and the straight line 403 passing through the tip from the base of the thumb when registering the fingerprint image (see FIG. 3) is “60 degrees. It is. That is, the straight line 506 is rotated by “60 degrees” with respect to the straight line 404 passing through the upper end from the lower end of the surface of the touch panel 107 parallel to the straight line 403. The fingerprint image acquired from the thumb 504 is rotated in the clockwise direction by “−60 degrees”, so that the image has the same orientation as the registered fingerprint image registered in the storage unit 113. In the process of step S303 in FIG. 4, the collation unit 110 rotates the authentication fingerprint image acquired from the thumb 502 “−60 degrees” clockwise.

図5(a)のように直線505と直線404とのなす角が「90度」である場合、親指502の届く範囲が境界線501で表される。GUIオブジェクトは、境界線501内の領域に表示される。図5(b)のように直線506と直線404とのなす角が「60度」である場合、親指の届く範囲が境界線503で表される。GUIオブジェクトは、境界線503内の領域に表示される。つまり、直線404となす角が大きいほど、親指が届く範囲が大きくなり、GUIオブジェクトの表示可能な範囲が大きくなる。   As shown in FIG. 5A, when the angle formed by the straight line 505 and the straight line 404 is “90 degrees”, the reachable range of the thumb 502 is represented by a boundary line 501. The GUI object is displayed in an area within the boundary line 501. As shown in FIG. 5B, when the angle formed by the straight line 506 and the straight line 404 is “60 degrees”, the range that the thumb can reach is represented by a boundary line 503. The GUI object is displayed in an area within the boundary line 503. That is, the larger the angle formed with the straight line 404, the larger the range that the thumb can reach, and the larger the displayable range of the GUI object.

以上のように、親指の指紋認証により情報処理装置100のロックを解除するという必須の操作により、GUIオブジェクトを表示する領域を決めることができる。ユーザは、GUIオブジェクトの表示領域を指紋認証時の手の向き(親指の向き)により変更することができ、情報処理装置100を片手で操作する際の操作性が向上する。   As described above, the area for displaying the GUI object can be determined by the essential operation of unlocking the information processing apparatus 100 by fingerprint authentication of the thumb. The user can change the display area of the GUI object according to the direction of the hand at the time of fingerprint authentication (the direction of the thumb), and the operability when operating the information processing apparatus 100 with one hand is improved.

本実施形態では、ホームボタンに設けられた指紋読取センサ105を利用して、ホームボタンを押下したときの指(指紋)の向きによって、情報処理装置100を持つ手の指の方向を特定する例を説明した。指紋に代えて、他の手に関する生体情報を用いることもできる。この場合、ホームボタンに生体情報を画像(生体画像)として取得するセンサを設ける。例えば指の静脈の画像等を利用して手の指の方向を特定することができる。このように指紋画像以外の生体画像を用いる場合であっても、ロック解除という必須の操作だけで、GUIオブジェクトの表示領域を片手の親指の届く範囲に設定して、操作性を向上させることができる。   In this embodiment, an example of specifying the direction of the finger of the hand holding the information processing apparatus 100 based on the direction of the finger (fingerprint) when the home button is pressed using the fingerprint reading sensor 105 provided on the home button. Explained. Instead of the fingerprint, biometric information about other hands can be used. In this case, the home button is provided with a sensor that acquires biometric information as an image (biological image). For example, the direction of the finger of a hand can be specified using an image of a finger vein or the like. Even when a biometric image other than a fingerprint image is used in this way, it is possible to improve the operability by setting the display area of the GUI object within the reach of the thumb of one hand only by an essential operation of unlocking. it can.

<変形例>
ユーザが、ホームボタンを押下する指の方向と、そのときのタッチパネル107上における指の可動範囲を予め設定しておけば、ユーザの手の大きさや情報処理装置100の持ち方の癖に対応することが可能となり、より操作性を向上させることが可能となる。以下、GUIオブジェクトの表示領域を、ユーザが予め設定する場合について説明する。
<Modification>
If the user sets in advance the direction of the finger pressing the home button and the movable range of the finger on the touch panel 107 at that time, it corresponds to the size of the user's hand and the habit of holding the information processing apparatus 100. Therefore, the operability can be further improved. Hereinafter, a case where the user sets the display area of the GUI object in advance will be described.

図6は、この場合の情報処理装置100の機能ブロック図である。これらの機能ブロックは、CPU101がコンピュータプログラムを実行することで実現され、図1(b)の構成に領域設定部601を追加した構成である。同じ機能ブロックについては、説明を省略する。領域設定部601は、ユーザがタッチパネル107の表示画面を指でなぞった軌跡に基づいてGUIオブジェクトの表示領域を設定する。領域設定部601は、例えば、タッチパネル107のディスプレイの表示画面のうち、ユーザがなぞった軌跡よりホームボタン側の範囲をGUIオブジェクトの表示領域として登録する。   FIG. 6 is a functional block diagram of the information processing apparatus 100 in this case. These functional blocks are realized by the CPU 101 executing a computer program, and are configured by adding an area setting unit 601 to the configuration of FIG. The description of the same functional block is omitted. The area setting unit 601 sets the display area of the GUI object based on the locus of the user tracing the display screen of the touch panel 107 with a finger. For example, the area setting unit 601 registers, as a GUI object display area, a range on the home button side from the locus traced by the user on the display screen of the touch panel 107.

図7は、このような情報処理装置100によりGUIオブジェクトの表示領域を登録する処理を表すフローチャートである。情報処理装置100は、本体設定や表示領域の登録アプリケーションプログラムを有しており、このアプリケーションプログラムが起動されることで、ユーザによるGUIオブジェクトの表示領域の登録が可能になる。アプリケーションプログラムが起動されると、表示制御部112は、タッチパネル107のディスプレイに、ユーザにGUIオブジェクトの表示領域の設定方法を説明するためのガイダンス画像を表示する(S701)。図8(a)は、表示するガイダンス画像801の例示図である。ガイダンス画像801は、ユーザにGUIオブジェクトの表示領域の登録方法を指示する。表示制御部112は、ガイダンス画像801の他に、「OK」ボタン及び「Cancel」ボタンを表示する。   FIG. 7 is a flowchart showing processing for registering the display area of the GUI object by such an information processing apparatus 100. The information processing apparatus 100 has an application program for registering a main body setting and a display area. When this application program is activated, the display area of the GUI object can be registered by the user. When the application program is activated, the display control unit 112 displays a guidance image for explaining a method for setting the display area of the GUI object to the user on the display of the touch panel 107 (S701). FIG. 8A is an exemplary diagram of a guidance image 801 to be displayed. The guidance image 801 instructs the user how to register the display area of the GUI object. In addition to the guidance image 801, the display control unit 112 displays an “OK” button and a “Cancel” button.

ユーザがガイダンス画像801の指示に従ってディスプレイの表示画面上を親指802でなぞることで、GUIオブジェクトの表示領域の登録が行われる。親指802でなぞった軌跡は、親指802が届く範囲の境界線803を表す。ユーザがディスプレイの表示画面上を親指802でなぞり、「OK」ボタンを押下することで、操作検出部114は、境界線803を検出する(S702:Y)。ユーザは、表示画面をなぞる際にホームボタンを押下する。領域設定部601は、操作検出部114で検出した境界線803に基づいてタッチパネル107上のGUIオブジェクトの表示領域を登録する(S703)。これによりGUIオブジェクトの表示領域が、ホームボタンを押下した際に指紋読取センサ105が取得した指紋画像の回転角度に対応付けて、記憶部113に記憶される。なお、「Cancel」ボタンが押下されると、操作検出部114は、表示領域を登録することなく処理を終了する(S702:N)。   When the user traces the display screen of the display with the thumb 802 in accordance with the instruction of the guidance image 801, the display area of the GUI object is registered. The locus traced with the thumb 802 represents a boundary line 803 within a range where the thumb 802 can reach. When the user traces the display screen of the display with the thumb 802 and presses the “OK” button, the operation detection unit 114 detects the boundary line 803 (S702: Y). The user presses the home button when tracing the display screen. The area setting unit 601 registers the display area of the GUI object on the touch panel 107 based on the boundary line 803 detected by the operation detection unit 114 (S703). Thereby, the display area of the GUI object is stored in the storage unit 113 in association with the rotation angle of the fingerprint image acquired by the fingerprint reading sensor 105 when the home button is pressed. When the “Cancel” button is pressed, the operation detection unit 114 ends the process without registering the display area (S702: N).

本実施形態では、ユーザがディスプレイの表示画面上をなぞった軌跡を、ユーザが情報処理装置100を持ちながら親指802で無理なく触ることができる境界線803とみなしている。境界線803よりもホームボタン側の範囲がGUIオブジェクトの表示領域となる。ユーザは、このような処理を、情報処理装置100を把持する手の向きを変えながら、複数回行う。例えば、ユーザは、図5の境界線501、503のようにディスプレイの表示画面上をなぞる。これにより、情報処理装置100は、親指802がディスプレイの表示画面上をなぞった軌跡に応じた複数のGUIオブジェクトの表示領域を記憶する。複数のGUIオブジェクトの表示領域を記憶した情報処理装置100は、ロック解除時の親指の方向に応じて、記憶した表示領域から最適な表示領域を算出することができる。図8(b)は、最適なGUIオブジェクトの表示領域の算出処理の説明図である。   In the present embodiment, the locus traced by the user on the display screen of the display is regarded as a boundary line 803 that the user can comfortably touch with the thumb 802 while holding the information processing apparatus 100. A range closer to the home button than the boundary line 803 is a display area of the GUI object. The user performs such processing a plurality of times while changing the direction of the hand holding the information processing apparatus 100. For example, the user traces on the display screen of the display like the boundary lines 501 and 503 in FIG. As a result, the information processing apparatus 100 stores display areas of a plurality of GUI objects corresponding to the locus of the thumb 802 tracing the display screen of the display. The information processing apparatus 100 that stores the display areas of a plurality of GUI objects can calculate the optimum display area from the stored display areas according to the direction of the thumb when unlocking. FIG. 8B is an explanatory diagram of the calculation process of the display area of the optimal GUI object.

境界線811は、図5(a)の状態でユーザがディスプレイの表示画面上をなぞった軌跡を表す。境界線812は、図5(b)の状態でユーザがディスプレイの表示画面上をなぞった軌跡を表す。境界線811、812によるGUIオブジェクトの表示領域が、そのときの親指の回転角度に関連付けられて、予め記憶部113に記憶される。この状態からロック解除の操作がなされ取得部109が指紋読取センサ105から認証指紋画像を取得すると、領域設定部601は、認証指紋画像に基づいて、GUIオブジェクトの表示領域を算出する。領域設定部601は、認証指紋画像に対して図4のステップS303により行われる回転処理の回転角度を確認し、この回転角度に関連付けられたGUIオブジェクトの表示領域を記憶部113から読み出す。関連付けられたGUIオブジェクトの表示領域が無い場合、記憶されている回転角度から、確認した回転角度に近い回転角度を特定し、この特定した回転角度からGUIオブジェクトの表示領域を算出する。例えば、境界線813は、境界線811、812の間に位置するが、関連付けられたGUIオブジェクトの表示領域は、記憶部113に記憶されていない。この場合、境界線811、812と境界線813との関係から、GUIオブジェクトの表示領域を算出する。   A boundary line 811 represents a locus traced by the user on the display screen of the display in the state of FIG. A boundary line 812 represents a locus traced by the user on the display screen in the state of FIG. The display area of the GUI object by the boundary lines 811 and 812 is stored in advance in the storage unit 113 in association with the rotation angle of the thumb at that time. When the unlocking operation is performed from this state and the acquisition unit 109 acquires the authentication fingerprint image from the fingerprint reading sensor 105, the region setting unit 601 calculates the display region of the GUI object based on the authentication fingerprint image. The area setting unit 601 confirms the rotation angle of the rotation process performed in step S303 of FIG. 4 on the authentication fingerprint image, and reads the display area of the GUI object associated with the rotation angle from the storage unit 113. If there is no associated GUI object display area, a rotation angle close to the confirmed rotation angle is specified from the stored rotation angle, and the GUI object display area is calculated from the specified rotation angle. For example, the boundary line 813 is located between the boundary lines 811 and 812, but the display area of the associated GUI object is not stored in the storage unit 113. In this case, the display area of the GUI object is calculated from the relationship between the boundary lines 811 and 812 and the boundary line 813.

以上のように、片手の親指の回転角度に基づいてGUIオブジェクトの表示領域を設定する。これにより、ユーザ毎の手の大きさの違いや情報処理装置100の支持のし方の癖にも対応し、操作性を向上させることができる。また、予め設定した値から、設定されていない値の領域を算出することで、設定操作を細かく繰り返すというユーザの煩わしさを低減させることができる。   As described above, the GUI object display area is set based on the rotation angle of the thumb of one hand. Accordingly, it is possible to cope with the difference in the size of the hand for each user and the habit of how to support the information processing apparatus 100 and to improve the operability. Further, by calculating a region of values that are not set from preset values, it is possible to reduce the user's troublesomeness of repeating the setting operation finely.

<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other embodiments>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the above-described embodiment is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads and executes the program. It is processing.

105…指紋読取センサ、107…タッチパネル、108…ボタン操作部、109…取得部、110…照合部、111…特定部、112…表示制御部、113…記憶部、114…操作検出部、601…領域設定部   DESCRIPTION OF SYMBOLS 105 ... Fingerprint reading sensor 107 ... Touch panel 108 ... Button operation part 109 ... Acquisition part 110 ... Collation part 111 ... Identification part 112 ... Display control part 113 ... Storage part 114 ... Operation detection part 601 ... Area setting section

Claims (12)

オブジェクトを表示する表示画面であるタッチパネルであって、ユーザの操作指示を受け付ける操作受付手段と、
ユーザの指の生体情報を表す第1の画像を保持する保持手段と、
前記ユーザの指の生体情報を読み取り、読み取った生体情報を表す第2の画像を取得するセンサと、
前記センサで読み取った前記第2の画像と前記第1の画像との特徴を照合する照合手段と、
前記照合手段の照合の結果、前記第1の画像と前記第2の画像との特徴が一致すると見做される場合、前記第1の画像に対する前記第2の画像の回転角度に基づいて、前記センサを操作した指の方向を特定し、特定した指の方向に基づいて前記表示画面上の前記オブジェクトと前記指との距離が初期状態より近い位置に表示されるように前記オブジェクトの表示領域を決定する決定手段と、
前記表示領域に前記オブジェクトを表示させる表示制御手段と、を備えることを特徴とする、
情報処理装置。
An operation receiving means for receiving a user operation instruction, which is a touch panel that is a display screen for displaying an object;
Holding means for holding a first image representing biometric information of the user's finger;
A sensor that reads biometric information of the user's finger and acquires a second image representing the read biometric information;
Collating means for collating characteristics of the second image read by the sensor and the first image;
As a result of collation by the collating means, when it is considered that the characteristics of the first image and the second image match, based on the rotation angle of the second image with respect to the first image, The direction of the finger operating the sensor is specified, and the display area of the object is displayed so that the distance between the object and the finger on the display screen is closer to the initial state based on the specified finger direction. A decision means to decide;
Display control means for displaying the object in the display area,
Information processing device.
前記保持手段は、予め定められた方向を向く指から前記センサにより取得した画像を、前記第1の画像として保持することを特徴とする、
請求項1記載の情報処理装置。
The holding means holds an image acquired by the sensor from a finger facing a predetermined direction as the first image.
The information processing apparatus according to claim 1.
前記決定手段は、前記予め定められた方向と前記特定した指の方向とのなす角が小さいほど、前記表示領域を狭くすることを特徴とする、
請求項2記載の情報処理装置。
The determination means narrows the display area as the angle formed by the predetermined direction and the specified finger direction is smaller.
The information processing apparatus according to claim 2.
前記保持手段は、複数の指の方向と複数の表示領域とを対応付けて保持しており、
前記決定手段は、前記保持手段を参照して、前記特定した指の方向に対応付けられた表示領域を決定することを特徴とする、
請求項1〜3のいずれか1項記載の情報処理装置。
The holding unit holds a plurality of finger directions and a plurality of display areas in association with each other,
The determining means refers to the holding means to determine a display area associated with the identified finger direction,
The information processing apparatus according to claim 1.
前記保持手段は、前記ユーザが前記表示画面を指でなぞった軌跡に基づく前記オブジェクトの表示領域を、前記指の方向に対応付けて保持しており、
前記決定手段は、前記保持手段を参照して、前記特定した指の方向に対応付けられた表示領域を決定することを特徴とする、
請求項4記載の情報処理装置。
The holding means holds the display area of the object based on a locus of the user tracing the display screen with a finger in association with the direction of the finger,
The determining means refers to the holding means to determine a display area associated with the identified finger direction,
The information processing apparatus according to claim 4.
前記決定手段は、前記特定した指の方向に対応付けられた表示領域が前記保持手段に保持されていなければ、前記特定した指の方向に近い指の方向に対応付けられた表示領域に基づいて、前記表示領域を決定することを特徴とする、
請求項5記載の情報処理装置。
If the display unit associated with the specified finger direction is not held by the holding unit, the determining unit is configured to display the display region associated with the finger direction close to the identified finger direction. , Determining the display area,
The information processing apparatus according to claim 5.
前記照合手段は、前記第1の画像及び前記第2の画像の各々から特徴点を抽出して、各特徴点の位置及び回転のずれを補正することで前記回転角度を算出し、前記第1の画像の特徴点及び前記第2の画像の特徴点を照合することで、ユーザ認証を行い、
前記表示制御手段は、前記ユーザ認証の結果、ユーザが認証されたときに前記表示領域に前記オブジェクトを表示させることを特徴とする、
請求項1〜6のいずれか1項記載の情報処理装置。
The collating means calculates the rotation angle by extracting a feature point from each of the first image and the second image, correcting the position and rotation shift of each feature point, and calculating the first rotation angle. The user authentication is performed by comparing the feature point of the image and the feature point of the second image,
The display control means displays the object in the display area when a user is authenticated as a result of the user authentication.
The information processing apparatus according to claim 1.
前記保持手段は、前記第1の画像として前記ユーザの指紋の画像を保持し、
前記センサは、前記第2の画像として前記ユーザの指紋の画像を取得することを特徴とする、
請求項1〜7のいずれか1項記載の情報処理装置。
The holding unit holds an image of the user's fingerprint as the first image,
The sensor acquires an image of the user's fingerprint as the second image,
The information processing apparatus according to claim 1.
前記センサは、前記操作受付手段の近傍に設けられることを特徴とする、
請求項1〜8のいずれか1項記載の情報処理装置。
The sensor is characterized in that provided in the near vicinity of the operation acceptance means,
The information processing apparatus according to claim 1.
オブジェクトを表示する表示画面であるタッチパネルであって、ユーザの操作指示を受け付ける操作受付手段と、ユーザの指の生体情報を表す第1の画像を保持する保持手段と、前記ユーザの指の生体情報を読み取り、読み取った生体情報を表す第2の画像を取得するセンサと、を備えた情報処理装置により実行される方法であって、
前記第1の画像と前記第2の画像との特徴を照合するステップと、
照合の結果、前記第1の画像と前記第2の画像との特徴が一致すると見做される場合、前記第1の画像に対する前記第2の画像の回転角度に基づいて、前記センサを操作した指の方向を特定するステップと、
特定した指の方向に基づいて前記表示画面上の前記オブジェクトと前記指との距離が初期状態より近い位置に表示されるように前記オブジェクトの表示領域を決定し、決定した前記表示領域に前記オブジェクトを表示するステップと、を含むことを特徴とする、
情報処理方法。
A touch panel that is a display screen for displaying an object, an operation receiving unit that receives a user's operation instruction, a holding unit that holds a first image representing the biological information of the user's finger, and the biological information of the user's finger And a sensor that acquires a second image representing the read biological information, and is executed by an information processing apparatus comprising:
Collating features of the first image and the second image;
As a result of the collation, when it is considered that the features of the first image and the second image match, the sensor is operated based on the rotation angle of the second image with respect to the first image. Identifying the direction of the finger;
Based on the specified finger direction, the display area of the object is determined so that the distance between the object and the finger on the display screen is closer to the initial state, and the object is displayed in the determined display area. And a step of displaying
Information processing method.
オブジェクトを表示する表示画面であるタッチパネルであって、ユーザの操作指示を受け付ける操作受付手段と、前記ユーザの指の生体情報を読み取り、読み取った生体情報を表す第2の画像を取得するセンサと、を備えたコンピュータを、
ユーザの指の生体情報を表す第1の画像を保持する保持手段、
前記センサで読み取った前記第2の画像と前記第1の画像との特徴を照合する照合手段、
前記照合手段の照合の結果、前記第1の画像と前記第2の画像との特徴が一致すると見做される場合、前記第1の画像に対する前記第2の画像の回転角度に基づいて、前記センサを操作した指の方向を特定し、特定した指の方向に基づいて前記表示画面上の前記オブジェクトと前記指との距離が初期状態より近い位置に表示されるように前記オブジェクトの表示領域を決定する決定手段、
前記表示領域に前記オブジェクトを表示させる表示制御手段、
として機能させるためのコンピュータプログラム。
A touch panel that is a display screen for displaying an object, an operation receiving unit that receives a user operation instruction, a sensor that reads the biological information of the user's finger, and acquires a second image representing the read biological information; A computer with
Holding means for holding a first image representing biometric information of the user's finger;
Collation means for collating characteristics of the second image read by the sensor and the first image;
As a result of collation by the collating means, when it is considered that the characteristics of the first image and the second image match, based on the rotation angle of the second image with respect to the first image, The direction of the finger operating the sensor is specified, and the display area of the object is displayed so that the distance between the object and the finger on the display screen is closer to the initial state based on the specified finger direction. Decision means to decide,
Display control means for displaying the object in the display area;
Computer program to function as.
請求項11記載のコンピュータプログラムが記録されたコンピュータが読み取り可能な記録媒体。   A computer-readable recording medium on which the computer program according to claim 11 is recorded.
JP2014027561A 2014-02-17 2014-02-17 Information processing apparatus, information processing method, computer program, and recording medium Expired - Fee Related JP6272069B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014027561A JP6272069B2 (en) 2014-02-17 2014-02-17 Information processing apparatus, information processing method, computer program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014027561A JP6272069B2 (en) 2014-02-17 2014-02-17 Information processing apparatus, information processing method, computer program, and recording medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017247776A Division JP2018045729A (en) 2017-12-25 2017-12-25 Information processing apparatus, information processing method, computer program, and recording medium

Publications (3)

Publication Number Publication Date
JP2015153231A JP2015153231A (en) 2015-08-24
JP2015153231A5 JP2015153231A5 (en) 2017-03-16
JP6272069B2 true JP6272069B2 (en) 2018-01-31

Family

ID=53895380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014027561A Expired - Fee Related JP6272069B2 (en) 2014-02-17 2014-02-17 Information processing apparatus, information processing method, computer program, and recording medium

Country Status (1)

Country Link
JP (1) JP6272069B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6483452B2 (en) * 2015-01-29 2019-03-13 京セラ株式会社 Electronic device, control method, and control program
JP6096854B1 (en) 2015-09-28 2017-03-15 京セラ株式会社 Electronic device and method of operating electronic device
JP2017151551A (en) * 2016-02-22 2017-08-31 レノボ・シンガポール・プライベート・リミテッド Information processing apparatus, information processing method, and computer-executable program
JP2018014111A (en) * 2017-08-03 2018-01-25 京セラ株式会社 Electronic apparatus
JP2019212116A (en) * 2018-06-06 2019-12-12 株式会社ケアコム Mobile terminal screen display control device

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003178033A (en) * 2001-09-06 2003-06-27 Nippon Telegr & Teleph Corp <Ntt> Authentication method, authentication system and authentication token
JP4385864B2 (en) * 2004-06-23 2009-12-16 日本電気株式会社 Mobile terminal and information input method
WO2006126310A1 (en) * 2005-05-27 2006-11-30 Sharp Kabushiki Kaisha Display device
JP4786292B2 (en) * 2005-10-26 2011-10-05 シャープ株式会社 Information processing apparatus, hierarchical information output method, and program
JP2010020716A (en) * 2008-07-14 2010-01-28 King Jim Co Ltd Finger data authentication device and portable apparatus
US8604364B2 (en) * 2008-08-15 2013-12-10 Lester F. Ludwig Sensors, algorithms and applications for a high dimensional touchpad
JP4683098B2 (en) * 2008-09-16 2011-05-11 セイコーエプソン株式会社 Input device, information device, and control information generation method
KR101078380B1 (en) * 2009-03-23 2011-10-31 주식회사 코아로직 Apparatus and Method for Providing Virtual Keyboard
JP5328539B2 (en) * 2009-07-21 2013-10-30 京セラ株式会社 Input device
JP5507494B2 (en) * 2011-05-13 2014-05-28 レノボ・シンガポール・プライベート・リミテッド Portable electronic device with touch screen and control method
US20130287272A1 (en) * 2012-04-29 2013-10-31 Yang Lu Methods and Apparatus of Integrating Fingerprint Imagers with Touch Panels and Displays
JP2013235488A (en) * 2012-05-10 2013-11-21 Canon Inc Information processing apparatus, and method and program of controlling the same

Also Published As

Publication number Publication date
JP2015153231A (en) 2015-08-24

Similar Documents

Publication Publication Date Title
US11755137B2 (en) Gesture recognition devices and methods
KR102223416B1 (en) User-authentication gestures
KR102180226B1 (en) Electronic device and method for securing using complex biometrics
JP6272069B2 (en) Information processing apparatus, information processing method, computer program, and recording medium
US9626099B2 (en) Multi-finger sliding detection using fingerprints to generate different events
US9916017B2 (en) Smart eraser to erase digital strokes
JP5604279B2 (en) Gesture recognition apparatus, method, program, and computer-readable medium storing the program
US9378427B2 (en) Displaying handwritten strokes on a device according to a determined stroke direction matching the present direction of inclination of the device
JP2016530602A (en) Improving user authentication or improving user authentication
TW201432520A (en) Operating method and electronic device
US20160210452A1 (en) Multi-gesture security code entry
JP2008192092A (en) Touch panel device, information processor and program
US9880634B2 (en) Gesture input apparatus, gesture input method, and program for wearable terminal
US20150161369A1 (en) Grip signature authentication of user of device
KR102147086B1 (en) Apparatus and method for verifying handwritten signature
JP2014139759A (en) Information device and information processing method
US10331333B2 (en) Touch digital ruler
US20120256860A1 (en) Directional Finger Recognition Authoring
JP6060501B2 (en) Handwriting management program and recording display device
JP2015153231A5 (en)
JP2015018413A (en) Portable terminal, image display method, and program
JP5958319B2 (en) Information processing apparatus, program, and method
JP6033061B2 (en) Input device and program
JP2018045729A (en) Information processing apparatus, information processing method, computer program, and recording medium
TW201504876A (en) Palm rejection method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171228

R151 Written notification of patent or utility model registration

Ref document number: 6272069

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees