JP2013047859A - Authentication device and authentication method - Google Patents

Authentication device and authentication method Download PDF

Info

Publication number
JP2013047859A
JP2013047859A JP2009294978A JP2009294978A JP2013047859A JP 2013047859 A JP2013047859 A JP 2013047859A JP 2009294978 A JP2009294978 A JP 2009294978A JP 2009294978 A JP2009294978 A JP 2009294978A JP 2013047859 A JP2013047859 A JP 2013047859A
Authority
JP
Japan
Prior art keywords
image
information
authentication
input
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009294978A
Other languages
Japanese (ja)
Inventor
Kenji Masaki
賢治 正木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2009294978A priority Critical patent/JP2013047859A/en
Priority to PCT/JP2010/072683 priority patent/WO2011078056A1/en
Publication of JP2013047859A publication Critical patent/JP2013047859A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/36User authentication by graphic or iconic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Abstract

PROBLEM TO BE SOLVED: To achieve convenience of a user and strength of security in an authentication device.SOLUTION: When an image 950 for correction is displayed, and information for dividing an area is input to an input device, a line 800 indicating an input trajectory is displayed on a display part. Then, the display area is divided into two with the line 800 as a boundary, and a certain area 801 and an area 802 are generated. When the area 801 is selected as a segmentation area, the image for correction is updated such that the sun 911 whose whole part is displayed in the area 801 is deleted, and the updated image (image 951 for correction) is displayed. Also, the updated images (image 952 for correction and image 953 for correction) are successively displayed in response to a further instruction. Since the image 953 for correction is coincident with an image for authentication, processing for authentication ends when the image 953 for correction is displayed.

Description

本発明は、認証装置および認証方法に関し、特に、外部から入力された情報に基づいて認証を行なう認証装置および認証方法に関する。   The present invention relates to an authentication device and an authentication method, and more particularly to an authentication device and an authentication method for performing authentication based on information input from the outside.

従来から、システムにおいて電子的手法により個人認証を行なうための種々の技術が開示されている。   Conventionally, various techniques for performing personal authentication by electronic methods in a system have been disclosed.

たとえば、特許文献1には、ユーザ認証の際に、画面に複数の画像を表示させ、当該複数の画像から特定の画像を選択させる方法が開示されている。   For example, Patent Document 1 discloses a method of displaying a plurality of images on a screen and selecting a specific image from the plurality of images during user authentication.

特開2005−71202号公報JP-A-2005-71202

しかしながら、画面の特定の位置をタッチするというユーザの行為は、当該行為を見た第三者に当該行為の内容(つまり、タッチ位置)を推定されやすく、「なりすまし」に弱いという問題が生じていた。   However, the user's act of touching a specific position on the screen has a problem that the third party who sees the act easily estimates the content of the act (that is, the touch position) and is vulnerable to “spoofing”. It was.

ここで、選択した画像についての第三者による推定を困難にするために、候補として画面に表示する画像の数を増やすことが考えられる。   Here, in order to make it difficult for a third party to estimate the selected image, it is conceivable to increase the number of images displayed on the screen as candidates.

しかしながら、画面に表示される画像の数を増加させると、画面のサイズとの関係から各画像の画面上でのサイズが小さくなり、ユーザにとって見難いものとなるため、利便性に欠けるという問題が生じる。   However, if the number of images displayed on the screen is increased, the size of each image on the screen is reduced due to the relationship with the size of the screen, making it difficult for the user to view. Arise.

また、近年、携帯電話における暗証番号として、4桁から8桁の数字の組み合わせを入力することが要求されている。つまり、少なくとも10個の組合せの中から1の組合せが選択されて暗証番号とされていることとなる。したがって、同等のセキュリティ強度を1つの画像を選択することによって認証を行なうシステムにおいて確保しようとすると、10000個の画像を表示させる必要が生じることとなる。 In recent years, it has been required to input a combination of 4 to 8 digits as a personal identification number in a mobile phone. That is, one combination is selected from at least 10 4 combinations and used as a personal identification number. Therefore, if an attempt is made to secure an equivalent security strength in a system that performs authentication by selecting one image, it is necessary to display 10,000 images.

10000個程度の画像を、ユーザが各画像を認識できる程度の大きさで表示するためには非常に大きな表示画面が必要となり、実用化が難しいと考えられる。   In order to display about 10,000 images in a size that allows the user to recognize each image, a very large display screen is required, which is considered difficult to put into practical use.

以上の次第で、従来のシステムでは、ユーザの利便性とセキュリティ強度の両立が困難であった。   As described above, in the conventional system, it is difficult to achieve both user convenience and security strength.

本発明は、係る実情に鑑み考え出されたものであり、その目的は、認証装置において、ユーザの利便性とセキュリティ強度の両立を図ることである。   The present invention has been conceived in view of such circumstances, and an object thereof is to achieve both user convenience and security strength in an authentication apparatus.

本発明に従った認証装置は、認証用の画像を記憶する記憶手段と、画像を表示する表示手段と、表示手段に表示された画像に対して情報を入力するための入力手段と、入力手段に入力された情報に基づいて、表示手段に表示された画像の一部の領域を指定する情報を生成する生成手段と、生成手段によって生成された情報に基づいて、表示手段に表示された画像を更新する更新手段と、更新手段によって更新された画像と認証用の画像が一致するか否かを判定する判定手段とを備える。   An authentication apparatus according to the present invention includes a storage unit that stores an authentication image, a display unit that displays an image, an input unit that inputs information to the image displayed on the display unit, and an input unit. Based on the information input to the generating means for generating information for specifying a partial area of the image displayed on the display means, and the image displayed on the display means based on the information generated by the generating means Update means for updating the image, and determination means for determining whether the image updated by the update means matches the authentication image.

また、本発明の認証装置では、入力手段は、表示手段に対して軌道を描く情報を入力することが好ましい。   In the authentication apparatus of the present invention, it is preferable that the input means inputs information for drawing a trajectory to the display means.

また、本発明の認証装置では、生成手段は、入力手段に入力された情報を補完することにより連続した線分の情報を生成することが好ましい。   In the authentication apparatus of the present invention, it is preferable that the generation unit generates continuous line segment information by complementing information input to the input unit.

また、本発明の認証装置は、表示手段に、複数のオブジェクトを含む画像を表示させる表示制御手段をさらに備え、生成手段は、表示手段に表示された画像に含まれるオブジェクトを指定する情報を生成することが好ましい。   The authentication apparatus according to the present invention further includes a display control unit that causes the display unit to display an image including a plurality of objects, and the generation unit generates information specifying an object included in the image displayed on the display unit. It is preferable to do.

また、本発明の認証装置では、更新手段は、表示手段に表示された画像の中の一部の領域の画像を変更することにより、画像を更新することが好ましい。   In the authentication apparatus of the present invention, it is preferable that the updating unit updates the image by changing an image of a partial region in the image displayed on the display unit.

また、本発明の認証装置では、記憶手段は、画像情報をさらに記憶し、更新手段は、一部の領域を記憶手段に記憶された画像情報に基づく画像に置換することにより、表示手段に表示された画像を更新することが好ましい。   In the authentication device of the present invention, the storage means further stores the image information, and the update means displays the information on the display means by replacing a part of the area with an image based on the image information stored in the storage means. Preferably, the updated image is updated.

また、本発明の認証装置では、記憶手段に記憶された画像情報は、動画を含むことが好ましい。   In the authentication device of the present invention, it is preferable that the image information stored in the storage unit includes a moving image.

本発明に従った認証方法は、表示手段を備えた認証装置において実行される認証方法であって、認証用の画像を記憶するステップと、表示手段に画像を表示するステップと、表示された画像に対して情報の入力を受付けるステップと、入力された情報に基づいて、表示手段に表示された画像の一部の領域を指定する情報を生成するステップと、生成された情報に基づいて、表示手段に表示された画像を更新するステップと、更新された画像と認証用の画像が一致するか否かを判定するステップとを備える。   An authentication method according to the present invention is an authentication method executed in an authentication apparatus including a display unit, the step of storing an authentication image, the step of displaying an image on the display unit, and the displayed image A step of receiving information input to the device, a step of generating information for designating a partial area of the image displayed on the display means based on the input information, and a display based on the generated information. Updating the image displayed on the means, and determining whether the updated image matches the authentication image.

本発明によれば、ユーザが表示された画像の一部の領域を指定する情報を入力すれば、当該情報に基づいて、表示されていた画像が更新され、そして、更新後の画像が認証用の画像と一致するか否かが判断される。   According to the present invention, when the user inputs information specifying a partial area of the displayed image, the displayed image is updated based on the information, and the updated image is used for authentication. It is determined whether or not the image matches the image.

つまり、本発明によれば、表示される画像を更新して、認証用の画像と一致するか否かを判断する。画像の更新は、ユーザが入力した情報に基づいて行なわれる。これにより、ユーザは、表示される画像が認証用の画像と一致すると考えるまで情報を入力すれば、認証用の画像と一致するか否かの判定の対象となる画像であって、表示手段に表示される画像を、更新させることができる。   In other words, according to the present invention, the displayed image is updated to determine whether or not it matches the authentication image. The image is updated based on information input by the user. Thus, if the user inputs information until the displayed image matches with the authentication image, the user can determine whether the image matches with the authentication image. The displayed image can be updated.

したがって、多くの画像が表示されることにより各画像の表示が小さくなる事態を回避でき、ユーザの利便性を低下させることなくある程度のセキュリティ強度を確保できる。さらに、ユーザには初めから認証用の画像と一致する画像を見せる必要がないため、ユーザ認証の際に、認証用の画像と一致する画像を含めた複数の画像をユーザに提示することにより、認証用の画像と一致する画像をユーザに見せていた従来の技術と対比しても、本発明によればユーザから操作がなされる前には認証用の画像と一致する画像をユーザに見せる必要が無いため、セキュリティ強度の向上を図ることができる。   Therefore, it is possible to avoid a situation in which the display of each image becomes small due to the display of many images, and it is possible to ensure a certain level of security without degrading the convenience for the user. Furthermore, since it is not necessary for the user to show an image that matches the image for authentication from the beginning, a plurality of images including images that match the image for authentication are presented to the user at the time of user authentication. Even in contrast to the conventional technique that showed the user the image that matches the authentication image, according to the present invention, the user needs to show the image that matches the authentication image before the user performs an operation. Therefore, the security strength can be improved.

本発明の認証装置の第1の実施の形態である情報端末の外観を示す図である。It is a figure which shows the external appearance of the information terminal which is 1st Embodiment of the authentication apparatus of this invention. 図1の情報端末のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the information terminal of FIG. 図1の情報端末の制御ブロック図である。It is a control block diagram of the information terminal of FIG. 図1の情報端末において実行されるメインルーチンのフローチャートである。It is a flowchart of the main routine performed in the information terminal of FIG. 図1の情報端末のユーザ認証処理において利用される認証用画像の一例を示す図である。It is a figure which shows an example of the image for authentication utilized in the user authentication process of the information terminal of FIG. 図4のユーザ認証処理のサブルーチンのフローチャートである。5 is a flowchart of a user authentication processing subroutine of FIG. 4. 図1の表示部で表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display part of FIG. 図1の表示部で表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display part of FIG. 図1の表示部で表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display part of FIG. 図1の表示部で表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display part of FIG. 図1の表示部で表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display part of FIG. 図1の情報端末において実行されるデータの補間について説明するための図である。It is a figure for demonstrating the interpolation of the data performed in the information terminal of FIG. 図1の情報端末において実行されるデータの補間について説明するための図である。It is a figure for demonstrating the interpolation of the data performed in the information terminal of FIG. 本発明の認証装置の第2の実施の形態である情報端末の制御ブロック図である。It is a control block diagram of the information terminal which is 2nd Embodiment of the authentication apparatus of this invention. 図14の情報端末において実行されるユーザ認証処理のフローチャートである。It is a flowchart of the user authentication process performed in the information terminal of FIG. 図15のユーザ認証処理における表示部の表示態様の変化を説明するための図である。It is a figure for demonstrating the change of the display mode of the display part in the user authentication process of FIG. 図15のユーザ認証処理における表示部の表示態様の変化を説明するための図である。It is a figure for demonstrating the change of the display mode of the display part in the user authentication process of FIG.

以下、本発明の実施の形態について、図面を参照しつつ説明する。なお、各図において、同じ機能を奏する要素については、同一の参照符号を付し、その説明は繰返さない。   Embodiments of the present invention will be described below with reference to the drawings. In each figure, elements having the same function are denoted by the same reference numerals, and description thereof will not be repeated.

[1.第1の実施の形態]
[1−1.情報端末の概略構成]
図1に、本発明の認証装置の第1の実施の形態である情報端末100の外観を示す。
[1. First Embodiment]
[1-1. Schematic configuration of information terminal]
FIG. 1 shows an appearance of an information terminal 100 that is the first embodiment of the authentication apparatus of the present invention.

情報端末100は、その主面に表示部110を有する。表示部110は、たとえばLCD(liquid crystal display)などの一般的な表示装置によって構成される。   The information terminal 100 has a display unit 110 on its main surface. Display unit 110 is configured by a general display device such as an LCD (liquid crystal display).

情報端末100の主面の表示部110の下方には、4つの操作ボタン112〜115が設けられている。操作ボタン112〜115のそれぞれにアサインされる機能は、情報端末100において実行されているアプリケーションの種類や、当該アプリケーションの実行中の状態に応じて変更することができる。   Below the display unit 110 on the main surface of the information terminal 100, four operation buttons 112 to 115 are provided. The function assigned to each of the operation buttons 112 to 115 can be changed according to the type of application being executed on the information terminal 100 and the state in which the application is being executed.

情報端末100の右側面には、情報端末100の電源投入のON/OFFを切換える電源ボタン111が設けられている。情報端末100の下側面には、メモリカードなどの記録媒体を情報端末100の本体に差し込むための、カードスロット120が設けられている。   On the right side surface of the information terminal 100, a power button 111 for switching ON / OFF of power-on of the information terminal 100 is provided. A card slot 120 for inserting a recording medium such as a memory card into the main body of the information terminal 100 is provided on the lower surface of the information terminal 100.

また、情報端末100には、情報端末100の本体に対して離間したタッチペン190が備えられている。   In addition, the information terminal 100 includes a touch pen 190 that is separated from the main body of the information terminal 100.

[1−2.情報端末のハードウェア構成]
図2は、図1の情報端末100の制御ブロック図である。
[1-2. Hardware configuration of information terminal]
FIG. 2 is a control block diagram of the information terminal 100 of FIG.

図2を参照して、情報端末100は、当該端末全体の制御を行なうCPU(Central Processing Unit)101と、データを一時的に記憶するRAM(Random Access Memory)102と、プログラムや定数などを記憶するROM(Read Only Memory)103と、画像データなどを記憶するためのハードディスクドライブ(HDD)104と、他の機器との通信のためにネットワークに接続するための通信インターフェイス(I/F)105と、操作ボタン112〜115や電源ボタン111との入力部106と、表示部110に当接して設けられたタッチパネル107と、カードリーダ108とを含む。   Referring to FIG. 2, information terminal 100 stores a CPU (Central Processing Unit) 101 that controls the entire terminal, a RAM (Random Access Memory) 102 that temporarily stores data, a program, a constant, and the like. A ROM (Read Only Memory) 103, a hard disk drive (HDD) 104 for storing image data, and a communication interface (I / F) 105 for connecting to a network for communication with other devices , The input unit 106 for the operation buttons 112 to 115 and the power button 111, the touch panel 107 provided in contact with the display unit 110, and the card reader 108.

カードリーダ108は、カードスロット120に挿入された記録媒体に対して、情報の読取および/または書込を行なう。   The card reader 108 reads and / or writes information with respect to the recording medium inserted into the card slot 120.

[1−3.認証装置のブロック構成]
図3は、情報端末100の制御ブロック図である。
[1-3. Block configuration of authentication device]
FIG. 3 is a control block diagram of the information terminal 100.

図3を参照して、情報端末100では、タッチパネル107および/または操作キー112〜115に対する操作がなされると、入力判定部151によって、当該操作がなされた旨およびその内容が検出される。情報端末100では、タッチパネル107、操作キー112〜115および入力判定部151によって、情報入力部150が構成されている。   With reference to FIG. 3, in information terminal 100, when operation is performed on touch panel 107 and / or operation keys 112 to 115, the input determination unit 151 detects that the operation has been performed and the content thereof. In the information terminal 100, the information input unit 150 is configured by the touch panel 107, the operation keys 112 to 115, and the input determination unit 151.

表示制御部155は、描画制御部156を介して表示部110の表示内容を制御し、また、表示部110に表示させた画面のデータを第2記憶部153に記憶させる。   The display control unit 155 controls the display content of the display unit 110 via the drawing control unit 156, and stores the screen data displayed on the display unit 110 in the second storage unit 153.

認証用情報生成部152は、ユーザを認証する際に利用される、正解となる画像(以下、適宜「認証用画像」という)を生成して、第3記憶部157に記憶させる。   The authentication information generation unit 152 generates a correct image (hereinafter referred to as “authentication image” as appropriate) used when authenticating the user, and stores the image in the third storage unit 157.

また、情報端末100では、ユーザ認証の際に、表示部110に認証用画像とは異なる画像を表示させ、当該画像を修正するための情報をユーザに入力させて認証用画像を作成させることにより、ユーザ認証を行なう。本明細書では、ユーザ認証の際に表示用110に表示される画像を修正用画像と呼ぶ。認証用情報生成部152は、修正用画像として最初に表示させる画像を生成して、第1記憶部158に記憶させる。   Further, in the information terminal 100, when user authentication is performed, an image different from the authentication image is displayed on the display unit 110, and information for correcting the image is input to the user to generate an authentication image. User authentication is performed. In this specification, an image displayed on the display 110 during user authentication is referred to as a correction image. The authentication information generation unit 152 generates an image to be displayed first as a correction image and stores it in the first storage unit 158.

認証用情報生成部152は、たとえば、第1記憶部158に予め記憶されたパーツを用いて、認証用画像や修正用画像を生成することができる。   For example, the authentication information generation unit 152 can generate an authentication image and a correction image using parts stored in advance in the first storage unit 158.

認証判定部154は、表示部110に表示されている画像(第2記憶部153に記憶されている画像)と第3記憶部157に記憶されている画像が一致するか否かを判定する。   The authentication determination unit 154 determines whether or not the image displayed on the display unit 110 (the image stored in the second storage unit 153) matches the image stored in the third storage unit 157.

情報端末100では、両画像が一致すると判定されると、ユーザ認証が成功したものとされる。   In the information terminal 100, if it is determined that the two images match, the user authentication is successful.

情報端末100において、第1記憶部158、第2記憶部153、および第3記憶部157は、HDD104および/またはRAM102によって構成される。   In the information terminal 100, the first storage unit 158, the second storage unit 153, and the third storage unit 157 are configured by the HDD 104 and / or the RAM 102.

そして、情報端末100において、入力判定部151、認証判定部154、表示制御部155、描画制御部156、認証用情報生成部152、および入力情報生成部159は、CPU101がHDD104などに記憶されたプログラムが実行されることにより実現される。なお、各部は、同等の機能を有する専用のLSI(Large-Scale Integration)などの専用のハードウェア部品によって実現されてもよい。   In the information terminal 100, the input determination unit 151, the authentication determination unit 154, the display control unit 155, the drawing control unit 156, the authentication information generation unit 152, and the input information generation unit 159 are stored in the HDD 104 or the like. This is realized by executing the program. Each unit may be realized by a dedicated hardware component such as a dedicated LSI (Large-Scale Integration) having an equivalent function.

また、一般的傾向として、コンピュータのオペレーティングシステムの一部として様々なプログラムモジュールを用意しておき、アプリケーションプログラムはこれらモジュールを所定の配列で必要なときに呼び出して処理を進める方式が一般的である。そうした場合、本発明にかかる認証装置を実現するためのソフトウェア自体にはそうしたモジュールは含まれず、当該コンピュータでオペレーティングシステムと協働してはじめて認証装置が実現することになる。しかし、一般的なプラットフォームを使用する限り、そうしたモジュールを含ませたソフトウェアを流通させる必要はなく、それらモジュールを含まないソフトウェア自体およびそれらソフトウェアを記録した記録媒体(およびそれらソフトウェアがネットワーク上を流通する場合のデータ信号)が実施の形態を構成すると考えることができる。   As a general tendency, various program modules are prepared as a part of a computer operating system, and an application program is called to advance the processing by calling these modules in a predetermined arrangement when necessary. . In such a case, the software itself for realizing the authentication apparatus according to the present invention does not include such a module, and the authentication apparatus is realized only when the computer cooperates with the operating system. However, as long as a general platform is used, it is not necessary to distribute software including such modules, and the software itself not including these modules and the recording medium storing the software (and the software distributes on the network). Data signal) can be considered to constitute the embodiment.

[1−4.メインルーチン]
情報端末100において実行されるメインルーチンの内容を、そのフローチャートである図4を参照しつつ説明する。なお、メインルーチンは、たとえば、電源OFFの状態にある情報端末100の電源キー111を操作されることによって、開始される。
[1-4. Main routine]
The contents of the main routine executed in the information terminal 100 will be described with reference to FIG. The main routine is started, for example, by operating the power key 111 of the information terminal 100 that is in a power-off state.

まず、ステップS1で、CPU101は、メインルーチンの開始の条件となった電源キー111が操作されたときに、他のキー(操作キー112〜115のいずれか)が操作されていたか否かを判断し、操作されていたと判断するとステップS2に処理を進め、操作されていないと判断すると、ステップS3へ処理を進める。   First, in step S1, the CPU 101 determines whether or not another key (any one of the operation keys 112 to 115) has been operated when the power key 111 that is a condition for starting the main routine is operated. If it is determined that it has been operated, the process proceeds to step S2, and if it is determined that it has not been operated, the process proceeds to step S3.

ステップS2では、たとえば、操作キー112〜115やタッチパネル107に入力された情報に基づいて、第1記憶部158に記憶されたパーツの組合せにより画像情報を生成し、生成した画像情報を認証用画像として第3記憶部157に記憶させる。なお、認証用画像の候補として予め複数の画像が第1記憶部158(または、情報端末100における他の記憶装置)に記憶されている場合には、ステップS2では、当該複数の画像から、1の認証用画像を選択する情報を受付け、受付けた情報に基づいて認証用画像を第3記憶部157に記憶させてもよい。   In step S2, for example, based on information input to the operation keys 112 to 115 and the touch panel 107, image information is generated by a combination of parts stored in the first storage unit 158, and the generated image information is used as an authentication image. Is stored in the third storage unit 157. When a plurality of images are stored in advance in the first storage unit 158 (or another storage device in the information terminal 100) as authentication image candidates, in step S2, from the plurality of images, 1 Information for selecting the authentication image may be received, and the authentication image may be stored in the third storage unit 157 based on the received information.

ステップS3では、CPU101は、ユーザ認証処理を実行して、ステップS4へ処理を進める。なお、ユーザ認証処理の詳細については、図6を参照して後述する。   In step S3, the CPU 101 executes a user authentication process and advances the process to step S4. Details of the user authentication process will be described later with reference to FIG.

ステップS4では、CPU101は、電源キー111が操作されたか否かを判断し、まだ操作されていないと判断すると、ステップS5で、タッチパネル107や操作キー112〜115に対する操作に応じた処理を実行する。一方、ステップS4において、電源キー111が操作されたと判断すると、メインルーチンを終了させる。   In step S4, the CPU 101 determines whether or not the power key 111 has been operated. If it is determined that the power key 111 has not been operated, the CPU 101 executes processing corresponding to the operation on the touch panel 107 or the operation keys 112 to 115 in step S5. . On the other hand, if it is determined in step S4 that the power key 111 has been operated, the main routine is terminated.

[1−5.認証用画像の一例]
図5に、認証用画像の一例を示す。
[1-5. Example of authentication image]
FIG. 5 shows an example of the authentication image.

認証用画像900は、家920と三日月910の画像、および、背景として領域901と領域902の2つの領域を含む。家920は、屋根921と、本体925と、窓923と、ドア924と、煙突922を含む。   The authentication image 900 includes an image of a house 920 and a crescent moon 910, and two regions of a region 901 and a region 902 as a background. House 920 includes a roof 921, a main body 925, a window 923, a door 924, and a chimney 922.

表1に、第3記憶部157に記憶される認証用画像の情報の一例を示す。   Table 1 shows an example of authentication image information stored in the third storage unit 157.

Figure 2013047859
Figure 2013047859

認証用画像の情報としては、当該認証用画像を構成するパーツ(オブジェクト)毎の情報である。具体的には、各オブジェクトの、認証用画像における通し番号(No.)と、各オブジェクトの第1記憶部151に記憶されている状態における通し番号(オブジェクト番号)と、表示部110における表示位置を示すブロック番号とを含む。   The authentication image information is information for each part (object) constituting the authentication image. Specifically, the serial number (No.) of each object in the authentication image, the serial number (object number) of each object stored in the first storage unit 151, and the display position on the display unit 110 are shown. Block number.

表示部110は、たとえば、6inch(800×600画素)の、8階調の表示装置によって構成されている。表示部110では、隣接する所定数の画素毎にブロックが定義されている。つまり、表示部110を構成するすべての画素が、いずれかのブロックに属するようになっている。そして、表1では、各オブジェクトが表示される位置が、その表示部110のブロックが列挙されることによって、示されている。   The display unit 110 is configured by, for example, a 6-inch (800 × 600 pixel) 8-gradation display device. In the display unit 110, a block is defined for each predetermined number of adjacent pixels. That is, all the pixels constituting the display unit 110 belong to any block. In Table 1, the position where each object is displayed is indicated by listing the blocks of the display unit 110.

[1−6.ユーザ認証処理]
図6は、ユーザ認証処理(図4のステップS3)のサブルーチンのフローチャートである。
[1-6. User authentication process]
FIG. 6 is a flowchart of a subroutine of user authentication processing (step S3 in FIG. 4).

図6を参照して、ユーザ認証処理では、CPU101は、まずステップS300で、修正用画像を生成して、ステップS302へ処理を進める。   Referring to FIG. 6, in the user authentication process, CPU 101 first generates a correction image in step S300 and advances the process to step S302.

修正用画像は、たとえば、第3記憶部157に記憶されている画像とは同一にならない画像であって、当該認証用画像の1または複数のオブジェクトの種類または表示位置を交換すること、またはオブジェクトを追加もしくは削除することによって生成される。   The correction image is, for example, an image that is not the same as the image stored in the third storage unit 157, and the type or display position of one or more objects of the authentication image is exchanged, or the object Generated by adding or deleting.

表2に、ステップS300において生成された修正用画像を示すデータの一例が示されている。   Table 2 shows an example of data indicating the correction image generated in step S300.

Figure 2013047859
Figure 2013047859

表2に示された修正用画像は、表1に示された認証用画像の、オブジェクト番号2で示される煙突の画像を削除されたもの、さらに、オブジェクト番号3の三日月の画像が、オブジェクト番号21の太陽の画像に置換されることによって生成されたものである。   The correction image shown in Table 2 is obtained by deleting the image of the chimney indicated by the object number 2 from the authentication image shown in Table 1, and the image of the crescent moon of the object number 3 is the object number. It is generated by being replaced with 21 sun images.

CPU101は、生成した修正用画像を、第1記憶部158に記憶させる。
図7に、表2に示される修正用画像950を示す。
The CPU 101 stores the generated correction image in the first storage unit 158.
FIG. 7 shows the correction image 950 shown in Table 2.

修正用画像950では、太陽911と家920Aが含まれている。家920Aは、図5に示した家920と比較して、煙突922が含まれていない。このことは、表2において、オブジェクト番号2が含まれていないことに対応する。   The correction image 950 includes the sun 911 and the house 920A. The house 920A does not include the chimney 922 as compared to the house 920 illustrated in FIG. This corresponds to the fact that the object number 2 is not included in Table 2.

また、図7の修正用画像950では、図5の認証用画像900と比較して、月910の代わりに太陽911が表示されている。これは、表2において、表1のオブジェクト番号3(月(三日月))の代わりに、オブジェクト番号21(太陽)が含まれていることに対応している。   Further, in the correction image 950 in FIG. 7, the sun 911 is displayed instead of the month 910 as compared with the authentication image 900 in FIG. 5. This corresponds to the fact that in Table 2, object number 21 (sun) is included instead of object number 3 (month (crescent moon)) in Table 1.

図6に戻って、ステップS302では、CPU101は、ステップS300で生成した修正用画像を表示部110に表示させて、ステップS304へ処理を進める。   Returning to FIG. 6, in step S <b> 302, the CPU 101 displays the correction image generated in step S <b> 300 on the display unit 110 and advances the process to step S <b> 304.

ステップS304では、CPU101は、入力デバイス(タッチパネル107および操作キー112〜115)をアクティブ化して、ステップS306へ処理を進める。   In step S304, the CPU 101 activates the input device (touch panel 107 and operation keys 112 to 115), and the process proceeds to step S306.

ステップS306では、CPU101は、入力デバイスに対する入力待ちの状態をとり、入力デバイスに対する入力があると、ステップS308へ処理を進める。   In step S306, the CPU 101 waits for an input to the input device. If there is an input to the input device, the process proceeds to step S308.

ステップS308では、CPU101は、入力デバイスに入力された内容を判定し、表示部110の表示領域を分割する情報であると判断するとステップS310へ処理を進め、オブジェクトの追加・削除・変更を指定するものであると判断すると、ステップS314へ処理を進める。   In step S308, the CPU 101 determines the content input to the input device. If the CPU 101 determines that the information is to divide the display area of the display unit 110, the CPU 101 proceeds to step S310 and designates addition / deletion / change of the object. If it is determined that it is, the process proceeds to step S314.

ここで、CPU101は、たとえば、タッチパネル107に対して情報の入力があったと判断すると、領域分割に関する情報が入力されたとしてステップS310へ処理を進め、操作キー112〜115のいずれかに対して操作があったと判断すると、オブジェクトの追加等についての情報が入力されたとしてステップS314へ処理を進めてもよい。   Here, for example, if the CPU 101 determines that information has been input to the touch panel 107, the CPU 101 proceeds to step S310 on the assumption that information regarding area division has been input, and operates any one of the operation keys 112 to 115. If it is determined that there has been, information regarding addition of an object or the like may be input, and the process may proceed to step S314.

ステップS310では、CPU101は、入力された情報に基づいて、表示部110の表示領域を分割することにより複数の分割領域を生成し、そしてさらに入力デバイスの入力を受けることにより切取領域を確定させて、ステップS312へ処理を進める。   In step S310, the CPU 101 generates a plurality of divided areas by dividing the display area of the display unit 110 based on the input information, and further confirms the cut area by receiving input from the input device. Then, the process proceeds to step S312.

ここで、切取領域とは、修正用画像から生成された複数の分割領域の中で切取られる領域を言う。情報端末100では、修正用画像は、当該切取領域に含まれるオブジェクトを削除するように修正されて、新たな修正用画像とされる。   Here, the cut-out area refers to an area cut out among a plurality of divided areas generated from the correction image. In the information terminal 100, the correction image is corrected so as to delete the object included in the cutout area, and becomes a new correction image.

ステップS310の処理について、図8および図9を参照してより詳細に説明する。
図8には、図7に示した修正用画像950に対して、タッチパネル107に入力された表示部110の表示領域を分割する線800が加えられて示されている。
The process of step S310 will be described in more detail with reference to FIGS.
In FIG. 8, a line 800 that divides the display area of the display unit 110 input to the touch panel 107 is added to the correction image 950 illustrated in FIG. 7.

CPU101は、線800が入力されると、表示部110の表示領域を、領域801と領域802に分割する。なお、図8において、修正用画像950は、表示部110の表示領域全体に表示されているものとする。   When the line 800 is input, the CPU 101 divides the display area of the display unit 110 into an area 801 and an area 802. In FIG. 8, it is assumed that the correction image 950 is displayed in the entire display area of the display unit 110.

そして、CPU101は、領域801と領域802のいずれかを、当該領域内に表示されたオブジェクトを削除するために、選択するための情報の入力を受付ける。当該情報の入力を受付けることにより、CPU101は、切取領域を確定する。   Then, the CPU 101 receives input of information for selecting one of the area 801 and the area 802 in order to delete the object displayed in the area. By accepting the input of the information, the CPU 101 determines the cut area.

切取領域を指定する情報を受付ける際に、CPU101は、たとえば、領域801と領域802の表示を、交互に点滅させるなど、各領域の表示内容を明確にユーザに認識させる制御を実行できる。   When receiving information for designating the cut area, the CPU 101 can execute control for allowing the user to clearly recognize the display contents of each area, for example, the display of the area 801 and the area 802 blinks alternately.

ユーザは、たとえば領域801または領域802の一方を、タッチペン190でタッチすることにより、いずれかの領域を選択する情報を入力する。   The user inputs information for selecting one of the areas 801 or 802 by touching one of the areas 801 or 802 with the touch pen 190, for example.

CPU101は、切取領域を確定すると、当該切取領域に表示されているオブジェクトを削除するように、表示部110に表示させている修正用画像を更新する。   When the cut area is confirmed, the CPU 101 updates the correction image displayed on the display unit 110 so as to delete the object displayed in the cut area.

図8において、たとえば領域801が切取領域として選択されると、CPU101は、表示部110に表示させる画像を、図9の修正用画像951のように、更新する。修正用画像951では、背景901,902、および家901Aは表示されているが、図7に示した修正用画像950と比較して、太陽911が削除されている。これは、太陽911のすべてが、領域801内に表示されていたからである。   In FIG. 8, for example, when an area 801 is selected as a cut area, the CPU 101 updates an image to be displayed on the display unit 110 as a correction image 951 in FIG. 9. In the correction image 951, the backgrounds 901 and 902 and the house 901A are displayed, but the sun 911 is deleted as compared with the correction image 950 shown in FIG. This is because all of the sun 911 was displayed in the area 801.

図6に戻って、ステップS310で、分割領域の生成、切取領域の確定、および画像の切取りを行なった後、ステップS312で、CPU101は、ステップS310で画像の切取りを行なった後の画像を、第2記憶部153に記憶させ、そして、当該画像が表示されるように表示部110の表示内容を更新して、ステップS318へ処理を進める。   Returning to FIG. 6, in step S <b> 310, after the generation of the divided area, the determination of the cut area, and the cutting of the image, in step S <b> 312, the CPU 101 displays the image after cutting the image in step S <b> 310. The content is stored in the second storage unit 153, and the display content of the display unit 110 is updated so that the image is displayed, and the process proceeds to step S318.

ステップS314では、CPU101は、操作キー112〜115および/またはタッチパネル107に対する、オブジェクトの追加・削除・変更に関する具体的な内容を指定する情報の入力を受付け、当該情報に基づいて、画像を構成するオブジェクトの種類や位置を変更し、ステップS316へ処理を進める。   In step S <b> 314, the CPU 101 accepts input of information specifying specific contents regarding addition / deletion / change of the object to the operation keys 112 to 115 and / or the touch panel 107, and configures an image based on the information. The type and position of the object are changed, and the process proceeds to step S316.

なお、ステップS314では、たとえば、図9の修正用画像951が表示部110に表示されているときに、オブジェクトの追加をするための操作が入力されて、ステップS308からステップS314に処理が進められた場合、ステップS314で、画面左上に三日月のオブジェクトを追加する情報が入力されると、そのような画像が第2記憶部153に記憶されるとともに、表示部110には、図10に示す修正用画像952に更新される。修正用画像952では、その左上の領域に、三日月910が表示されている。   In step S314, for example, when the correction image 951 in FIG. 9 is displayed on the display unit 110, an operation for adding an object is input, and the process proceeds from step S308 to step S314. In step S314, when information for adding a crescent moon object is input to the upper left of the screen, such an image is stored in the second storage unit 153, and the display unit 110 displays the correction shown in FIG. The image 952 is updated. In the correction image 952, a crescent moon 910 is displayed in the upper left area.

図6に戻って、ステップS316では、CPU101は、ステップS314で、入力デバイスに対する入力内容に基づいて変更したオブジェクトの種類や位置に従った画像を、第2記憶部153に記憶させるとともに、当該画像を表示するように表示部110の表示内容を更新して、ステップS318に処理を進める。   Returning to FIG. 6, in step S316, the CPU 101 causes the second storage unit 153 to store an image according to the type and position of the object changed based on the input content to the input device in step S314, and the image The display content of the display unit 110 is updated so as to display, and the process proceeds to step S318.

ステップS318では、CPU101は、第2記憶部に記憶された画像と、第3記憶部157に記憶された画像(認証用画像)を比較し、ステップS320へ処理を進める。   In step S318, the CPU 101 compares the image stored in the second storage unit with the image (authentication image) stored in the third storage unit 157, and advances the process to step S320.

ステップS320では、ステップS318による比較の結果、両画像が一致するか否かを判断し、一致すると判断するとステップS322へ処理を進め、一致しないと判断するとステップS306へ処理を戻す。   In step S320, it is determined whether or not the two images match as a result of the comparison in step S318. If it is determined that they match, the process proceeds to step S322, and if it does not match, the process returns to step S306.

ステップS322では、CPU101は、入力デバイスをデアクティブ化して、処理を図4へリターンさせる。   In step S322, the CPU 101 deactivates the input device and returns the process to FIG.

ここで、両画像が一致するか否かは、たとえば、第3記憶部157と第2記憶部153において、認証用画像と修正用画像が、同じオブジェクトを同じブロック番号に渡って表示するようなものであるか否かによって判定される。なお、ブロック番号については、左右数ブロック程度であれば表示位置がずれても、両画像が一致すると判定されても良い。   Here, whether or not the two images match is determined by, for example, displaying the same object over the same block number in the third storage unit 157 and the second storage unit 153 as the authentication image and the correction image. It is determined by whether or not it is a thing. As for the block number, as long as it is about several blocks on the left and right, it may be determined that both images match even if the display position is shifted.

以上説明したユーザ認証処理では、修正用画像が、入力デバイスに対する入力に基づいて変更され、第3記憶部157に記憶された認証用画像と比較される。そして、両画像が一致すると判断されると、ユーザ認証処理が終了し、メインルーチン(図4)において、ステップS4以降の処理が実行される。   In the user authentication process described above, the correction image is changed based on the input to the input device and compared with the authentication image stored in the third storage unit 157. When it is determined that the two images match, the user authentication process is terminated, and the processes after step S4 are executed in the main routine (FIG. 4).

つまり、情報端末100では、表示部110に表示された画像が変更されても、第3記憶部157に記憶される認証用画像と一致するまでは、ユーザ認証処理は終了しない。   That is, in the information terminal 100, even if the image displayed on the display unit 110 is changed, the user authentication process does not end until it matches the authentication image stored in the third storage unit 157.

[1−7.ユーザ認証処理の概要]
ユーザ認証処理の概要を、図11を参照して説明する。
[1-7. Overview of user authentication processing]
An overview of the user authentication process will be described with reference to FIG.

図11(A)に示すように、修正用画像950が表示されたときに、入力デバイスに対して領域を分割する情報が入力されると、図11(B)に示すように、表示部110には、修正用画像とともに領域を分割する情報である線800が表示される。   As shown in FIG. 11A, when information for dividing an area is input to the input device when the correction image 950 is displayed, as shown in FIG. Displays a line 800 that is information for dividing the area together with the correction image.

これにより、表示部110の表示領域は、線800を境として、2つに分割される。これにより、2つの分割領域である領域801と領域802が生成される。   Thereby, the display area of the display unit 110 is divided into two with the line 800 as a boundary. As a result, two divided regions, region 801 and region 802, are generated.

そして、領域801が切取領域として選択されると、領域801にその全体が表示されている太陽911が削除されるように、表示部110に表示される修正用画像が更新される。更新後の画像を、図11(C)に、修正用画像951として示す。   Then, when the region 801 is selected as the cutout region, the correction image displayed on the display unit 110 is updated so that the sun 911 that is entirely displayed in the region 801 is deleted. The updated image is shown as a correction image 951 in FIG.

図11(C)の修正用画像951と、図5の認証用画像900とは、まだ一致していないため、図11(C)の修正用画像951が表示された状態では、処理は、ステップS306に戻される。   Since the correction image 951 in FIG. 11C and the authentication image 900 in FIG. 5 do not yet match, in the state where the correction image 951 in FIG. It returns to S306.

ユーザ認証処理では、領域分割の情報だけでなく、オブジェクトの追加・削除・変更のための情報の入力を受付けることもできる。   In the user authentication process, it is possible to accept not only area division information but also information for adding, deleting, and changing objects.

図11(C)の修正用画像951の左上に三日月のオブジェクトを追加する情報が入力されると、表示部110には、図11(D)の修正用画像952が表示されるようになる。修正用画像952は、図11(C)の修正用画像951に、三日月910が追加されたものである。   When information for adding a crescent moon object is input to the upper left of the correction image 951 in FIG. 11C, the correction image 952 in FIG. 11D is displayed on the display unit 110. The correction image 952 is obtained by adding a crescent moon 910 to the correction image 951 in FIG.

そして、さらに、家920Aの屋根の右側に、煙突のオブジェクトを追加する情報が入力されると、表示部110には、図11(E)の修正用画像953が表示されるようになる。修正用画像953は、図11(D)の修正用画像952に、煙突922が追加されたものである。   Further, when information for adding a chimney object is input to the right side of the roof of the house 920A, the correction image 953 in FIG. 11E is displayed on the display unit 110. The correction image 953 is obtained by adding a chimney 922 to the correction image 952 in FIG.

修正用画像953と認証用画像900(図5)を比較すると、一致している。
したがって、表示部110に修正用画像953が表示された時点で、図6の処理はステップS320からステップS322に進み、さらに、図4にリターンする。これにより、ステップS4以降の処理が実行される。
When the correction image 953 and the authentication image 900 (FIG. 5) are compared, they match.
Therefore, when the correction image 953 is displayed on the display unit 110, the processing in FIG. 6 proceeds from step S320 to step S322, and returns to FIG. Thereby, the process after step S4 is performed.

本実施の形態では、ステップS310で切取領域が確定されると、当該切取領域にその全体を含まれるオブジェクトが削除されるように、表示部110に表示された画像が更新される。図8に線800として示した、タッチパネル107に対する操作が行なわれた旨の情報が、入力手段に入力された、領域を分割するための情報に相当する。   In the present embodiment, when the cut area is determined in step S310, the image displayed on display unit 110 is updated so that the object that is entirely included in the cut area is deleted. Information indicating that the operation on the touch panel 107 has been performed, which is indicated by a line 800 in FIG. 8, corresponds to information for dividing the region input to the input unit.

そして、このような情報に基づいて、入力情報生成部159は、表示部110の表示領域を線800に従って2つの領域に分割する、という情報を生成する。   Based on such information, the input information generation unit 159 generates information that the display area of the display unit 110 is divided into two areas according to the line 800.

そして、画像更新部150Bは、上記線800に沿って、修正用画像950を領域801と領域802に分割し、そして、選択された領域に含まれるオブジェクトを削除するように、表示部110に表示される画像を更新する。   Then, the image update unit 150B divides the correction image 950 into the region 801 and the region 802 along the line 800, and displays it on the display unit 110 so as to delete the object included in the selected region. Update the image to be played.

そして、このように更新された画像は、第2記憶部153に記憶され、認証判定部154は、第3記憶部157に記憶された認証用画像と第2記憶部153に記憶された画像(修正用画像)が一致するか否かを判定する。   The image updated in this way is stored in the second storage unit 153, and the authentication determination unit 154 includes the authentication image stored in the third storage unit 157 and the image stored in the second storage unit 153 ( It is determined whether or not the correction images match.

[1−8.入力データの補間]
本実施の形態において、上記したように、入力情報生成部159は、タッチパネル107に対して軌道を描く情報が入力された場合、当該情報に基づいて、表示部110の表示領域を分割する情報を生成する。なお、入力された軌跡が、表示領域を分割するのに足りない場合、つまり、入力された軌跡によっては、表示部110を閉じた複数の領域に分割することができない場合には、その軌跡を、閉じた複数の領域を生成できるように補間する。
[1-8. Interpolation of input data]
In the present embodiment, as described above, when information that draws a trajectory is input to the touch panel 107, the input information generation unit 159 displays information for dividing the display area of the display unit 110 based on the information. Generate. If the input trajectory is not enough to divide the display area, that is, depending on the input trajectory, the display unit 110 cannot be divided into a plurality of closed areas. And interpolate to generate multiple closed regions.

たとえば、図12(A)に示すように、修正用画像950が表示された状態で、タッチパネル107に対して軌跡810で示すような軌跡で入力がなされた場合が挙げられる。軌跡810は、その上端は表示部110の上端(図12(A)では修正用画像950の上端)に当接しているが、その下端は、表示部110のいずれの端部にも当接しておらず、かつ、軌跡810自体で閉じた領域が形成されていない。したがって、軌跡810によっては、表示部110を閉じた複数の領域に分割することができない。   For example, as shown in FIG. 12A, there is a case where an input is made on the touch panel 107 with a locus as indicated by a locus 810 while the correction image 950 is displayed. The upper end of the locus 810 is in contact with the upper end of the display unit 110 (the upper end of the correction image 950 in FIG. 12A), but the lower end thereof is in contact with any end of the display unit 110. No closed region is formed by the locus 810 itself. Therefore, depending on the locus 810, the display unit 110 cannot be divided into a plurality of closed regions.

本実施の形態では、軌跡810が直線の場合は、それを表示部110の端部まで延長させて、また、軌跡810が曲線であった場合には、ラグランジュ補間等の既存の補間方法により、表示部110の端部まで到達するように(または、軌跡810のみで閉じた寮いいを構成できるように)延長する。   In the present embodiment, when the trajectory 810 is a straight line, it is extended to the end of the display unit 110, and when the trajectory 810 is a curve, by an existing interpolation method such as Lagrange interpolation, It extends so as to reach the end of the display unit 110 (or so that a closed dormitory can be configured only by the trajectory 810).

また、図12(B)において軌跡820として示すように、入力の軌跡が連続しない場合には、互いに近接する部分を、ラグランジュ補間などによって補間して、連続した軌跡とすることができる。図12(B)では、離間により生成された、断片化した軌跡820を接続する線が、破線821〜824で示されている。   In addition, as shown as a locus 820 in FIG. 12B, when the input locus is not continuous, portions adjacent to each other can be interpolated by Lagrange interpolation or the like to form a continuous locus. In FIG. 12B, lines connecting the fragmented trajectories 820 generated by the separation are indicated by broken lines 821 to 824.

また、タッチパネル107に対して、領域を分割する情報として、複数の点が入力された場合、入力情報生成部159は、当該複数の点を繋ぐ線を生成することにより、表示部110の表示領域を分割する情報を生成することができる。   In addition, when a plurality of points are input as information for dividing an area on the touch panel 107, the input information generation unit 159 generates a line connecting the plurality of points, thereby displaying the display area of the display unit 110. Can be generated.

たとえば、図13(A)に示すように、タッチパネル107に対して、点831と点832の2つの点が入力された場合が挙げられる。   For example, as shown in FIG. 13A, a case where two points 831 and 832 are input to the touch panel 107 can be given.

この場合、入力情報生成部159は、これらを結ぶ直線であって、その両端が表示部110の表示領域の端部と当接する直線830を生成し、当該直線830により、表示部110の表示領域を分割する。   In this case, the input information generation unit 159 generates a straight line 830 that is a straight line connecting them and whose both ends are in contact with the end of the display area of the display unit 110, and the display area of the display unit 110 is generated by the straight line 830. Split.

また、図13(B)に示すように、タッチパネル107に対して、点841、点842、および点843の3つの点が入力された場合が挙げられる。   In addition, as illustrated in FIG. 13B, a case where three points of a point 841, a point 842, and a point 843 are input to the touch panel 107 can be given.

このような場合には、既存の離間方法(たとえば、スプライン離間)で補間することにより、これらの3点を通り、かつ、その両端が表示部110の端部と当接する線840を生成する。当該線840により、表示部110の表示領域を複数の閉じた領域に分割することができる。   In such a case, a line 840 that passes through these three points and whose both ends are in contact with the end of the display unit 110 is generated by interpolation using an existing separation method (for example, spline separation). With the line 840, the display area of the display unit 110 can be divided into a plurality of closed areas.

[2.第2の実施の形態]
[2−1.情報端末のブロック構成]
本発明の認証装置の第2の実施の形態の情報端末は、第1の実施の携帯における情報端末100と、その外観およびハードウェア構成を同一のものとすることができる。
[2. Second Embodiment]
[2-1. Block configuration of information terminal]
The information terminal according to the second embodiment of the authentication apparatus of the present invention can have the same appearance and hardware configuration as the information terminal 100 in the first embodiment.

図14は、本実施の形態の情報端末100の制御ブロック図である。
本実施の形態の情報端末100は、第1の実施の形態の情報端末100に加えて、ボタン入力検出部154Aを有している。
FIG. 14 is a control block diagram of information terminal 100 according to the present embodiment.
The information terminal 100 according to the present embodiment has a button input detection unit 154A in addition to the information terminal 100 according to the first embodiment.

本実施の形態では、第1の実施の形態においてステップS318およびステップS320として示したような、認証用画像と修正用画像が一致するか否かの判定(認証判定)は、操作キー112〜115のいずれかのキーが操作されたことを条件として行なわれる。キー入力検出部154Aは、当該キーが操作されたことを検出すると、認証判定部154に対して、上記認証判定を実行するように指令を出力する。認証判定部154は、当該指令を受けたことを条件として、上記認証判定を実行する。   In the present embodiment, as shown in steps S318 and S320 in the first embodiment, whether or not the authentication image matches the correction image (authentication determination) is determined using the operation keys 112 to 115. This is performed on condition that any one of the keys has been operated. When the key input detection unit 154A detects that the key has been operated, the key input detection unit 154A outputs a command to the authentication determination unit 154 to execute the authentication determination. The authentication determination unit 154 performs the authentication determination on the condition that the instruction is received.

[2−2.ユーザ認証処理]
図15は、本実施の形態の情報端末100において実行されるユーザ認証処理のサブルーチンのフローチャートである。
[2-2. User authentication process]
FIG. 15 is a flowchart of a user authentication processing subroutine executed in the information terminal 100 according to the present embodiment.

図15を参照して、本実施の形態で実行されるユーザ認証処理では、図6を参照して説明したように、ステップS300〜ステップS306の処理が実行された後、ステップS330で、入力デバイスに対してなされた入力が、表示部110の座標を指定するものであるか、または、認証キーが操作されたものであるかを判断する。認証キーとは、認証判定部154に上記認証判定を実行させるために操作されるキーであって、操作キー112〜115のいずれかである。   Referring to FIG. 15, in the user authentication process executed in the present embodiment, as described with reference to FIG. 6, after the processes of steps S300 to S306 are executed, in step S330, the input device It is determined whether or not the input made with respect to specifies the coordinates of the display unit 110 or the authentication key has been operated. The authentication key is a key operated to cause the authentication determination unit 154 to execute the authentication determination, and is any one of the operation keys 112 to 115.

そして、CPU101は、座標を指定する情報であると判断するとステップS332へ処理を進め、認証キーが操作されたものであると判断するとステップS340へ処理を進める。   If CPU 101 determines that the information is information for specifying coordinates, the process proceeds to step S332, and if it is determined that the authentication key has been operated, the process proceeds to step S340.

ステップS332では、CPU101は、入力デバイスに入力された情報によって指定された座標を判定して、ステップS334へ処理を進める。   In step S332, the CPU 101 determines the coordinates designated by the information input to the input device, and proceeds to step S334.

ステップS334では、CPU101は、表示部110に表示されているオブジェクトの中で、ステップS332で指定されたと判断した座標を含むオブジェクトを特定して、ステップS336へ処理を進める。なお、ステップS334では、CPU101は、表2に示したような、表示部110に表示させている画像の情報に基づいて、オブジェクトを特定する。具体的には、ステップS332で取得した座標が含まれるブロック番号を取得し、そして、当該ブロック番号に関連付けられているオブジェクトを、表2を参照することにより特定する。   In step S334, the CPU 101 identifies an object including the coordinates determined to be specified in step S332 among the objects displayed on the display unit 110, and advances the process to step S336. In step S334, the CPU 101 identifies an object based on information about an image displayed on the display unit 110 as shown in Table 2. Specifically, the block number including the coordinates acquired in step S332 is acquired, and the object associated with the block number is specified by referring to Table 2.

ステップS336では、ステップS334で特定したオブジェクトについて、その表示態様等を更新する情報を取得してステップS338へ処理を進める。本実施の形態では、入力デバイスに対して、座標を指定する情報が入力された後、指定された座標を含むオブジェクトに対して、当該オブジェクトを削除する、表示色を変更する等の表示態様を変更するための情報を入力する操作がなされるものとする。ステップS336では、当該操作により入力デバイスに入力される情報が取得される。   In step S336, the information which updates the display mode etc. about the object specified by step S334 is acquired, and a process is advanced to step S338. In the present embodiment, after information specifying coordinates is input to the input device, a display mode such as deleting the object or changing the display color is displayed for an object including the specified coordinates. It is assumed that an operation for inputting information for changing is performed. In step S336, information input to the input device by the operation is acquired.

ステップS338では、CPU101は、ステップS336で取得した情報に基づいて、ステップS334で特定したオブジェクトについての表示態様を更新し、そして、更新後の画像についての情報を第2記憶部153に登録して、ステップS306へ処理を戻す。   In step S338, the CPU 101 updates the display mode for the object identified in step S334 based on the information acquired in step S336, and registers information about the updated image in the second storage unit 153. The process returns to step S306.

たとえば、図10に示した修正用画像952が表示されている状態において、背景901に属する座標を指定する操作がなされると、背景901が指定されたオブジェクトとして特定される。そして、当該背景901の表示色を変更する情報が入力されると、表示部110には、当該背景901の表示色を変更するように更新された、図16の修正用画像954が表示される。   For example, in the state where the correction image 952 shown in FIG. 10 is displayed, when an operation for specifying coordinates belonging to the background 901 is performed, the background 901 is specified as the specified object. When information for changing the display color of the background 901 is input, the correction image 954 of FIG. 16 updated to change the display color of the background 901 is displayed on the display unit 110. .

また、図10の修正用画像952が表示されている状態で、屋根921に含まれる座標を指定される情報が入力されると、指定された座標を含むオブジェクトとして、屋根921が特定される。そして、当該屋根921の表示色を変更する情報が更新情報として入力されると、これに従って、表示部110には、屋根921の表示色を変更するように更新された、図17の修正用画像955が表示されるようになる。   In addition, when information specifying the coordinates included in the roof 921 is input in a state where the correction image 952 in FIG. 10 is displayed, the roof 921 is specified as an object including the specified coordinates. And when the information which changes the display color of the said roof 921 is input as update information, the image for correction of FIG. 17 updated so that the display color of the roof 921 may be changed on the display part 110 according to this. 955 is displayed.

図15に戻って、ステップS340では、CPU101は、ステップS320(図6参照)と同様に、第2記憶部153の画像と第3記憶部157の画像が一致しているか否かを判断し、一致していないと判断するとステップS306に処理を戻し、一致していると判断すると、ステップS342へ処理を進める。   Returning to FIG. 15, in step S <b> 340, the CPU 101 determines whether the image in the second storage unit 153 and the image in the third storage unit 157 are the same as in step S <b> 320 (see FIG. 6). If it is determined that they do not match, the process returns to step S306, and if it is determined that they match, the process proceeds to step S342.

ステップS342では、CPU101は、ステップS322(図6参照)と同様に、入力デバイスをデアクティブ化して、処理を図4にリターンさせる。   In step S342, as in step S322 (see FIG. 6), the CPU 101 deactivates the input device and returns the process to FIG.

[3.その他変形例等]
以上説明した各実施の形態では、認証用画像や修正用画像や修正用画像の更新に利用されるオブジェクトは、第1記憶部151に記憶されたものから選択されていたが、情報端末100において利用されるオブジェクトの記憶場所は、これに限られない。CPU101は、通信I/F105を介して他の機器から取得するオブジェクトを認証用画像等に用いてもよい。
[3. Other modifications]
In each of the embodiments described above, the object used for updating the authentication image, the correction image, and the correction image has been selected from those stored in the first storage unit 151. The storage location of the object used is not limited to this. The CPU 101 may use an object acquired from another device via the communication I / F 105 as an authentication image.

また、以上説明した各実施の形態では、認証用画像は、入力デバイスに対して入力された情報に基づいて、情報端末100において生成されていたが、本発明に係る認証装置において用いられる認証用画像は、これに限定されない。情報端末100では、通信I/F105を介して他の機器から受信した画像が、認証用画像として用いられてもよい。   In each embodiment described above, the authentication image is generated in the information terminal 100 based on the information input to the input device. However, the authentication image used in the authentication apparatus according to the present invention is used. The image is not limited to this. In the information terminal 100, an image received from another device via the communication I / F 105 may be used as an authentication image.

また、各実施の形態で認証用画像等の構成要素として用いられるオブジェクトは、静止画に限定されるものではない。認証用画像等の構成要素として、アニメーションなどの動画を利用することで、さらに、ユーザ認証の際に利用される画像に多様性を持たせることができる。   In addition, an object used as a component such as an authentication image in each embodiment is not limited to a still image. By using a moving image such as an animation as a component such as an authentication image, it is possible to provide diversity to an image used for user authentication.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

100 情報端末、101 CPU、102 RAM、103 ROM、104 HDD、105 通信I/F、106 入力部、107 タッチパネル、108 カードリーダ、110 表示部、150 情報入力部、151 入力判定部、152 認証用情報生成部、153 第2記憶部、154 認証判定部、155 表示制御部、156 描画制御部、157 第3記憶部、158 第1記憶部、159 入力情報生成部、900 認証用画像、950〜955 修正用画像。   100 information terminal, 101 CPU, 102 RAM, 103 ROM, 104 HDD, 105 communication I / F, 106 input unit, 107 touch panel, 108 card reader, 110 display unit, 150 information input unit, 151 input determination unit, 152 for authentication Information generation unit, 153 second storage unit, 154 authentication determination unit, 155 display control unit, 156 drawing control unit, 157 third storage unit, 158 first storage unit, 159 input information generation unit, 900 authentication image, 950- 955 Image for correction.

Claims (8)

認証用の画像を記憶する記憶手段と、
画像を表示する表示手段と、
前記表示手段に表示された画像に対して情報を入力するための入力手段と、
前記入力手段に入力された情報に基づいて、前記表示手段に表示された画像の一部の領域を指定する情報を生成する生成手段と、
前記生成手段によって生成された情報に基づいて、前記表示手段に表示された画像を更新する更新手段と、
前記更新手段によって更新された画像と前記認証用の画像が一致するか否かを判定する判定手段とを備える、認証装置。
Storage means for storing an authentication image;
Display means for displaying an image;
Input means for inputting information to the image displayed on the display means;
Generating means for generating information for designating a partial region of the image displayed on the display means based on the information input to the input means;
Updating means for updating the image displayed on the display means based on the information generated by the generating means;
An authentication apparatus comprising: a determination unit that determines whether or not the image updated by the update unit matches the authentication image.
前記入力手段は、前記表示手段に対して軌道を描く情報を入力する、請求項1に記載の認証装置。   The authentication device according to claim 1, wherein the input unit inputs information for drawing a trajectory to the display unit. 前記生成手段は、前記入力手段に入力された情報を補完することにより連続した線分の情報を生成する、請求項2に記載の認証装置。   The authentication apparatus according to claim 2, wherein the generation unit generates continuous line segment information by complementing the information input to the input unit. 前記表示手段に、複数のオブジェクトを含む画像を表示させる表示制御手段をさらに備え、
前記生成手段は、前記表示手段に表示された画像に含まれるオブジェクトを指定する情報を生成する、請求項1〜請求項3のいずれかに記載の認証装置。
The display means further comprises display control means for displaying an image including a plurality of objects,
The authentication device according to claim 1, wherein the generation unit generates information for specifying an object included in an image displayed on the display unit.
前記更新手段は、前記表示手段に表示された画像の中の前記一部の領域の画像を変更することにより、前記画像を更新する、請求項1〜請求項4のいずれかに記載の認証装置。   The authentication apparatus according to claim 1, wherein the update unit updates the image by changing an image of the partial area in the image displayed on the display unit. . 前記記憶手段は、画像情報をさらに記憶し、
前記更新手段は、前記一部の領域を前記記憶手段に記憶された画像情報に基づく画像に置換することにより、前記表示手段に表示された画像を更新する、請求項5に記載の認証装置。
The storage means further stores image information,
The authentication apparatus according to claim 5, wherein the updating unit updates the image displayed on the display unit by replacing the partial area with an image based on image information stored in the storage unit.
前記記憶手段に記憶された画像情報は、動画を含む、請求項4に記載の認証装置。   The authentication apparatus according to claim 4, wherein the image information stored in the storage unit includes a moving image. 表示手段を備えた認証装置において実行される認証方法であって、
認証用の画像を記憶するステップと、
前記表示手段に画像を表示するステップと、
前記表示された画像に対して情報の入力を受付けるステップと、
前記入力された情報に基づいて、前記表示手段に表示された画像の一部の領域を指定する情報を生成するステップと、
前記生成された情報に基づいて、前記表示手段に表示された画像を更新するステップと、
前記更新された画像と前記認証用の画像が一致するか否かを判定するステップとを備える、認証方法。
An authentication method to be executed in an authentication device provided with a display means,
Storing an authentication image;
Displaying an image on the display means;
Receiving input of information for the displayed image;
Generating information for designating a partial area of the image displayed on the display means based on the input information;
Updating the image displayed on the display means based on the generated information;
And a step of determining whether or not the updated image matches the authentication image.
JP2009294978A 2009-12-25 2009-12-25 Authentication device and authentication method Withdrawn JP2013047859A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009294978A JP2013047859A (en) 2009-12-25 2009-12-25 Authentication device and authentication method
PCT/JP2010/072683 WO2011078056A1 (en) 2009-12-25 2010-12-16 Authentication device and authentication method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009294978A JP2013047859A (en) 2009-12-25 2009-12-25 Authentication device and authentication method

Publications (1)

Publication Number Publication Date
JP2013047859A true JP2013047859A (en) 2013-03-07

Family

ID=44195585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009294978A Withdrawn JP2013047859A (en) 2009-12-25 2009-12-25 Authentication device and authentication method

Country Status (2)

Country Link
JP (1) JP2013047859A (en)
WO (1) WO2011078056A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6641530B1 (en) * 2018-12-07 2020-02-05 三菱電機株式会社 Input display control device, input display control method, and input display system
WO2024044468A1 (en) * 2022-08-24 2024-02-29 Capital One Services, Llc Systems and methods for authenticating via photo modification identification

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8938780B2 (en) 2012-03-27 2015-01-20 Telefonaktiebolaget L M Ericsson (Publ) Display authentication
JP2014010764A (en) * 2012-07-02 2014-01-20 Sharp Corp Display device, deletion method, computer program, and recording medium
JP6026186B2 (en) * 2012-09-07 2016-11-16 フェリカネットワークス株式会社 Information processing apparatus, information processing method, and program
CN110568982B (en) * 2019-09-12 2021-04-20 北京字节跳动网络技术有限公司 Picture clipping method and device in online presentation, storage medium and equipment
NO346103B1 (en) * 2020-09-07 2022-02-21 Protectoria Venture As Method for protection of the visual user interface of mobile applications
CN113947955B (en) * 2021-10-18 2022-09-23 贵州振华信息技术有限公司 Manuscript demonstration system with amplification function and demonstration method
WO2023176364A1 (en) * 2022-03-18 2023-09-21 ソニーグループ株式会社 Information processing device, program, and information processing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297546A (en) * 2001-03-29 2002-10-11 Just Syst Corp Method and device for user identification
JP2007264929A (en) * 2006-03-28 2007-10-11 Pioneer Electronic Corp User authentication system, user authentication method, operation terminal and server or the like
JP5448370B2 (en) * 2008-05-20 2014-03-19 キヤノン株式会社 Information processing apparatus, control method therefor, program, and storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6641530B1 (en) * 2018-12-07 2020-02-05 三菱電機株式会社 Input display control device, input display control method, and input display system
WO2024044468A1 (en) * 2022-08-24 2024-02-29 Capital One Services, Llc Systems and methods for authenticating via photo modification identification

Also Published As

Publication number Publication date
WO2011078056A1 (en) 2011-06-30

Similar Documents

Publication Publication Date Title
JP2013047859A (en) Authentication device and authentication method
CN105308550B (en) Message Display Terminal
US20110084962A1 (en) Mobile terminal and image processing method therein
US20120072866A1 (en) Information processing apparatus, storage medium, information processing system and information processing method
KR20140070040A (en) Apparatus and method for managing a plurality of objects displayed on touch screen
CN104793913A (en) Object display system, object display control program, and object display control method
WO2012114876A1 (en) Electronic device, content display method and content display program
KR20160005609A (en) Method for displaying graphic user interface and electronic device supporting the same
EP3798811A1 (en) Icon display method and device, terminal, and storage medium
CN109683841B (en) Control display method and computing device in multi-display environment
CN104765528A (en) Display method and device of virtual keyboard
CN110377220B (en) Instruction response method and device, storage medium and electronic equipment
KR101030177B1 (en) Data input apparatus and data input method
CN102385453B (en) Signal conditioning package and control method thereof
US20110172010A1 (en) Information processing device, information processing device control method, program, and information storage medium
JP5221694B2 (en) Electronic device, object display method, and object display program.
US20040012615A1 (en) Mobile communication terminal capable of editing a screen image on a display and method thereof
CN114721565A (en) Application program starting method and device, electronic equipment and storage medium
JP4850859B2 (en) Information processing apparatus, information processing apparatus control method, and program
CN102377867A (en) Realization method for displaying icon by cycling rotation
JP2010134801A (en) Content creating apparatus and content browsing apparatus
CN114580015A (en) Privacy processing method and device and electronic equipment
JP5073608B2 (en) Image output apparatus, image output method, and program
JP2016016319A (en) Game program for display-controlling objects arranged on virtual spatial plane
JP2013229002A (en) Information terminal, input object display method, and input object display program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130305