WO2015064925A1 - 패턴 입력 장치 및 방법과 이를 이용한 기록 매체 - Google Patents

패턴 입력 장치 및 방법과 이를 이용한 기록 매체 Download PDF

Info

Publication number
WO2015064925A1
WO2015064925A1 PCT/KR2014/009486 KR2014009486W WO2015064925A1 WO 2015064925 A1 WO2015064925 A1 WO 2015064925A1 KR 2014009486 W KR2014009486 W KR 2014009486W WO 2015064925 A1 WO2015064925 A1 WO 2015064925A1
Authority
WO
WIPO (PCT)
Prior art keywords
pattern
input
interface
user
virtual
Prior art date
Application number
PCT/KR2014/009486
Other languages
English (en)
French (fr)
Inventor
권태경
나사랑
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to US15/033,026 priority Critical patent/US10372896B2/en
Publication of WO2015064925A1 publication Critical patent/WO2015064925A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/36User authentication by graphic or iconic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1306Sensors therefor non-optical, e.g. ultrasonic or capacitive sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/66Substation equipment, e.g. for use by subscribers with means for preventing unauthorised or fraudulent calling
    • H04M1/667Preventing unauthorised calls from a telephone set
    • H04M1/67Preventing unauthorised calls from a telephone set by electronic means

Definitions

  • the present invention relates to a pattern input device and method and a recording medium using the same. More specifically, the present invention relates to a pattern input device and a method for preventing exposure of pattern information through a smudge attack in a mobile smart computing device or a device receiving a pattern for user authentication, such as a smart digital door lock.
  • the mobile smart computing device is an example for improving security, and has a function of requesting user authentication using a pattern lock to improve security.
  • a mobile smart computing device provides a user with nine nodes, and the user connects four or more nodes of the provided nine nodes and inputs a pattern to authenticate the user. The number of nodes can be changed.
  • This pattern lock function provides a user convenience, but there is a problem in that traces of the pattern remain on the screen while inputting the pattern. For example, a user's secret pattern can be easily exposed to a smudge attack that uses a trace of the pattern remaining on the screen to guess a secret pattern that can authenticate the user.
  • a smudge attack is a method of hacking a smartphone most rapidly when a mobile smart computing device such as a smartphone is acquired.
  • An example of a smudge attack is that if you look at your smartphone at an angle, you can see a fingerprint, which can be used to guess a secret pattern that can be unlocked.
  • Such smudge attacks can increase the success rate of guessing secret patterns by varying angles, brightness, and contrast.
  • a user inputs a secret pattern in a public place, there is a problem that people located nearby can easily infer the secret pattern by looking at the user's input pattern over the shoulder.
  • the technical problem to be solved by the present invention is a pattern input device that is robust to smudge attack by inputting a pattern using a manipulation pad without a user directly inputting a pattern through a pattern lock interface like a conventional pattern function; To provide a way.
  • Another object of the present invention is to provide a pattern input apparatus and method including a virtual wheel for distorting a pattern input trace.
  • the technical problem to be solved by the present invention can provide a pattern input device and method that is resistant to smudge attack by inputting the pattern through a smaller operation pad than the pattern lock interface.
  • the technical problem to be solved by the present invention can provide a pattern input device and method that is more resistant to smudge attack by changing the position of the operation pad from time to time.
  • the pattern input device may provide an interface for receiving the pattern input.
  • the device includes a smartphone, a personal computer including a touch screen, a tablet, and the like, which perform at least some operations related to user authentication, for example, a pattern input.
  • the device refers to an electronic device capable of inputting a pattern according to a user's touch, and is not limited to a specific device.
  • the pattern input apparatus may be a module that performs a function related to pattern input in the device itself or the device.
  • the module is, for example, a processor, a touch screen, or the like included in the device.
  • the pattern input device receives a pattern from a user through a pattern lock interface and a virtual manipulation interface.
  • the pattern is input through the virtual operation interface, not the pattern lock interface.
  • the pattern lock interface is an interface provided directly for inputting a pattern. Although the concept is similar to a conventional interface, some pattern lock interfaces do not actually receive a direct touch from a user.
  • the pattern input device of the present invention does not input a pattern using the pattern lock interface, but receives a pattern through a virtual operation interface provided separately.
  • the virtual operation interface may receive an input of a pattern to be authenticated by a user, but may not be directly linked with a separate authentication module that determines authenticity of the pattern.
  • the authentication module may determine whether a pattern received from the pattern lock interface is identical to or similar to a pattern already registered.
  • the virtual meaning is not an interface directly interworking with the authentication module in terms of pattern authentication, but an expression for reflecting the concept provided separately from the existing pattern lock interface, and in the present invention, the virtual operation interface. And operating interface should be understood as the same concept.
  • the virtual operation interface and the pattern lock interface may exist simultaneously on the screen of the device and may exist in areas that are separated from each other.
  • the size of the area provided with the virtual manipulation interface may be equal to or less than the size of the area provided with the pattern lock interface.
  • the size and position of the pattern lock interface and the operation interface may be variously set by the user.
  • the virtual manipulation interface may be provided in a preset size and position, or may be provided in a different size and position each time. Even when the virtual manipulation interface is provided in a preset form, when there is an input for selecting a position from the user in relation to the position where the pattern input is performed, the manipulation interface may be newly provided in the selected corresponding region.
  • a virtual operation interface according to a user setting is provided or a virtual having a variable size is provided.
  • An operating interface of may be provided.
  • the position at which the virtual manipulation interface is provided includes a selected point when a point is selected by the user, and may be implemented to be a predetermined area within a certain distance from the point.
  • the pattern input method of the present invention may further include providing feedback to the user when a pattern input or a touch input according to a user's manipulation is detected through a virtual manipulation interface.
  • the position of the area where the newly started virtual operation interface is provided may be the same as or at least partially changed from the existing position. have.
  • the location and size of the area where the virtual manipulation interface is provided may be the same as that of the conventional manipulation interface.
  • the providing of the pattern lock interface may selectively provide the user with information on the pattern input by the user through the virtual operation interface. That is, it may not provide any information.
  • information on a starting point of pattern formation among information on pattern input may be provided to the user.
  • Vibration feedback may be provided for the pattern input, in which case the user may know that the pattern is being input.
  • the providing of the pattern lock interface may include: information on a node currently being input among information on a pattern input through a virtual operation interface, in particular, a node currently being input of the pattern among the pattern input information and input of the user; Information about the direction can optionally be provided to the user. In addition, all of the information about the pattern input may be provided to the user.
  • the pattern input may be, for example, a rotation input, a zigzag input, a horizontal input, a vertical input, and a combination of two or more thereof.
  • the information providing method regarding the pattern input can be equally applied to the virtual operation interface.
  • the pattern received through the virtual manipulation interface includes a first pattern from a time point at which a pattern input starts from a user to a time point at which a direction of the input pattern is changed, and a second pattern after a time point at which the direction of the pattern input is changed. It can be distinguished by.
  • determining the operation interface providing area means determining the position, size, or direction of the operation interface provided using the first pattern based on a speed, a position, or a direction of a predetermined pattern input. .
  • the present invention further includes the step of providing the virtual operation interface to the user, when the user's pattern input is terminated, providing an additional input interface requesting the user's specified additional input. can do.
  • the additional input interface is, for example, a virtual wheel interface, a touch brush interface, and the like.
  • the touch brush interface is an interface that provides a brush touch effect (a brush effect or an effect of changing pixel values of a corresponding region) in an area where an additional input (for example, touch input) of a user exists.
  • the additional input interface may be provided to the user such that the virtual input interface is present in an area including a predetermined ratio or more of the screen areas of the device in which the virtual operation interface exists.
  • the provision of the manipulation interface is terminated, for example, the session associated with the step of receiving a pattern is terminated, or the session providing the manipulation interface is terminated.
  • the present invention may further include performing fingerprint authentication using a fingerprint of the user included in the input pattern.
  • the fingerprint authentication step is applicable to both when the position of the manipulation interface is fixed or when the position of the manipulation interface is changed.
  • fingerprint authentication may be performed using a fingerprint image of a user acquired at a turning point whose direction of the input pattern is changed.
  • the performing of the fingerprint authentication may include correcting a fingerprint image acquired at the turning point using the direction of the input pattern, or representing the plurality of fingerprint images using the acquired plurality of turning points.
  • the method may further include generating a fingerprint image. When at least one of the corrected fingerprint image and the generated representative fingerprint image is used, misrecognition of fingerprint authentication may be lowered.
  • a pattern input apparatus including: a pattern lock interface unit providing a pattern lock interface displayed or hidden in a pattern input process for user authentication; And an operation interface unit that provides a user with a virtual operation interface for inputting a pattern on a screen of the device, apart from the pattern lock interface.
  • the pattern input apparatus of the present invention may further include an additional input interface unit for providing an additional input interface for requesting additional input by the user when it is determined that the user's pattern input is terminated and the provision of the operation interface is terminated. have.
  • the additional input interface unit may provide, for example, a virtual wheel interface or a brush touch interface.
  • the location of the additional input interface provided may be provided to the user such that the location of the additional input interface is present in an area including a predetermined ratio or more of the screen areas of the device in which the virtual operation interface exists.
  • the virtual manipulation interface unit After determining that the pattern input of the user is finished, the virtual manipulation interface unit provides a virtual manipulation interface again. In this case, the position of the region where the virtual manipulation interface is provided may be changed as necessary.
  • the pattern lock interface unit may provide the user with information regarding the initial or starting point of the pattern input among the information about the input pattern.
  • the pattern lock interface unit may provide the user with only information about a node currently being input among the information about the pattern input.
  • the pattern lock interface unit may provide the user with information regarding a node currently being input of the pattern and an input direction of the user among information on the input pattern.
  • the pattern input method and apparatus of the present invention have characteristics that are robust to smudge attacks.
  • a user inputs a secret pattern in a public place, it can be prevented from leaking to the surrounding people.
  • FIG. 1 illustrates an example in which a secret pattern of a smartphone is leaked using a smudge attack.
  • FIG. 2 is a block diagram of a pattern input apparatus according to an embodiment of the present invention.
  • FIG. 3 is a diagram illustrating an example of a virtual operation interface unit and a pattern lock interface unit provided by the virtual operation interface unit of the present invention.
  • FIG. 4 is a view showing a user performing a pattern input of a 'Z' shape through a virtual operation interface.
  • pattern lock interface unit provides all of the pattern input information to the user through the pattern lock interface.
  • FIG. 6 illustrates an example in which the pattern lock interface unit provides a part of pattern input information to a user through the pattern lock interface.
  • pattern lock interface unit provides a part of the pattern input information to the user through the pattern lock interface.
  • FIG. 8 is a view for explaining an example of the virtual wheel interface provided by the virtual wheel interface unit of the present invention.
  • 9 is an example of a pattern input method for determining the size of a virtual operation interface.
  • FIG. 10 is an example in which the area of the operation interface is enlarged
  • FIG. 11 is an example in which the area of the operation interface is not enlarged.
  • 12 is an example of pattern input further comprising performing fingerprint recognition according to an embodiment of the present invention.
  • 13 illustrates an example of a fingerprint image acquired at a turning point of a pattern input and a direction immediately before turning.
  • 15 is a flowchart illustrating a pattern input method according to an embodiment of the present invention.
  • 16 is a diagram illustrating an example in which a virtual manipulation interface unit provides a manipulation interface to a user.
  • FIG. 17 is similar to FIG. 16 except that the point selected by the user does not correspond to any node of the pattern lock interface.
  • 18 is another example of an additional input interface, according to an embodiment of the present invention.
  • 19 is an embodiment in which a virtual operation interface is provided in an inclined form.
  • the input device may be applied to a device such as a mobile smart phone, a tablet computer or a table top capable of receiving a user input such as a touch pad, and a digital door lock device.
  • a device such as a mobile smart phone, a tablet computer or a table top capable of receiving a user input such as a touch pad, and a digital door lock device.
  • the present invention can be applied to a general PC environment such as a desk PC, not a portable device.
  • the present invention uses a method in which a user inputs a pattern using an operation pad instead of directly inputting the pattern to the pattern lock interface.
  • the present invention can be secured from a smudge attack using an additional input interface, for example, a virtual wheel interface, a brush touch interface.
  • an additional input interface for example, a virtual wheel interface, a brush touch interface.
  • the pattern input apparatus 100 may include an operation interface unit 110, a pattern lock interface unit 120, and an additional input interface unit 130.
  • the pattern input apparatus according to the present embodiment may be a device itself for user authentication, and includes an apparatus included in the device and performing a function related to pattern input, for example, a processor and a touch screen.
  • the device is a device that requires a pattern for user authentication, such as a mobile smartphone or a digital door lock, and there is no limitation in the type of the device.
  • the operation interface unit 110 may provide a user with a virtual operation interface for inputting a pattern on a screen of the device.
  • the virtual manipulation interface is provided separately and additionally from the pattern lock interface provided in the existing pattern input system, and means an interface provided to easily receive the pattern input according to the user's manipulation with improved security. .
  • the pattern input to the manipulation interface unit 110 may be divided into a first pattern from a time point at which the pattern input starts and a second pattern after a time point in which the direction of the pattern input is changed. have.
  • the first pattern input is an initial value of the pattern input, and the manipulation interface unit 110 may determine the size of the provided manipulation interface.
  • the pattern lock interface unit 120 may provide a user with a pattern lock interface for providing a user with some or all of information about a pattern input through a virtual manipulation interface.
  • the pattern lock interface 120 may be implemented not to be displayed externally in order to prevent exposure of information about the secret pattern.
  • the additional input interface unit 130 may provide a virtual wheel interface or a brush touch interface that requires a specific input of the user when it is determined that the pattern input of the user is finished and the provision of the manipulation interface is terminated.
  • FIG. 3 is a diagram illustrating an example of an operation interface unit provided by the operation interface unit of the present invention and a pattern lock interface provided by the pattern lock interface unit.
  • a pattern lock interface is provided to the user by the pattern lock interface unit 120 at the top of the screen of the device, and an operation interface provided to the user by the manipulation interface unit 110 at the bottom of the screen of the device. You can see that exists. The user can input a secret pattern for user authentication through the provided operation interface.
  • the virtual operation interface and the pattern lock interface may exist simultaneously.
  • the virtual operation interface and the pattern lock interface may be present in separate areas on the screen of the device.
  • the size of the area occupied on the screen of the device by the virtual operation interface provided by the manipulation interface unit 110 may be equal to or smaller than the size of the area occupied on the screen of the device by the pattern lock interface.
  • Setting the size of the area occupied on the screen of the device by the virtual operation interface to be smaller than the area occupied by the pattern lock interface is such that when the user enters a secret pattern in a public place, the pattern information is leaked to the surrounding people. To prevent that.
  • some or all of the pattern input information input by the user using the operation interface is provided to the user through the pattern lock interface. can do.
  • pattern lock interface unit 120 transfers some or all of the pattern input information.
  • the pattern lock interface provided herein may be implemented so that it is not displayed at all for security.
  • FIG. 4 is a view showing a user performing a pattern input of a 'Z' shape through a virtual operation interface. More specifically, FIGS. 5 and 7 illustrate a case where a user inputs a pattern having a 'Z' shape as illustrated in FIG. 3.
  • the manipulation interface unit 110 may provide a user with a feedback back such as a separate vibration or sound to provide the user with the input that the input is in progress when the pattern input is generated by the user's manipulation.
  • the manipulation interface unit 110 may provide a virtual manipulation interface in a form inclined at a predetermined angle with the pattern lock interface.
  • the manipulation interface unit 110 may horizontally correct the tilted input pattern and transmit the corrected pattern to the pattern lock interface unit 120.
  • the pattern lock interface unit provides all of the pattern input information to the user through the pattern lock interface.
  • the pattern lock interface may provide all of the user's 'Z' shapes that are pattern input information input by the user. However, it may be more desirable to provide only a part of the input pattern information to the user in order to prevent a pattern leak from the published place.
  • the pattern lock interface unit 120 may provide only information about a node currently being input among the user's pattern input to the user through the pattern lock interface.
  • the pattern lock interface unit 120 may provide the user with node information currently inputting a node constituting the 'Z' shape input by the user. Referring to FIG. 5, the pattern lock interface unit 120 may provide information about a node currently being input to a user in the order of 610, 620, 630, and 640 screens.
  • the pattern lock interface unit 120 may provide information about a node currently being input to the user, thereby improving the accuracy of the user's pattern input and helping to easily identify an incorrect input.
  • pattern lock interface unit 120 provides a part of the pattern input information to the user through the pattern lock interface.
  • the pattern lock interface unit 120 may provide the user with information about a node currently input among the user's pattern input and information about a pattern input direction of the user through the pattern lock interface.
  • the pattern lock interface unit 120 may provide the user with information about the node currently being input and the pattern input direction through the pattern lock interface using the pattern input information input by the user through the virtual manipulation interface. .
  • the pattern lock interface unit 120 may provide the user with the information shown in FIG. 6 by using the node currently input by the user and the pattern input direction information of the current user.
  • the pattern lock interface unit 120 may provide the user with the pattern lock interface as a starting point of the pattern formation, that is, the first input node, as shown in FIG. 3.
  • the position at which the virtual manipulation interface provided to the user by the manipulation interface unit 110 is present on the device screen may be changed every time the user starts inputting a pattern.
  • the additional input interface unit 130 will be described with reference to FIG. 1. If the user determines that the pattern input through the operation interface has ended, that is, when the session related to the pattern input or the session related to providing the operation interface is terminated, the additional input interface unit 130 requests a specific additional input to the user.
  • the virtual wheel interface, the brush touch interface can be provided to the user.
  • the determination as to whether the user's pattern input is terminated may be determined according to a preset bar. For example, when the user inputs a pattern by using a touch input, when the touch is released, the user's pattern input is terminated. It can be judged that.
  • the operation interface unit 110 ends the operation interface provision, and the additional input interface unit 130 may provide the virtual wheel interface or the brush touch interface to the user.
  • the additional input may be in the form of any one of a rotation input, a zigzag input, a horizontal input, and a vertical input.
  • the additional input interface unit 130 requests through the virtual wheel interface, when the user performs the specified additional input, the trace of the pattern input of the user is erased or distorted, and the user passes through the operation interface unit 110. It is possible to protect the secret pattern entered by a smudge attack.
  • the additional input interface unit 130 may provide the user with the virtual wheel interface in an area that matches the area on the device screen provided with the operation interface.
  • the additional input interface does not have to exist in an area that exactly matches the area in which the operation interface was present, and it is sufficient that the virtual operation interface includes more than a certain ratio among the areas provided.
  • a certain ratio means a ratio that can distort the trace of the pattern input by the user, and there is no particular limitation.
  • the area in which the additional input interface is provided depends on the form of the virtual operation interface, but the trace of the pattern may be partially removed only by providing at least the area in which the pattern exists.
  • the virtual operation interface provided to the user by the operation interface unit 110 may change a position on the screen every time the user inputs a pattern.
  • the additional input interface unit 130 may arrange the additional input interface in the region where the manipulation interface provided to the user lastly existed on the screen of the device.
  • FIG. 8 is a view for explaining an example of the virtual wheel interface provided by the virtual wheel addition input interface unit 130 of the present invention.
  • the virtual wheel interface shown in FIG. 8 is an example in the form of requesting rotation input of a user. Specifically, comparing FIG. 8 with FIG. 3, the area where the virtual wheel interface shown in FIG. 8 is disposed on the screen of the device is somewhat consistent with the area where the operation interface shown in FIG. 3 is disposed on the screen of the device. can see. In particular, the area where the virtual wheel interface is displayed preferably includes an area where the operation interface is displayed.
  • the virtual wheel interface provided to the user by the virtual wheel interface unit 130 may be proportional to the size of the manipulation interface provided to the user by the manipulation interface unit 110.
  • the screen of 910 is an example in which the user performs an initial touch operation in a state in which nothing is displayed on the touch screen in relation to the pattern input.
  • the screen of 920 illustrates an example of a user's touch operation following the initial touch.
  • the manipulation interface 110 may display the touched point together with the vibration feedback for a predetermined time, for example, 30 ms.
  • the pattern input device of this embodiment may be implemented to provide vibration feedback according to the user's continuous touch input.
  • the area where the touch is input through the manipulation interface is of limited size.
  • the position and size of the manipulation interface which is a virtual pattern provided by the manipulation interface unit 110, may dynamically change, and when the pattern from the user is input to some extent, the size, position, and direction of the manipulation interface may be specified.
  • the manipulation interface unit 110 determines a size, a position, or a direction of a virtual manipulation interface or a pattern lock interface to be provided later using the first pattern as an initial input. Can be.
  • the manipulation interface unit 110 may determine the final size of the manipulation interface when the number of input points for each position (eg, left, center, and right) is three for each position in the horizontal or vertical direction. (930, 960 in Figure 9). In addition, the final area and the position where the manipulation interface is displayed may be specified after three input points for each position are determined in both the horizontal direction and the vertical direction (940 and 970 of FIG. 9).
  • the edge area of the manipulation interface is displayed in a dim line, and preferably in dark lines when the final size and position is determined.
  • the operation interface 110 may be connected to the lines 960 of FIG. 9.
  • the size and position of the second point can be displayed in a changed state based on the position where the third point is input. 9 shows an example in which the size and position of the second point are not changed by the user drawing a pattern at a similar speed or length.
  • ambiguous patterns eg, 2x2 size patterns
  • additional operations may be required after the input of the pattern is completed.
  • the user can enter a secret pattern through a variable size virtual pad without additional operations.
  • Initial input patterns are drawn with small dots, and the longer the pattern, the larger the size of the dots.
  • FIG. 10 is an example in which the area of the virtual operation interface is enlarged
  • FIG. 11 is an example in which the area of the operation interface is not enlarged.
  • the manipulation interface unit 110 may determine the size of the virtual manipulation interface provided in a relatively small area. However, the operation interface may change the size of the operation interface again according to the following pattern input by the user. That is, even if the size is determined to be small by the first pattern, the size may be changed by the second pattern.
  • the example of 1040 of FIG. 10 that draws a pattern with a virtual pad having the same pattern size but a smaller area is regarded as a pattern that cannot be input and is automatically converted to 1050 of FIG.
  • the size of the operation interface can be changed as in.
  • the size of the operation interface determined first is provided as a guide for a user who wants to input a pattern in a small area, and the next determined virtual pad size helps a user who wants to input a pattern in a larger area. .
  • the size of the manipulation interface is determined to be a large area, and the manipulation interface 110 may receive a pattern through the manipulation interface even if there is an input smaller than the determined size of 1040 of FIG. 11. .
  • FIG. 12 is an example of pattern input further comprising performing fingerprint recognition according to an embodiment of the present invention.
  • FIG. 13 illustrates an example of a fingerprint image acquired at a turning point of a pattern input. Fingerprint recognition may be implemented to be performed by a processor inside the device, and may also be implemented to be performed by a separate server externally, without particular limitation.
  • the turning point is a point at which the direction of the pattern input is changed or started / ended
  • FIG. 12 illustrates a turning point defined from the 1210 screen to the 1240 screen. The turning point corresponds to the turning point. .
  • the direction in which the pattern is input is shown by an arrow together with the image acquired at the turning point. The obtained image information and information about the direction may be used for authentication of the pattern.
  • the operation interface unit 110 receives a pattern from the user, transfers the input pattern to the pattern lock interface unit 120, and the pattern lock interface unit reflects the transferred pattern degree according to the above-described predetermined rule on the screen. I can display it.
  • the fingerprint recognition module or the fingerprint recognition server that performs the fingerprint recognition may receive the information on the pattern input through the pattern lock interface and perform the fingerprint recognition.
  • the manipulation interface unit 110 may recognize a turning point generated while drawing a pattern and acquire an image according to the turning point.
  • the fingerprint image related to the turning point may be directly acquired by the manipulation interface unit through image processing of an image acquired in the region where the manipulation interface is displayed, or may be implemented to receive a fingerprint image from software or sensor elements provided in the device. Do.
  • the fingerprint pattern may be defined as Touch, Touch Draw1, Draw1 Draw2, or DrawN-1-DrawN. . If the user changes the direction twice while drawing a pattern, that is, there are two turning points, there may be a total of four fingerprint images handled for fingerprint recognition.
  • the first fingerprint input is performed by the manipulation interface unit, and the actual fingerprint recognition process may be implemented through a separate authentication module in the device or a fingerprint recognition server provided separately from the device. .
  • the obtained plurality of fingerprint patterns can be compared with the original fingerprint already stored to minimize the False Reject Rate (FRR) and False Accept Rate (FAR) in two ways.
  • the decision is made.
  • the fingerprint recognition process for minimizing the FRR may minimize the FRR, for example, by comparing a plurality of fingerprints acquired at the turning point with an enrolled fingerprint that is already stored independently of each other. This enables fingerprint recognition that is not significantly affected by hand conditions (eg, dryness).
  • a plurality of fingerprints acquired during the pattern authentication process are shape-matched and corrected to generate a final fingerprint image to be compared with an already stored registered fingerprint.
  • an average value of the fingerprint image acquired at the turning point may be generated as the final fingerprint image.
  • two-dimensional or three-dimensional warping of the fingerprint image acquired at the turning point is performed, and the final fingerprint image is modified by modifying the acquired fingerprint image to be opposite to the change of direction in consideration of the change in direction at the turning point. It is also possible to use.
  • the fingerprint recognition process illustrated above aims to minimize FAR and should not affect FRR.
  • only one limited fingerprint shape e.g., a specific part of the fingerprint
  • the final fingerprint is used. It is desirable to perform the recognition (FIG. 14). This prevents the tendency of FAR to increase by minimizing FRR.
  • the lung curve in FIG. 14 is an image of the center portion obtained from the acquired fingerprint image, and synthesizing one final fingerprint using only the image of the center portion may be implemented using a known technique.
  • pattern authentication and two-channel user authentication of fingerprint authentication can be performed, and correction for minimizing FRR and FAR occurring in the fingerprint recognition process can be performed.
  • 15 is a flowchart illustrating a pattern input method according to an embodiment of the present invention.
  • the manipulation interface unit 110 may provide a virtual manipulation interface to the user in order to receive a pattern input from the user (step S910).
  • the operation interface unit is to provide a virtual pattern interface separate from the existing pattern lock interface unit.
  • the input pattern of the user input through the interface provided by the manipulation interface unit may be implemented to be directly processed by a separate authentication module (not shown) as an input pattern for user authentication.
  • the information of the input pattern input through the virtual operation interface is linked with the pattern provided by the pattern lock interface unit, and the pattern at the pattern lock interface determined to be linked with the input pattern is treated as a pattern for user authentication. It is also possible to implement to.
  • the authentication module may include a first similarity between the pattern input through the manipulation interface unit and the previously stored secret pattern, and the interlocking pattern of the pattern lock interface that matches the position of the pattern input through the manipulation interface unit, and the previously stored secret.
  • the second similarity between the patterns may be calculated (summed) according to a predetermined weight to determine whether the final pattern matches.
  • the pattern lock interface unit 120 may provide the user with some or all of the information regarding the user's pattern input through the manipulation interface (S920). Of course, according to another embodiment of the present invention, it is also possible to implement the pattern through the pattern lock interface so that it is not displayed.
  • the additional input interface unit 130 may provide an additional input interface (virtual wheel interface) for requesting a specific input to the user when it is determined that the input of the pattern of the user is ended and the provision of the virtual manipulation interface is ended ( Step S930).
  • an additional input interface virtual wheel interface
  • 16 is a diagram illustrating an example in which an operation interface unit of the present invention provides an operation interface to a user.
  • the manipulation interface unit 110 may provide the manipulation interface to the user after receiving an input for selecting a point on the screen of the device from the user.
  • the manipulation interface unit 110 may generate and provide the manipulation interface to a user based on one point selected by the user or in an area including the one point.
  • the predetermined node including one node or one node selected by the user as shown in 1620 of FIG. 16.
  • a virtual operation interface can be created in the area of.
  • a user may input a secret pattern using a virtual manipulation interface generated after inputting any one node.
  • FIG. 17 is a diagram illustrating another example in which an operation interface unit of the present invention provides a virtual operation interface to a user.
  • the example of FIG. 17 is similar to FIG. 16 except that the point selected by the user does not correspond to any node of the pattern lock interface.
  • the point selected by the user does not correspond to any node of the pattern lock interface, and the manipulation interface unit 110 manipulates a predetermined area including the selected point or based on the point selected by the user.
  • the interface may be generated and provided to the user (1720 and 1730).
  • the additional input interface unit may provide an additional input interface in an area in which the virtual manipulation interface is located, such as 1740.
  • a virtual operation interface provided to the user by the operation interface 110 Initially, the operation interface is not visually provided to the user, but according to the secret pattern received in the process of receiving a secret pattern input by the user, a part of the operation interface. Or it may provide all visually.
  • the user may input a pattern in an arbitrary area and may input a pattern having a variable size.
  • the variable size pattern means that the size of the manipulation interface is not determined in the process of drawing the pattern, and the length of each line constituting the pattern may be different. For example, the length of the line from point 1 to point 2 and the line from point 2 to point 3 may be different.
  • an additional touch gesture indicates that the pattern is being drawn (moving to the next node) so that the direction of the drawn pattern can be recognized.
  • the additional input interface of FIG. 18 is another embodiment of a further input interface.
  • the additional input interface of FIG. 18 is a touch brush interface provided by a touch brush method, and when there is a touch input from a user as illustrated, a brush and painting effect may be provided on a screen screen near a region where an input occurs. .
  • the particular input may be a scratch type input.
  • the additional input interface displays an area on the screen, such as a square of the same or similar size as the operation interface, to erase the trace of the pattern input by the user. Can be removed.
  • FIG. 19 is an embodiment in which a virtual operation interface is provided in an inclined form. According to an embodiment of the present invention, it is also possible for a user to input a pattern in a form inclined at a predetermined angle rather than horizontal in an area where a virtual manipulation interface exists.
  • the screens of 1910 and 1920 are examples in which the user inputs patterns with different inclinations.
  • the manipulation interface 110 visually indicates that the user inputs a pattern input from the user. In this case, it is not possible to distinguish whether the manipulation interface 110 user input is Z or N. In the present embodiment, in consideration of the additional input of the user input through the virtual wheel interface, the operation interface unit 110 can distinguish whether the input pattern is Z or N. For example, when the user operates the virtual wheel in the clockwise direction in 1940, the manipulation interface 110 may determine that the input pattern is Z because the inclined direction of the pattern input by the user is right. On the contrary, when the user operates the virtual wheel in the counterclockwise direction, it may be determined that the inclined direction is left and the input pattern is N.
  • the manipulation interface unit 110 determines the rotation direction of the pattern that is currently not horizontally input by using the additional input information input through the additional input interface, and rotates the input pattern in consideration of the determined rotation direction. Correct with a horizontal pattern. Information about the corrected horizontal pattern is transmitted to the pattern lock interface 120.
  • the pattern input method as described above may be embodied as computer readable codes on a computer readable recording medium. That is, in the recording medium implementing the pattern input method according to the present invention, a process of providing the user with an operation interface for inputting the pattern on the screen of the device, some or all of the information on the pattern input through the operation interface Providing a pattern lock interface for providing the user to the user; and providing a virtual wheel interface for requesting a specific input of the user when it is determined that the user's pattern input is terminated and the operation of the operation interface is terminated. It may be recorded the program to perform the.
  • Computer-readable recording media include all kinds of recording media on which data that can be read by a computer system is stored. Examples of computer-readable recording media include RAM, ROM, CD-ROM, magnetic tape, optical data storage, floppy disk, and the like, and may be implemented in the form of a carrier wave or transmission via the Internet.
  • the computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
  • functional programs, codes, and code segments for implementing the recording method can be easily inferred by programmers in the art to which the present invention belongs.
  • Each component of the present invention may refer to software or hardware such as a field-programmable gate array (FPGA) or an application-specific integrated circuit (ASIC).
  • FPGA field-programmable gate array
  • ASIC application-specific integrated circuit
  • the components are not limited to software or hardware, and may be configured to be in an addressable storage medium and may be configured to execute one or more processors.
  • the functions provided in the above components may be implemented by more detailed components, or may be implemented as one component that performs a specific function by combining a plurality of components.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 사용자 인증을 위한 패턴 입력 장치와 방법을 개시한다. 본 발명은 기존의 패턴 기능과 같이 사용자가 패턴락 인터페이스를 통하여 직접 패턴을 입력하지 않고, 별도로 제공되는 가상의 조작 인터페이스를 이용하여 패턴을 입력하여 스머지 공격(Smudge Attack)에 강인한 특성을 갖는다. 본 발명의 패턴 입력 방법은, 패턴락 인터페이스와는 별도로, 상기 디바이스의 스크린 상에 상기 패턴을 입력하기 위한 가상의 조작 인터페이스를 상기 사용자에게 제공하는 단계; 및 상기 가상의 조작 인터페이스를 통해 패턴을 입력받는 단계를 포함한다.

Description

패턴 입력 장치 및 방법과 이를 이용한 기록 매체
본 발명은 패턴 입력 장치 및 방법과 이를 이용한 기록 매체에 관한 것이다. 보다 상세하게는, 모바일 스마트 컴퓨팅 장치나, 스마트 디지털 도어록과 같이 사용자 인증을 위해 패턴을 입력받는 장치에서, 스머지 공격등을 통해 패턴 정보가 노출되는 것을 방지하기 위한 패턴 입력 장치 및 방법에 관한 것이다.
최근에는 많은 사람들이 스마트 폰, 태블릿 컴퓨터, 테이블탑 컴퓨터 등 다양한 모바일 스마트 컴퓨팅 장치들을 이용하고 있다. 많은 사람들은 모바일 스마트 컴퓨팅 장치를 이용하여 다양한 업무를 처리하는 경우가 증가하고 있다. 모바일 스마트 컴퓨팅 장치를 이용하여 처리하는 업무로는 개인 정보 활용, 업무 관련 정보, 인터넷 뱅킹과 같은 금융 서비스 업무 등 보안이 중요한 정보 처리가 다수 존재한다. 또한, 사람들은 모바일 스마트 컴퓨팅 장치에 개인 정보, 업무 정보 등 보안이 중요한 정보가 많이 저장되어 있는 경우가 많다.
모바일 스마트 컴퓨팅 장치는 보안성 향상을 위한 하나의 예로써, 패턴락(Pattern Lock)을 이용하여 사용자 인증을 요청하여 보안성을 향상하는 기능이 있다. 예를 들어, 모바일 스마트 컴퓨팅 장치는 아홉 개의 노드를 사용자에게 제공하고, 사용자는 제공된 아홉 개의 노드 중 넷 이상의 노드를 연결하여 패턴을 입력함으로써 사용자를 인증하는 기능이다. 노드의 숫자는 변경될 수 있다.
이러한 패턴락 기능은 사용자에게 이용 편리성을 제공하지만, 패턴을 입력하면서 스크린 상에 패턴의 흔적이 남는 문제점이 존재한다. 예를들어, 스크린 상에 남아있는 패턴의 흔적을 이용하여 사용자 인증이 가능한 비밀 패턴을 추측하는 스머지 공격(Smudge Attack)에 사용자의 비밀 패턴이 쉽게 노출될 수 있다.
도 1은 스머지 공격을 이용하여 스마트폰의 비밀 패턴을 추측하는 일 예를 나타낸다. 도 1을 참조하여 스머지 공격을 설명하면, 스머지 공격이란 스마트폰과 같은 모바일 스마트 컴퓨팅 장치를 습득했을 때, 가장 빠르게 스마트폰을 해킹할 수 있는 방법이다. 스머지 공격의 예로는, 스마트폰을 비스듬하게 놓고 보면 지문이 보이는데, 이 지문의 흔적을 이용하여 잠금을 해제할 수 있는 비밀 패턴을 추측할 수 있다.
이러한 스머지 공격은, 다양한 각도, 다양한 밝기, 다양한 명암을 변화시켜가며 비밀 패턴 추측의 성공률을 높일 수 있다. 또한, 사용자가 공개된 장소에서 비밀 패턴을 입력하면, 주변에 위치한 사람들이 사용자의 입력 패턴을 어깨 너머로 훔쳐 보아 비밀 패턴을 쉽게 유추할 수 있는 문제점도 존재한다.
본 발명이 해결하고자 하는 기술적 과제는 기존의 패턴 기능과 같이 사용자가 패턴락 인터페이스를 통하여 직접 패턴을 입력하지 않고, 조작 패드를 이용하여 패턴을 입력하여 스머지 공격(Smudge Attack)에 강인한 패턴 입력 장치 및 방법을 제공하는 것이다.
또한, 본 발명이 해결하고자 하는 기술적 과제는 패턴 입력 흔적을 왜곡 시키기 위한 가상휠을 포함한 패턴 입력 장치 및 방법을 제공하는 것이다.
또한, 본 발명이 해결하고자 하는 기술적 과제는 패턴락 인터페이스에 비하여 크기가 작은 조작 패드를 통하여 패턴을 입력하여 스머지 공격에 강인한 패턴 입력 장치 및 방법을 제공할 수 있다.
또한, 또한, 본 발명이 해결하고자 하는 기술적 과제는 조작 패드의 위치를 수시로 변경함으로써, 스머지 공격에 보다 강인한 패턴 입력 장치 및 방법을 제공할 수 있다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해 될 수 있을 것이다.
상기 기술적 과제를 달성하기 위한 본 발명의 일 태양(ASPECT)에 따른 패턴 입력 방법은, 디바이스의 사용자 인증을 위한 패턴 입력하는 방법에 있어서, 상기 패턴 입력을 입력 받기 위한 인터페이스를 제공하는 패턴 입력 장치가 상기 패턴 입력을 위해 상기 디바이스의 스크린에 표시되거나 감추어지는 패턴락 인터페이스와는 별도로, 상기 디바이스의 스크린에 상기 패턴을 입력하기 위한 가상의 조작 인터페이스를 상기 사용자에게 제공하는 단계; 및 상기 가상의 조작 인터페이스를 통해 패턴을 입력받는 단계를 포함할 수 있다.
상기 디바이스는 사용자 인증과 관련된 적어도 일부의 동작, 예를 들어 패턴 입력 등의 동작을 수행하는 스마트폰, 터치스크린을 포함하는 퍼스널컴퓨터, 태블릿 등을 포함한다. 디바이스는 사용자의 터치에 따른 패턴 입력이 가능한 전자 장치를 의미하며 특정한 장치에 국한되지는 않는다. 패턴 입력 장치는, 디바이스 자체 또는 디바이스에서 패턴 입력과 관련된 기능을 수행하는 모듈일 수 있다. 여기에서, 모듈은 예를 들어 디바이스에 포함된 프로세서, 터치스크린 등이다.
상기 패턴 입력 장치는 패턴락 인터페이스, 그리고 이와는 별도로 가상의 조작 인터페이스를 통해 사용자로부터 패턴을 입력 받는다. 특히, 패턴락 인터페이스가 아닌 가상의 조작 인터페이스를 통해 패턴을 입력받는다.
여기에서, 패턴락 인터페이스는 패턴 입력을 위해 직접적으로 제공되는 인터페이스로서, 기존의 인터페이스와 일부 개념은 유사하지만, 실제로 사용자로부터의 직접 터치를 입력 받지는 않는다. 본 발명의 패턴 입력 장치는, 패턴락 인터페이스를 이용하여 패턴을 입력하는 것이 아니라, 별도로 제공되는 가상의 조작 인터페이스를 통해 패턴을 입력받는다.
가상의 조작 인터페이스는 인증하고자 하는 패턴을 사용자로부터 입력 받지만, 패턴의 진정성을 판단하는 별도의 인증 모듈과 직접 연동되지 않도록 구현될 수 있다. 인증 모듈은 패턴락 인터페이스를 기준으로 입력 받는 패턴이 이미 등록된 패턴과 일치 또는 유사한지 여부를 판단할 수 있다. 여기에서, 가상의 의미는 패턴 인증의 관점에서 인증 모듈과 직접적으로 연동되는 인터페이스가 아닌, 기존의 패턴락 인터페이스와는 별도로 부가하여 제공되는 개념을 반영하기 위한 표현으로서, 본 발명에서 가상의 조작 인터페이스와 조작 인터페이스는 동일한 개념으로 이해되어야 한다.
가상의 조작 인터페이스와 패턴락 인터페이스는 디바이스의 스크린 상에 동시에 존재하며, 서로 구분되는 영역에 존재할 수 있다. 가상의 조작 인터페이스가 제공되는 영역의 크기는 상기 패턴락 인터페이스가 제공되는 영역의 크기 이하일 수 있다. 패턴락 인터페이스와 조작 인터페이스의 크기 및 위치는 사용자에 의해 다양하게 설정될 수 있다.
또한, 가상의 조작 인터페이스는 미리 설정된 크기와 위치로 제공되거나, 매번 다른 크기와 위치로 제공될 수 있다. 미리 설정된 형태로 가상의 조작 인터페이스를 제공하는 경우에도, 패턴 입력이 수행되는 위치와 관련하여 사용자로부터 위치를 선택하는 입력이 존재할 경우, 선택된 해당 영역에서 새롭게 조작 인터페이스를 제공하도록 구현될 수 있다.
미리 설정된 크기와 위치에 조작 인터페이스를 스크린 상에서 미리 제공되더라도, 해당 영역 이외에 다른 영역에서 어느 한 지점을 선택하는 입력이 있을 경우, 이 경우 사용자 설정에 따른 가상의 조작 인터페이스가 제공되거나 가변적 크기를 갖는 가상의 조작 인터페이스가 제공될 수 있다. 가상의 조작 인터페이스가 제공되는 위치는, 상기 사용자에 의하여 어느 한 지점이 선택될 경우 선택된 지점을 포함하며, 상기 지점과 일정한 거리 이내에 있는 소정의 영역이 되도록 구현될 수 있다.
본 발명의 패턴 입력 방법은, 가상의 조작 인터페이스를 통해 사용자의 조작에 따른 패턴 입력, 터치 입력이 감지된 경우, 사용자에게 피드백을 제공하는 단계를 더 포함할 수 있다.
사용자의 패턴 입력과 관련된 세션이 종료된 이후, 가상의 조작 인터페이스를 제공하는 세션이 다시 시작된 경우, 새롭게 시작된 가상의 조작 인터페이스가 제공되는 영역의 위치는 기존의 위치와 동일하거나 또는 적어도 일부 변경될 수 있다. 가상의 조작 인터페이스가 제공되는 영역의 위치와 크기는 종전 조작 인터페이스의 그것과 동일할 수 있다.
상기 패턴락 인터페이스를 제공하는 단계는, 가상의 조작 인터페이스를 통해 사용자에 의해 입력된 패턴에 대한 정보를 선택적으로 사용자에게 제공할 수 있다. 즉, 어떠한 정보도 제공하지 않을 수도 있다. 또한, 패턴 입력에 관한 정보 중 패턴 형성의 시작점에 관한 정보를 상기 사용자에게 제공할 수 있다. 패턴 입력에 대하여 진동 피드백을 제공할 수도 있으며, 이 경우 사용자는 패턴이 입력되고 있음을 알 수 있다.
또한, 패턴락 인터페이스를 제공하는 단계는, 가상의 조작 인터페이스를 통해 입력된 패턴에 관한 정보 중 현재 입력 중인 노드에 관한 정보, 특히 상기 패턴 입력 정보 중 상기 패턴의 현재 입력 중인 노드 및 상기 사용자의 입력 방향에 관한 정보를 상기 사용자에게 선택적으로 제공할 수 있다. 또한, 상기 패턴 입력에 관한 정보를 모두 상기 사용자에게 제공할 수 있다.
여기에서, 패턴 입력은, 예를 들어 회전 입력, 지그재그 입력, 가로 입력, 세로 입력 그리고, 이들이 둘 이상 조합된 입력일 수 있다. 패턴 입력에 관한 정보 제공 방식은 가상의 조작 인터페이스에도 동일하게 적용될 수 있다.
상기 가상의 조작 인터페이스를 통해 입력 받은 패턴은, 사용자로부터 패턴 입력이 시작된 시점에서 입력되는 패턴의 방향이 변경되는 시점까지의 제1 패턴과, 상기 패턴 입력의 방향이 변경되는 시점 이후의 제2 패턴으로 구별될 수 있다.
이 경우, 상기 정의에 따른 제1 패턴 중 적어도 일부를 이용하여, 상기 가상의 조작 인터페이스가 표시되는 영역을 결정하는 단계; 및 상기 제2 패턴 중 적어도 일부가 상기 결정된 영역을 벗어날 경우, 해당 세션을 종료하고 초기화할지 여부를 결정하는 단계를 더 포함할 수 있다.
여기에서, 조작 인터페이스 제공 영역을 결정하는 것은, 미리 결정된 패턴 입력의 속도, 위치 또는 방향을 기준으로, 상기 제1 패턴을 이용하여 제공되는 조작 인터페이스의 위치, 크기, 또는 방향을 결정하는 것을 의미한다.
또한, 본 발명은 상기 가상의 조작 인터페이스를 상기 사용자에게 제공하는 단계에 이어, 상기 사용자의 패턴 입력이 종료된 경우, 상기 사용자의 특정된 추가 입력을 요구하는 추가 입력 인터페이스를 제공하는 단계를 더 포함할 수 있다.
추가 입력 인터페이스는, 예를 들어 가상휠 인터페이스, 터치 붓 인터페이스 등이 있다. 터치 붓 인터페이스는 사용자의 추가 입력(예를 들어, 터치 입력)이 존재하는 영역에서 붓 터치 효과(브러쉬 효과, 또는 해당 영역의 화소값이 달라지는 효과)를 제공하는 인터페이스이다.
추가 입력 인터페이스는 가상의 조작 인터페이스가 존재하는 디바이스의 스크린 영역 중 기 설정된 비율 이상의 영역이 포함되는 영역에 존재하도록 사용자에게 제공될 수 있다. 여기에서 조작 인터페이스의 제공이 종료된 경우는, 예를 들어 패턴을 입력 받는 단계와 관련된 세션이 종료된 경우, 또는 조작 인터페이스를 제공하는 세션이 종료된 경우를 의미한다.
사용자로부터 사용자 인증을 위한 패턴을 가상의 조작 인터페이스로부터 입력받는 단계에 이어, 본 발명은 상기 입력된 패턴에 포함된 사용자의 지문을 이용한 지문 인증을 수행하는 단계를 더 포함할 수 있다.
지문 인증 단계는, 조작 인터페이스의 위치가 고정된 경우 또는 조작 인터페이스의 위치가 가변되는 경우 모두에 적용 가능하다. 특히, 상기 입력되는 패턴의 방향이 변경되는 터닝 포인트에서 획득되는 사용자의 지문 영상을 이용하여 지문 인증을 수행할 수 있다.
상기 지문 인증을 수행하는 단계는, 상기 입력되는 패턴의 방향을 이용하여 상기 터닝 포인트에서 획득되는 지문 영상을 보정하는 단계, 또는 상기 터닝 포인트가 복수개인 경우 상기 획득되는 복수개의 지문 영상을 이용하여 대표 지문 영상을 생성하는 단계를 더 포함할 수 있다. 상기 보정된 지문 영상과, 상기 생성된 대표 지문 영상 중 적어도 하나를 이용할 경우, 지문 인증의 오인식을 낮출 수 있다.
또한, 본 발명의 또 다른 기술적 과제를 달성하기 위한 일 태양(ASPECT)에 따른 패턴 입력 장치는, 사용자 인증을 위한 패턴 입력 과정에서 표시되거나 감추어지는 패턴락 인터페이스를 제공하는 패턴락 인터페이스부; 및 패턴락 인터페이스와는 별도로, 디바이스의 스크린 상에 패턴을 입력하기 위한 가상의 조작 인터페이스를 사용자에게 제공하는 조작 인터페이스부를 포함할 수 있다.
또한, 본 발명의 패턴 입력 장치는, 사용자의 패턴 입력이 종료된 것으로 판단되어 조작 인터페이스의 제공이 종료된 경우, 사용자의 추가 입력을 요구하는 추가 입력 인터페이스를 제공하는 추가 입력 인터페이스부를 더 포함할 수 있다.
추가 입력 인터페이스부는, 예를 들어 가상휠 인터페이스 또는 붓 터치 인터페이스를 제공할 수 있다. 제공되는 추가 입력 인터페이스의 위치는 가상의 조작 인터페이스가 존재하는 상기 디바이스의 스크린 영역 중 기 설정된 비율 이상의 영역이 포함되는 영역에 존재하도록 상기 사용자에게 제공될 수 있다.
가상의 조작 인터페이스부는 사용자의 패턴 입력이 종료된 것으로 판단된 후, 다시 가상의 조작 인터페이스를 제공하는데, 이 경우 가상의 조작 인터페이스가 제공되는 영역의 위치를 필요에 따라 변경할 수 있다.
패턴락 인터페이스부는, 입력된 패턴에 관한 정보 중 패턴 입력 초기, 또는 시작점에 관한 정보를 사용자에게 제공할 수 있다. 패턴락 인터페이스부는, 상기 패턴 입력에 관한 정보 중 현재 입력 중인 노드에 관한 정보만을 사용자에게 제공할 수 있다. 패턴락 인터페이스부는, 입력된 패턴에 대한 정보 중 패턴의 현재 입력 중인 노드 및 상기 사용자의 입력 방향에 관한 정보를 상기 사용자에게 제공할 수 있다.
상술한 바와 같이, 본 발명의 패턴 입력 방법 및 장치는, 스머지 공격(Smudge Attack)에 강인한 특성을 갖는다. 또한, 공개된 장소에서 사용자가 비밀 패턴을 입력하더라도, 주변 사람들에게 유출되는 것을 방지할 수 있다.
도 1은 스머지 공격을 이용하여 스마트폰의 비밀 패턴이 유출되는 일 예를 나타낸다.
도 2는 본 발명의 일 실시예에 따른 패턴 입력 장치에 관한 블록도이다.
도 3은 본 발명의 가상의 조작 인터페이스부에 의하여 제공되는 가상의 조작 인터페이스부 및 패턴락 인터페이스부에 의하여 제공되는 패턴락 인터페이스의 일 예를 나타내는 도면이다.
도 4는 사용자가 가상의 조작 인터페이스를 통하여 'Z' 형상의 패턴 입력을 수행하는 모습을 나타낸 도면이다.
도 5는 패턴락 인터페이스부가 패턴락 인터페이스를 통하여 패턴 입력 정보의 전부를 사용자에게 제공하는 일 예이다.
도 6은 패턴락 인터페이스부가 패턴락 인터페이스를 통하여 패턴 입력 정보의 일부를 사용자에게 제공하는 일 예이다.
도 7은 패턴락 인터페이스부가 패턴락 인터페이스를 통하여 패턴 입력 정보의 일부를 사용자에게 제공하는 다른 예이다.
도 8은 본 발명의 가상휠 인터페이스부에 의하여 제공되는 가상휠 인터페이스의 일 예를 설명하는 도면이다.
도 9는 가상의 조작 인터페이스의 크기를 결정하는 패턴 입력 방법의 예이다.
도 10은 조작 인터페이스의 영역이 확대되는 예이고, 도 11은 조작 인터페이스의 영역이 확대되지 않는 예이다.
도 12는 본 발명의 일 실시예에 따라 지문 인식을 수행하는 단계를 더 포함하는 패턴 입력의 예이다. 도 13은 패턴 입력의 터닝 포인트(turning point)에서 획득되는 지문 영상과 터닝 직전의 방향을 나타낸 예이다.
도 14는 중앙 부분의 영상만을 이용하여 최종적인 지문 하나를 합성하는 것은, 기 공지된 기술을 이용하여 구현할 수 있다.
도 15는 본 발명의 일 실시예에 따른 패턴 입력 방법에 관한 흐름도이다.
도 16은 가상의 조작 인터페이스부가 사용자에게 조작 인터페이스를 제공하는 일 예를 나타내는 도면이다.
도 17의 예는, 도 16과 유사하나, 사용자에 의하여 선택된 지점이 패턴락 인터페이스의 어느 한 노드에 해당하지 않는 경우를 예로 든 것이다.
도 18은 본 발명의 일 실시예에 따른, 추가 입력 인터페이스의 또 다른 예이다.
도 19는 가상의 조작 인터페이스가 기울어진 형태로 제공되는 실시예이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
어떤 구성요소가 다른 구성요소에 연결되어있다거나 접속되어있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 직접 연결되어있다거나 직접 접속되어 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함될 수 있다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
본 발명에 따른 입력 장치는 터치 패드 등 사용자 입력을 수신할 수 있는 모바일 스마트 폰, 태블릿 컴퓨터 또는 테이블 탑 등의 디바이스, 그리고 디지털 도어락 장치 등에 적용될 수 있다. 또한, 본 발명은 휴대용 장치가 아닌 데스크 PC 등 일반 PC 환경에서도 적용될 수 있다.
기존 패턴 입력 방법은 사용자가 패턴락 인터페이스에 직접 패턴을 입력하였다. 본 발명은 스머지 공격(Smudge Attack) 등을 방지하기 위하여 사용자가 패턴락 인터페이스에 직접 패턴을 입력하는 것이 아니라 조작 패드를 이용하여 패턴을 입력하는 방식을 이용한다.
또한, 본 발명은 추가 입력 인터페이스, 예를들어 가상휠 인터페이스, 붓 터치 인터페이스를 이용하여 스머지 공격으로부터 보아 안전성을 도모할 수 있다.
본 발명의 구체적인 설명에 관하여는 도면을 참조하여 설명한다.
도 2는 본 발명의 일 실시예에 따른 패턴 입력 장치에 관한 블록도이다. 도 2를 참조하면, 본 발명의 일 실시예에 따른 패턴 입력 장치(100)는, 조작 인터페이스부(110), 패턴락 인터페이스부(120), 추가 입력 인터페이스부(130)를 포함할 수 있다. 본 실시예에의 패턴 입력 장치는, 사용자 인증을 위한 디바이스 그 자체일 수 있고, 디바이스에 포함되며 패턴 입력과 관련된 기능을 수행하는 장치, 예를 들어 프로세서, 터치 스크린을 포함한다. 디바이스는 모바일 스마트폰이나 디지털 도어락과 같이 사용자 인증을 위해 패턴이 필요한 장치로서, 장치의 종류에 제한은 없다.
도 2에서 조작 인터페이스부(110)는 디바이스의 스크린 상에 패턴 입력을 위한 가상의 조작 인터페이스를 사용자에게 제공할 수 있다. 여기에서 가상의 조작 인터페이스는, 기존의 패턴 입력 시스템에서 제공된 패턴락 인터페이스와는 별개로 그리고 추가적으로 제공되며, 사용자 조작에 따른 패턴 입력을 보안이 개선된 상태로 용이하게 받기 위해 제공되는 인터페이스를 의미한다.
조작 인터페이스부(110)에 입력되는 패턴은, 패턴 입력이 시작된 시점부터, 패턴의 방향이 바뀌는 시점까지의 제1 패턴과, 상기 패턴 입력의 방향이 변경되는 시점 이후의 제2 패턴으로 구별될 수 있다. 제1 패턴 입력은 패턴 입력의 초기값으로서, 이를 이용하여 조작 인터페이스부(110)는 제공되는 조작 인터페이스의 크기를 결정할 수 있다.
패턴락 인터페이스부(120)는 가상의 조작 인터페이스를 통해 입력되는 패턴 에 관한 정보 중 일부나 전부를 사용자에게 제공하는 패턴락 인터페이스를 사용자에게 제공할 수 있다. 또한, 패턴락 인터페이스부(120)는 비밀 패턴에 대한 정보 노출을 방지하기 위하여 외부에 표시되지 않도록 구현되는 것도 가능하다.
추가 입력 인터페이스부(130)는 사용자의 패턴 입력이 종료된 것으로 판단되어 조작 인터페이스의 제공이 종료된 경우, 사용자의 특정 입력을 요구하는 가상휠 인터페이스, 붓 터치 인터페이스를 제공할 수 있다.
도 3은 본 발명의 조작 인터페이스부에 의하여 제공되는 조작 인터페이스부 및 패턴락 인터페이스부에 의하여 제공되는 패턴락 인터페이스의 일 예를 나타내는 도면이다.
도 3을 참조하면, 디바이스의 스크린 상단부에 패턴락 인터페이스부(120)에 의하여 사용자에게 제공되는 패턴락 인터페이스가 존재하며, 디바이스의 스크린 하단부에 조작 인터페이스부(110)에 의하여 사용자에게 제공되는 조작 인터페이스가 존재하는 것을 볼 수 있다. 사용자는 제공된 조작 인터페이스를 통하여 사용자 인증을 위한 비밀 패턴을 입력할 수 있다.
도 3과 같이, 가상의 조작 인터페이스 및 패턴락 인터페이스는 동시에 존재할 수 있다. 또한, 가상의 조작 인터페이스 및 패턴락 인터페이스는 디바이스의 스크린 상에서 구분되는 영역에 존재할 수 있다.
또한, 조작 인터페이스부(110)에 의하여 제공되는 가상의 조작 인터페이스가 디바이스의 스크린 상에서 차지하는 영역의 크기는 패턴락 인터페이스가 디바이스의 스크린 상에서 차지하는 영역의 크기와 동일하거나 작을 수 있다.
가상의 조작 인터페이스가 디바이스의 스크린 상에서 차지하는 영역의 크기가 패턴락 인터페이스가 차지하는 영역의 크기보다 작도록 설정하는 것은, 사용자가 공개된 장소에서 비밀 패턴을 입력할 때, 주변 사람에게 패턴 정보가 유출되는 것을 방지하기 위해서이다. 다만, 가상의 조작 인터페이스의 크기가 작음으로 인하여 사용자가 패턴 입력이 부정확하거나 하는 것을 방지하기 위하여, 사용자가 조작 인터페이스를 이용하여 입력하는 패턴 입력 정보의 일부나 전부를 패턴락 인터페이스를 통하여 사용자에게 제공할 수 있다.
구체적으로, 도 4와 7을 참조하여, 패턴락 인터페이스부(120)가 패턴 입력 정보의 일부나 전부를 전하는 예들을 설명한다. 여기에서 제공되는 패턴락 인터페이스는 보안을 위하여 전혀 표시되지 않도록 구현되는 것도 가능하다.
도 4는 사용자가 가상의 조작 인터페이스를 통하여 'Z' 형상의 패턴 입력을 수행하는 모습을 나타낸 도면이다. 보다 구체적으로 도 5와 7은 사용자가 도 3과 같이 'Z' 형상의 패턴을 입력하는 경우를 예를 들어 설명하는 것이다.
패턴 입력의 일 예로서, 조작 인터페이스부(110)는 사용자의 조작에 의한 패턴 입력 발생시, 입력이 진행되고 있음을 사용자에게 제공하기 위한 별도의 진동이나 소리와 같은 피드벡을 사용자에게 제공할 수 있다. 또 다른 예에서, 조작 인터페이스부(110)는 패턴락 인터페이스와 소정의 각도로 기울어진 형태로 가상의 조작 인터페이스를 제공할 수 있다. 또한, 사용자가 일정하게 기울어진 각도로 패턴을 입력할 경우, 조작 인터페이스부(110)는 기울어지게 입력된 패턴을 수평하게 보정하고, 보정된 패턴을 패턴락 인터페이스부(120)에 전달할 수 있다.
도 5는 패턴락 인터페이스부가 패턴락 인터페이스를 통하여 패턴 입력 정보의 전부를 사용자에게 제공하는 일 예이다. 도 5를 참조하면, 사용자의 패턴 입력 정보가 'Z' 형상일 때, 패턴락 인터페이스가 사용자가 입력한 패턴 입력 정보인 'Z' 형상을 사용자에게 모두 제공할 수 있다. 그러나, 공개된 장소에서의 패턴 유출 등을 방지하기 위하여 입력된 패턴 정보 중 일부만을 사용자에게 제공하는 것이 보다 바람직할 수 있다.
도 6은 패턴락 인터페이스부가 패턴락 인터페이스를 통하여 패턴 입력 정보의 일부를 사용자에게 제공하는 일 예이다. 도 6을 참조하면, 패턴락 인터페이스부(120)는 사용자의 패턴 입력 중 현재 입력되고 있는 노드에 관한 정보만을 패턴락 인터페이스를 통하여 사용자에게 제공할 수 있다.
즉, 패턴락 인터페이스부(120)는 사용자가 입력하는 패턴이 'Z' 형상인 경우, 사용자가 입력하는 'Z' 형상을 구성하는 노드를 현재 입력 중인 노드 정보를 사용자에게 제공할 수 있으며, 도 5를 참조하면, 610, 620, 630, 640 화면의 순으로 패턴락 인터페이스부(120)는 사용자에게 현재 입력되고 있는 노드에 관한 정보를 제공할 수 있다.
패턴락 인터페이스부(120)는 사용자에게 현재 입력되고 있는 노드에 관한 정보를 제공함으로써, 사용자의 패턴 입력의 정확도를 향상시키고 오 입력을 용이하게 파악하도록 도와줄 수 있다.
도 7은 패턴락 인터페이스부(120)가 패턴락 인터페이스를 통하여 패턴 입력 정보의 일부를 사용자에게 제공하는 다른 예이다.
도 7을 참조하면, 패턴락 인터페이스부(120)는 사용자의 패턴 입력 중 현재 입력되고 있는 노드에 관한 정보 및 사용자의 패턴 입력 방향에 관한 정보를 패턴락 인터페이스를 통하여 사용자에게 제공할 수 있다.
즉, 패턴락 인터페이스부(120)는 사용자가 가상의 조작 인터페이스를 통하여 입력하는 패턴 입력 정보를 이용하여 현재 입력되고 있는 노드 및 패턴 입력 방향에 관한 정보를 패턴락 인터페이스를 통하여 사용자에게 제공할 수 있다.
구체적으로 패턴락 인터페이스부(120)는 현재 사용자가 입력 중인 노드 및 현재 사용자의 패턴 입력 방향 정보를 이용하여, 사용자에게 도 6과 같은 정보를 제공할 수 있다.
또한, 패턴락 인터페이스부(120)는 도 3과 같이 사용자의 패턴 입력 중 패턴 형성이 시작점, 즉 첫 입력 노드에 관한 정보를 패턴락 인터페이스를 통하여 사용자에게 제공할 수도 있다.
조작 인터페이스부(110)에 의하여 사용자에게 제공되는 가상의 조작 인터페이스가 디바이스 스크린상에서 존재하는 위치는 사용자가 패턴 입력 시작할 때 마다 변경될 수 있다.
계속하여, 도 1을 참조하여 추가 입력 인터페이스부(130)에 관하여 설명한다. 추가 입력 인터페이스부(130)는 사용자가 조작 인터페이스를 통한 패턴 입력이 종료된 것으로 판단되면, 즉 패턴 입력과 관련한 세션, 또는 조작 인터페이스 제공과 관련된 세션이 종료한 경우, 사용자에게 특정된 추가 입력을 요구하는 가상휠 인터페이스, 붓 터치 인터페이스를 사용자에게 제공할 수 있다.
사용자의 패턴 입력이 종료된 것에 관한 판단은 기 설정된 바에 따라서 판단될 수 있으며, 기 설정된 바를 예로 들면, 사용자가 터치 입력으로 패턴 입력을 수행할 때, 터치가 해제되면, 사용자의 패턴 입력이 종료된 것으로 판단할 수 있다.
사용자의 패턴 입력이 종료되면, 조작 인터페이스부(110)는 조작 인터페이스 제공을 종료하고, 추가 입력 인터페이스부(130)가 가상휠 인터페이스나, 붓 터치 인터페이스를 사용자에게 제공할 수 있다. 여기에서, 추가 입력은 회전 입력, 지그재그 입력, 가로 입력 및 세로 입력 중 어느 하나의 형태가 될 수 있다.
추가 입력 인터페이스부(130)가 가상휠 인터페이스를 통하여 요구한 후, 사용자가 특정된 추가 입력을 수행하면, 사용자의 패턴 입력의 흔적이 지워지거나, 왜곡되어, 사용자가 조작 인터페이스부(110)를 통하여 입력한 비밀 패턴을 스머지 공격으로 보호하는 것이 가능하다.
따라서, 추가 입력 인터페이스부(130)는 조작 인터페이스가 제공된 디바이스 스크린 상의 영역과 일치하는 영역에 가상휠 인터페이스를 배치하여 사용자에게 제공할 수 있다. 여기에서, 추가 입력 인터페이스가 조작 인터페이스가 존재했던 영역과 정확히 일치하는 영역에 존재해야 하는 것은 아니며, 가상의 조작 인터페이스가 제공된 영역 중 일정 비율 이상을 포함하면 충분하다. 여기에서 일정 비율 이상의 의미는, 사용자가 입력한 패턴의 흔적을 왜곡할 수 있을 정도의 비율을 의미하며, 특별한 제한은 없다. 추가 입력 인터페이스가 제공되는 영역은, 가상의 조작 인터페이스의 형태에 따라 다르지만, 적어도 패턴이 존재하는 영역을 포함하도록 제공되는 것만으로도 패턴의 흔적은 일부가 제거될 수 있다.
조작 인터페이스부(110)에 의하여 사용자에게 제공되는 가상의 조작 인터페이스는 사용자가 패턴 입력 시마다 스크린 상 위치가 변경될 수 있다. 이를 통해 위치가 변경되는 경우, 추가 입력 인터페이스부(130)는 가장 마지막으로 사용자에게 제공된 조작 인터페이스가 디바이스의 스크린 상에 존재했던 영역에 추가 입력 인터페이스를 배치할 수 있다.
도 8은 본 발명의 가상휠 추가 입력 인터페이스부(130)에 의하여 제공되는 가상휠 인터페이스의 일 예를 설명하는 도면이다.
도 8에서 제시하는 가상휠 인터페이스는 사용자의 회전 입력을 요구하는 형태로 된 일 예이다. 구체적으로, 도 8을 도 3과 비교하면, 도 8에서 나타나는 가상휠 인터페이스가 디바이스의 스크린 상에 배치된 영역은 도 3에서 나타나는 조작 인터페이스가 디바이스의 스크린 상에 배치된 영역과 어느 정도 일치하는 것을 볼 수 있다. 특히, 가상휠 인터페이스가 표시되는 영역은 조작 인터페이스가 표시되는 영역을 포함하는 것이 바람직하다. 가상휠 인터페이스부(130)에 의하여 사용자에게 제공되는 가상휠 인터페이스는 조작 인터페이스부(110)에 의하여 사용자에게 제공되는 조작 인터페이스의 크기와 비례할 수 있다.
도 9는 조작 인터페이스의 크기를 결정하는 패턴 입력 방법의 예를 나타낸 것이다. 910의 화면은 패턴 입력과 관련하여 어떠한 사항도 터치 스크린에 표시되지 않은 상태에서, 사용자가 최초 터치 동작을 수행하는 예이다. 920의 화면은 최초 터치에 이어지는 사용자의 터치 동작을 나타낸 예이다. 패턴 입력 장치의 터치 센서를 통해 최초의 터치 동작이 감지되면, 조작 인터페이스부(110)는 미리 정해진 시간, 예를 들어 30ms 동안 진동 피드백과 함께 터치된 점을 표시할 수 있다. 물론, 본 실시예의 패턴 입력 장치는 사용자의 계속적인 터치입력을 따라 진동 피드백을 제공하도록 구현되는 것도 가능하다.
조작 인터페이스를 통해 터치가 입력되는 영역은 제한된 크기인 것이 바람직하다. 조작 인터페이스부(110)가 제공하는 가상 패턴인, 조작 인터페이스의 위치와 크기는 동적으로 변할 수 있으며, 사용자로부터의 패턴이 어느 정도 입력되었을 때 조작 인터페이스의 크기, 위치 및 방향은 특정될 수 있다.
여기에서, 패턴이 어느 정도 입력되었을 때는 예를 들어, 입력되는 패턴의 방향이 달라질 때, 또는 패턴 입력 후 일정 시간이 경과했을 때일 수 있다. 본 실시예에서는 이를 제1 패턴이라 명명하였으며, 조작 인터페이스부(110)는 초기 입력인 제1 패턴을 이용하여, 이후 제공되는 가상의 조작 인터페이스나, 패턴락 인터페이스의 크기, 위치, 또는 방향을 결정할 수 있다.
조작 인터페이스부(110)는 가로 방향 혹은 세로 방향 중 어느 하나가 각 위치별(가로 방향을 예로 들면, 왼쪽, 가운데, 오른쪽) 입력 점의 개수가 3개가 되면, 조작 인터페이스의 최종 크기를 결정할 수 있다(도 9의 930, 960). 또한, 조작 인터페이스가 표시되는 최종 영역 및 위치는 가로 방향과 세로 방향 모두 각 위치별 입력 점 3개가 결정된 후 특정될 수 있다(도 9의 940, 970).
조작 인터페이스의 최종 크기 및 위치가 결정되기 전이라면, 조작 인터페이스부는 조작 인터페이스의 에지 영역을 흐린 선으로 보여주는 것이 바람직하며, 최종 크기 및 위치가 결정되면 진한 선으로 보여주는 것이 바람직하다.
도 9의 920과 같이 첫 번째, 두 번째 점이 입력된 상태에서 세 번째 점을 입력할 때, 사용자가 이전보다 좀 더 빠르게 혹은 멀리 패턴을 그릴 경우, 조작 인터페이스부(110)는 도 9의 960과 같이 세 번째 점이 입력된 위치를 기준으로 두 번째 점의 크기와 위치가 변경된 상태로 표시할 수 있다. 도 9의 930은 사용자가 비슷한 속도 혹은 비슷한 길이로 패턴을 그려서 두 번째 점의 크기와 위치가 변경되지 않는 예이다.
가상 패드의 크기와 위치는 가변적이기 때문에 사용자 인증시 애매한 패턴(예, 2x2 크기의 , 패턴)은 사용이 제한적이거나, 혹은 패턴 입력 완료 후 추가 동작이 요구될 수 있다. 사용자는 추가 동작 없이도 가변 크기의 가상 패드를 통해 비밀 패턴을 입력할 수 있다. 초기의 입력 패턴들은 조그만 점으로 그려지고, 점점 패턴이 길어질수록 점들의 크기가 증가하게 된다.
도 10은 가상의 조작 인터페이스의 영역이 확대되는 예이고, 도 11은 조작 인터페이스의 영역이 확대되지 않는 예이다.
도 10의 1010 ~ 1030 화면과 같이, 사용자 입력이 있을 경우, 조작 인터페이스부(110)는 비교적 작은 영역으로 제공되는 가상의 조작 인터페이스의 크기를 결정할 수 있다. 하지만, 사용자가 입력하는 다음 패턴에 따라 조작 인터페이스는 조작 인터페이스의 크기를 다시 변경할 수 있다. 즉, 제1 패턴에 의하여 크기가 작게 결정되더라도, 제2 패턴에 의하여 크기가 변경될 수 있다.
사용자가 입력하고자 하는 패턴이 도 10의 1050과 같은 경우, 같은 패턴 크기를 같지만 작은 영역의 가상 패드로 패턴을 그리는 도 10의 1040의 예는 입력이 불가한 패턴으로 간주되어 자동적으로 도 10의 1050에서 처럼 조작 인터페이스의 크기가 변경될 수 있다. 우선적으로 결정된 조작 인터페이스의 크기는 작은 영역에서 패턴을 입력하고자 하는 사용자에게 가이드 역할을 하기 위해 제공되는 것이고, 다음으로 결정된 가상 패드 크기는 좀 더 큰 영역에서 패턴을 입력하고자 하는 사용자에게 도움을 주게 된다.
반대로 도 11의 1050 화면 예는 조작 인터페이스의 크기를 큰 영역으로 결정한 경우인데, 조작 인터페이스부(110)는 도 11의 1040의 결정된 크기 보다 작은 입력이 있더라도 조작 인터페이스를 통해 패턴을 입력 받을 수 있게 된다. 이는 상기에 명시된 바와 같이 애매한 패턴(예, 2x2 크기의 , 패턴) 사용을 제한할 수 있기 때문이다.
도 12는 본 발명의 일 실시예에 따라 지문 인식을 수행하는 단계를 더 포함하는 패턴 입력의 예이다. 도 13은 패턴 입력의 터닝 포인트(turning point)에서 획득되는 지문 영상의 예를 나타낸 것이다. 지문 인식은, 디바이스 내부의 프로세서가 수행하도록 구현될 수 있고, 또한 외부에 별도 서버가 수행하도록 구현될 수 있으며, 특별한 제한은 없다. 여기에서 터닝 포인트는 패턴 입력의 방향이 변경되거나, 시작/종료되는 지점으로서, 도 12은 1210 화면에서 시작하여 1240 화면까지 정의되는 터닝포인트를 예시한 것으로서, 큰원으로 처리된 것이 터닝 포인트에 해당한다. 도 13에는 터닝 포인트에서 획득되는 영상과 함께, 패턴이 입력되는 방향이 화살표로 도시되어 있다. 획득된 영상 정보와, 방향에 대한 정보는, 패턴의 인증에 사용될 수 있다.
조작 인터페이스부(110)는 사용자로부터 패턴을 입력 받고, 입력되 패턴을 패턴락 인터페이스부(120)에 전달하며, 패턴락 인터페이스부는 전달된 패턴 정도를 상술한 미리 정해진 규칙에 따라 반영하여 스크린 상에 표시할 수 있다. 지문 인식을 수행하는 지문 인식 모듈 또는 지문 인식 서버는 패턴락 인터페이스를 통해 입력된 패턴에 대한 정보를 전달 받아 지문 인식을 수행할 수 있다.
특히, 본 실시예에서 조작 인터페이스부(110)는 패턴을 그리면서 발생하는 터닝 포인트를 인지하고, 터닝 포인트에 따른 영상을 획득할 수 있다. 터닝 포인트와 관련된 지문 영상은 조작 인터페이스가 표시되는 영역에서 획득된 영상에 대한 영상 처리를 통해 조작 인터페이스부가 직접 획득할 수도 있고, 별도로 디바이스에 마련된 소프트웨어 또는 센서 소자로부터 지문 영상을 전달 받도록 구현되는 것도 가능하다.
도 12에서, 지문 패턴은 터치(Touch), 터치-드로1(Touch Draw1), 드로1-드로2(Draw1 Draw2), , 드로N-1-드로N(DrawN-1 DrawN)으로 정의할 수 있다. 사용자가 패턴을 그리면서 방향 전환을 두 번, 즉 터닝 포인트가 두 개 존재한다면, 지문 인식을 위해 취급되는 지문 영상은 총 4개일 수 있다.
본 실시예에서는 지문을 최초로 입력 받는 것은 조작 인터페이스부가 수행하는 것으로 예시하였으며, 실질적인 지문 인식 절차는 디바이스 내의 별도 인증 모듈 내지는 상기 디바이스와는 별도로 마련된 지문 인식 서버를 통해 수행되도록 시스템을 구현하는 것도 가능하다.
지문 인식 과정에 있어서, 획득된 복수 개의 지문 패턴들은 FRR(False Reject Rate)과 FAR (False Accept Rate)을 최소화하기 위해 이미 저장된 원본 지문과 두 가지 방법으로 비교될 수 있으며, 비교 결과에 따라 인증 성공 여부를 결정하게 된다. FRR 최소화를 위한 지문 인식 과정은 예를 들어, 터닝 포인트에서 획득한 여러 개의 지문들을 각각 독립적으로 이미 저장된 등록 지문과 비교함으로써 FRR을 최소화 할 수 있다. 이를 통해 손의 상태(예, 건조함)에 의해 크게 영향 받지 않는 지문 인식이 가능하다.
또한, FAR 최소화를 위하여, 패턴 인증 과정 중 획득한 여러 개의 지문들을 형태 매칭(shape matching)하여 보정하여, 이미 저장된 등록 지문과 비교할 최종 적인 하나의 지문 영상을 생성하게 된다.
예를 들어, 터닝 포인트에서 획득된 지문 영상의 평균값을 최종적인 지문 영상으로 생성할 수 있다. 또한, 터닝 포인트에서 획득된 지문 영상에 대한 2차원 또는 3차원 워핑(warping)을 수행하되, 터닝 포인트에서의 방향 변화를 고려하여 방향 변화와 반대가 되도록 획득된 지문 영상을 변형하여 최종적인 지문 영상으로 사용하는 것도 가능하다.
상기 예시된 지문 인식 과정은 FAR 최소화를 목표로 하고 FRR에는 영향을 주지 않아야 한다. 특히, 획득한 모든 지문 전체 모양에 대한 평균 이미지를 생성하는 것 보다는 정확히 인식할 수 있는 한정된 지문 모양(예, 지문의 가운데 특정 부분)에 대해서만 형태 매칭하여 최종 지문 하나를 생성하고, 이를 이용하여 지문 인식을 수행하는 것이 바람직하다(도 14). 이를 통해 FRR 최소화에 의해 FAR이 높아지는 경향을 방지할 수 있다. 도 14에서의 폐 곡선은 획득된 지문 영상으로부터 획득된 중앙 부분의 영상이고, 중앙 부분의 영상만을 이용하여 최종적인 지문 하나를 합성하는 것은, 기 공지된 기술을 이용하여 구현할 수 있다.
위 실시예를 통해 패턴 인증과, 지문 인증의 2채널 사용자 인증 기능을 수행할 수 있으며, 또한 지문 인식 과정에서 발생하는 FRR, FAR의 최소화를 위한 보정이 가능하다.
도 15는 본 발명의 일 실시예에 따른 패턴 입력 방법에 관한 흐름도이다.
도 15를 참조하면, 조작 인터페이스부(110)가 사용자로부터 패턴 입력을 수신하기 위하여 가상의 조작 인터페이스를 사용자에게 제공할 수 있다(S910 단계). 조작 인터페이스부는 기존의 패턴락 인터페이스부와는 별도의 가상의 패턴 인터페이스를 제공하기 위한 것이다. 조작 인터페이스부가 제공하는 인터페이스를 통해 입력되는 사용자의 입력 패턴은 사용자 인증을 위한 입력 패턴으로 별도의 인증 모듈(미도시)에 의하여 직접 처리되도록 구현될 수 있다.
또한, 가상의 조작 인터페이스를 통해 입력된 입력 패턴의 정보를 패턴락 인터페이스부에서 제공하는 패턴과 연동시키고, 상기 입력 패턴과 연동되는 것으로 판단되는 패턴락 인터페이스에서의 패턴을 사용자 인증을 위한 패턴으로 취급하도록 구현되는 것도 가능하다.
또한, 인증 모듈(미도시)은 조작 인터페이스부를 통해 입력된 패턴과 기 저장된 비밀 패턴간의 제1 유사도, 그리고 조작 인터페이스부를 통해 입력된 패턴의 위치와 매치되는 패턴락 인터페이스의 연동 패턴과, 기 저장된 비밀 패턴간의 제2 유사도를 미리 정해진 가중치에 따라 계산(합산)하여 최종적인 패턴의 일치 여부를 판단할 수 있다.
패턴락 인터페이스부(120)는 조작 인터페이스를 통한 사용자의 패턴 입력에 관한 정보 중 일부나 전부를 상기 사용자에게 제공할 수 있다(S920 단계). 물론, 본 발명의 또 다른 일 실시예에 따르면 패턴락 인터페이스를 통한 패턴은 표시되지 않도록 구현하는 것도 가능하다.
추가 입력 인터페이스부(130)는 사용자의 패턴 입력이 종료된 것으로 판단되어 가상의 조작 인터페이스의 제공이 종료된 경우, 사용자에게 특정 입력을 요구하는 추가 입력 인터페이스(가상휠 인터페이스)를 제공할 수 있다(S930 단계).
도 16은 본 발명의 조작 인터페이스부가 사용자에게 조작 인터페이스를 제공하는 일 예를 나타내는 도면이다.
조작 인터페이스부(110)는 사용자로부터 디바이스의 스크린 상 어느 한 지점을 선택하는 입력을 수신한 이후에, 조작 인터페이스를 사용자에게 제공할 수 있다. 구체적으로 조작 인터페이스부(110)는 사용자에 의하여 선택된 어느 한 지점을 기준으로 또는 어느 한 지점을 포함하는 영역에 조작 인터페이스를 생성하여 사용자에게 제공할 수 있다.
도 16의 1610을 참조하면, 사용자에 의하여 선택된 어느 한 지점이 패턴락 인터페이스의 어느 한 노드인 경우, 도 16의 1620과 같이 사용자에 의하여 선택된 어느 한 노드를 기준으로 또는 어느 한 노드를 포함하는 소정의 영역에 가상의 조작 인터페이스를 생성할 수 있다.
도 16의 1630, 1640을 참조하면, 사용자는 어느 한 노드 입력 이후에 생성된 가상의 조작 인터페이스를 이용하여 비밀 패턴을 입력할 수 있다.
도 17은 본 발명의 조작 인터페이스부가 사용자에게 가상의 조작 인터페이스를 제공하는 다른 일 예를 나타내는 도면이다. 도 17의 예는, 도 16과 유사하나, 사용자에 의하여 선택된 지점이 패턴락 인터페이스의 어느 한 노드에 해당하지 않는 경우를 예로 든 것이다.
도 17의 1710과 같이 사용자에 의하여 선택된 지점이 패턴락 인터페이스의 어느 한 노드에 해당하지 않고, 조작 인터페이스부(110)는 사용자에 의하여 선택된 지점을 기준으로 또는 선택된 지점을 포함하는 소정의 영역에 조작 인터페이스를 생성하여 사용자에게 제공할 수 있다(1720, 1730). 또한, 추가 입력 인터페이스부는 이와 연동하여, 1740과 같이 가상의 조작 인터페이스가 위치하는 영역에 추가 입력 인터페이스를 제공할 수 있다.
조작 인터페이스부(110)가 사용자에게 제공되는 가상의 조작 인터페이스 최초에는 사용자에게 조작 인터페이스를 시각적으로 제공하지 않다가, 사용자에 의한 비밀 패턴 입력을 받는 과정에서 입력받은 비밀 패턴에 따라서, 조작 인터페이스의 일부 또는 전부를 시각적으로 제공할 수도 있다.
또한 사용자는 임의의 영역에서 패턴을 입력할 수 있으며, 가변적 크기의 패턴을 입력할 수 있다. 가변적 크기의 패턴이라 함은 패턴을 그리는 과정에서 조작 인터페이스의 크기가 정해져 있지 않고, 또한 패턴을 구성하는 각 선들의 길이가 다를 수 있다는 것을 의미한다. 예를 들면, 1번 점에서 2번 점으로 잇는 선과 2번 점에서 3번 점으로 잇는 선의 길이는 다를 수 있다. 이를 위해서는 추가 터치 동작을 통해 패턴을 그리고 있다는 것(다음 노드로의 이동)을 알려줌으로써 그려지는 패턴의 방향을 인식하게 한다.
도 18은 추가 입력 인터페이스의 또 다른 일 실시예이다. 도 18의 추가 입력 인터페이스는 터치 붓 방식으로 제공되는 터치 붓 인터페이스로서, 도시된 바와 같이 사용자로부터의 터치 입력이 있을 경우, 입력이 발생한 영역의 근방의 스크린 화면에 붓, 패인팅 효과가 제공될 수 있다. 또한, 특정 입력은 스크래치 형태의 입력일 수 있다. 추가 입력 인터페이스는 사용자가 패턴을 입력한 흔적을 지우기 위해 조작 인터페이스와 동일 또는 유사한 크기의 네모 틀과 같은 영역을 스크린에 표시하면, 사용자는 미리 설정된 방식의 특정 입력을 입력하여, 패턴 입력의 흔적은 제거될 수 있다.
도 19는 가상의 조작 인터페이스가 기울어진 형태로 제공되는 실시예이다. 본 발명의 일실시예에 따르면 사용자가 가상의 조작 인터페이스가 존재하는 영역에 수평이 아닌 일정한 각도로 기울어진 형태로 패턴을 입력하는 것도 가능하다. 1910과, 1920의 화면은 사용자가 패턴을 각각 다른 기울기로 입력한 예이다.
1930의 경우 조작 인터페이스부(110)가 사용자로부터의 패턴 입력을 감지한 것을 시각적으로 나타낸 것이다. 이 경우, 조작 인터페이스부(110) 사용자의 입력이 Z, N인지 구별할 수 없다. 본 실시예에서는, 가상휠 인터페이스를 통해 입력되는 사용자의 추가 입력을 더욱 고려하여, 조작 인터페이스부(110)는 입력된 패턴이 Z와 N 중 어떤 것인지 구별할 수 있다. 예를 들어, 1940에서 사용자가 시계방향으로 가상휠을 조작할 경우, 조작 인터페이스부(110)는 사용자가 입력한 패턴의 기울어진 방향은 오른쪽이므로, 입력된 패턴은 Z임을 판단할 수 있다. 반대로, 사용자가 반시계 방향으로 가상휠을 조작할 경우, 기울어진 방향은 왼쪽이며 입력된 패턴이 N임을 판단할 수 있다.
즉, 조작 인터페이스부(110)는 추가 입력 인터페이스를 통해 입력된 추가 입력 정보를 이용하여, 현재 수평하지 않게 입력된 패턴의 회전 방향을 판단하고, 판단된 회전 방향을 고려하여 입력된 패턴을 회전시켜 수평한 패턴으로 보정한다. 보정된 수평한 패턴에 대한 정보는 패턴락 인터페이스(120)에게 전달된다.
이상 설명한 바와 같은 패턴 입력 방법은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현할 수도 있다. 즉, 본 발명에 따른 패턴 입력 방법을 구현한 기록 매체는 상기 디바이스의 스크린 상에 상기 패턴 입력을 위한 조작 인터페이스를 상기 사용자에게 제공하는 과정, 조작 인터페이스를 통한 상기 패턴 입력에 관한 정보 중 일부나 전부를 상기 사용자에게 제공하는 패턴락 인터페이스를 제공하는 과정 및 상기 사용자의 패턴 입력이 종료된 것으로 판단되어 상기 조작 인터페이스의 제공이 종료된 경우, 상기 사용자의 특정 입력을 요구하는 가상휠 인터페이스를 제공하는 과정을 수행하는 프로그램을 기록한 것일 수 있다.
컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 매체를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는, RAM, ROM, CD-ROM, 자기 테이프, 광 데이터 저장장치, 플로피 디스크 등이 있으며, 인터넷을 통한 전송, 캐리어 웨이브 형태로 구현될 수도 있다.
또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 기록 방법을 구현하기 위한 기능적인 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.
본 발명의 각 구성요소는 소프트웨어(software) 또는, FPGA (field-programmable gate array)나 ASIC(application-specific integrated circuit)과 같은 하드웨어(hardware)를 의미할 수 있다. 그렇지만 상기 구성요소들은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 어드레싱(addressing)할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. 상기 구성요소들 안에서 제공되는 기능은 더 세분화된 구성요소에 의하여 구현될 수 있으며, 복수의 구성요소들을 합하여 특정한 기능을 수행하는 하나의 구성요소로 구현할 수도 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.

Claims (24)

  1. 디바이스의 사용자 인증을 위한 패턴 입력 방법에 있어서,
    상기 디바이스의 스크린에 표시되거나 감추어지는 패턴락 인터페이스와는 별도로, 상기 디바이스의 스크린에 상기 사용자로부터 패턴을 입력받기 위한 가상의 조작 인터페이스를 제공하는 단계; 및
    상기 가상의 조작 인터페이스를 통해 상기 사용자로부터 패턴을 입력받는 단계를 포함하는, 패턴 입력 방법.
  2. 제1 항에 있어서,
    상기 디바이스에 표시되거나 감추어지는 패턴락 인터페이스를 제공하는 단계를 더 포함하며, 상기 패턴락 인터페이스를 제공하는 단계는 상기 가상의 조작 인터페이스를 통해 입력되는 상기 입력된 패턴에 관한 정보 중 적어도 일부의 정보를 상기 디바이스의 스크린에 제공하는 단계인, 패턴 입력 방법.
  3. 제1 항에 있어서, 상기 패턴을 입력받는 단계와 관련된 세션이 종료된 경우,
    상기 가상의 조작 인터페이스를 통해 입력된 패턴의 흔적을 제거하기 위한 추가 입력을 요구하는 추가 입력 인터페이스를 제공하는 단계를 더 포함하는, 패턴 입력 방법.
  4. 제 3 항에 있어서,
    상기 추가 입력 인터페이스는 상기 가상의 조작 인터페이스가 제공되는 영역 중 기 설정된 비율 이상의 영역이 포함되는 영역에 존재하도록 상기 사용자에게 제공되는, 패턴 입력 방법.
  5. 제 4 항에 있어서, 상기 패턴을 입력받는 단계와 관련된 세선이 종료된 후, 다시 상기 가상의 조작 인터페이스를 다시 제공하는 경우,
    상기 다시 제공되는 가상의 조작 인터페이스의 위치는 이미 제공된 상기 가상의 조작 인터페이스와 동일하거나 적어도 일부 변경된 위치인, 패턴 입력 방법.
  6. 제 3 항에 있어서,
    상기 추가 입력 인터페이스는 가상 휠 형태의 가상휠 인터페이스이고,
    상기 추가 입력은, 회전 입력, 지그재그 입력, 가로 입력 및 세로 입력 중 어느 하나, 또는 둘 이상의 입력이 조합인, 패턴 입력 방법.
  7. 제 3 항에 있어서,
    상기 추가 입력 인터페이스는 상기 추가 입력이 위치하는 영역에 미리 결정된 터치 효과가 제공되며,
    상기 추가 입력은, 회전 입력, 지그재그 입력, 가로 입력 및 세로 입력 중 어느 하나, 또는 둘 이상의 입력이 조합이고, 상기 터치 효과는 상기 추가 입력이 위치하는 영역의 화소값을 변화시키는 효과인, 패턴 입력 방법.
  8. 제 2 항에 있어서,
    상기 패턴락 인터페이스와, 상기 가상의 조작 인터페이스는 서로 수평하지 않도록 서로 기울어진 형태로 제공되는, 패턴 입력 방법.
  9. 제 3 항에 있어서,
    상기 조작 인터페이스를 제공하는 조작 인터페이스부는, 상기 입력된 패턴이 수평하지 않고 기울어진 형태로 입력된 패턴인 경우, 상기 추가 입력을 이용하여 상기 기울어진 형태로 입력된 패턴이 입력된 방향을 결정하고, 상기 결정된 방향을 이용하여 상기 패턴을 보정하며, 상기 보정된 패턴에 대한 정보를 상기 패턴락 인터페이스를 제공하는 패턴락 인터페이스부에 전달하는, 패턴 입력 방법.
  10. 제 1 항에 있어서,
    상기 가상의 조작 인터페이스를 사용자에게 제공하는 것은,
    미리 결정된 위치에서 상기 사용자의 패턴을 입력받는 것과 상관없이 가상의 조작 인터페이스를 제공하거나, 또는 상기 사용자가 상기 디바이스의 스크린 상에서 어느 한 지점를 선택하는 입력을 수신한 후에 가상의 조작 인터페이스를 상기 사용자에게 제공하는 단계; 및
    상기 사용자의 조작에 따른 입력이 발생할 경우 상기 사용자에게 피드백을 제공하는 단계를 더 포함하고,
    상기 사용자에게 제공되는 상기 가상의 조작 인터페이스의 위치는 상기 선택된 어느 한 지점을 포함하는 소정의 영역에 생성되어 상기 사용자에게 제공되는, 패턴 입력 방법.
  11. 제 1 항에 있어서, 상기 패턴락 인터페이스를 제공하는 것은,
    상기 입력받은 패턴에 관한 정보 중 패턴 형성의 시작점에 관한 정보를 상기 사용자에게 제공하거나, 또는 현재 입력받은 노드에 관한 정보만을 상기 사용자에게 제공하거나, 또는 현재 입력받은 노드 및 상기 사용자의 입력 방향에 관한 정보를 상기 사용자에게 제공하는, 패턴 입력 방법.
  12. 제 1 항에 있어서, 상기 입력받은 패턴은,
    상기 사용자로부터 패턴 입력이 시작된 시점으로부터 패턴의 방향이 변경되는 시점까지의 제1 패턴과, 상기 패턴 입력의 방향이 변경되는 시점 이후의 제2 패턴을 포함하는, 패턴 입력 방법.
  13. 제 12 항에 있어서, 상기 패턴을 입력 받는 단계는,
    상기 제1 패턴 중 적어도 일부를 이용하여, 상기 가상의 조작 인터페이스의 제공 영역을 결정하는 단계; 및
    상기 제2 패턴 중 적어도 일부가 상기 가상의 조작 인터페이스의 제공 영역을 벗어날 경우 상기 패턴 입력을 초기화할지 여부를 결정하는 단계를 더 포함하는, 패턴 입력 방법.
  14. 제 13 항에 있어서, 상기 제공 영역을 결정하는 것은,
    미리 결정된 패턴 입력의 속도, 위치 또는 방향에 대하여 미리 결정된 기준과, 상기 제1 패턴 입력 중 적어도 일부를 이용하여 결정하는, 패턴 입력 방법.
  15. 제 1 항에 있어서, 상기 패턴을 입력받는 단계에 이어,
    상기 입력된 패턴에 포함된 상기 사용자의 지문을 이용한 지문 인증을 수행하는 단계를 더 포함하는, 패턴 입력 방법.
  16. 제 15 항에 있어서, 상기 지문 인증을 수행하는 단계는,
    상기 입력되는 패턴의 방향이 변경되는 터닝 포인트에서 획득되는 사용자의 지문 영상을 이용하여 지문 인증을 수행하는, 패턴 입력 방법.
  17. 제 16 항에 있어서, 상기 지문 인증을 수행하는 단계는,
    상기 패턴의 방향을 이용하여 상기 터닝 포인트에서 획득되는 지문 영상을 보정하는 단계, 또는 상기 터닝 포인트가 복수개인 경우 상기 획득되는 복수개의 지문 영상을 이용하여 대표 지문 영상을 생성하는 단계를 더 포함하며,
    상기 보정된 지문 영상과, 상기 생성된 대표 지문 영상 중 적어도 하나를 이용하여 지문 인증을 수행하는, 패턴 입력 방법.
  18. 디바이스의 사용자 인증을 위한 패턴 입력 장치에 있어서,
    상기 디바이스의 스크린에 표시되거나 감추어지는 패턴락 인터페이스를 제공하는 패턴락 인터페이스부; 및
    상기 디바이스의 스크린에 상기 패턴락 인터페이스와는 별도로 상기 패턴을 입력하기 위한 가상의 조작 인터페이스를 상기 사용자에게 제공하는 조작 인터페이스부를 포함하는 패턴 입력 장치.
  19. 제 18 항에 있어서, 상기 패턴 입력 장치는
    상기 사용자의 패턴 입력이 종료된 것으로 판단되어 상기 가상의 조작 인터페이스의 제공이 종료된 경우, 상기 사용자의 특정 입력을 요구하는 추가 입력 인터페이스를 제공하는 추가 입력 인터페이스부를 더 포함하는, 패턴 입력 장치.
  20. 제 19 항에 있어서,
    상기 추가 입력 인터페이스는 상기 가상의 조작 인터페이스가 존재하는 상기 디바이스의 스크린 영역 중 기 설정된 비율 이상의 영역이 포함되는 영역에 존재하도록 상기 사용자에게 제공되는, 패턴 입력 장치.
  21. 제 18 항에 있어서,
    상기 가상의 조작 인터페이스와 상기 패턴락 인터페이스는 상기 디바이스의 스크린 상에 동시에 존재하며, 서로 구분되는 영역에 존재하는, 패턴 입력 장치.
  22. 제 18 항에 있어서, 상기 조작 인터페이스부는,
    상기 사용자로부터 상기 디바이스의 스크린 상에서 어느 한 지점를 선택하는 입력을 상기 사용자로부터 수신하면, 상기 어느 한 지점을 선택하는 입력을 수신한 후에, 상기 가상의 조작 인터페이스를 상기 사용자에게 제공하는, 패턴 입력 장치.
  23. 제 18 항에 있어서, 상기 패턴락 인터페이스부는,
    상기 입력된 패턴에 대한 정보 중 상기 패턴의 현재 입력 중인 노드에 대한 정보 또는 상기 사용자의 입력 방향에 관한 정보를 상기 사용자에게 제공하는, 패턴 입력 장치.
  24. 제 18 항에 있어서, 상기 입력받은 패턴은,
    상기 사용자로부터 패턴 입력이 시작된 시점에서 입력되는 패턴의 방향이 변경되는 시점까지의 제1 패턴과, 상기 패턴 입력의 방향이 변경되는 시점 이후의 제2 패턴을 포함하며,
    상기 조작 인터페이스부는 상기 제1 패턴 중 적어도 일부를 이용하여, 상기 가상의 조작 인터페이스의 제공 영역을 결정하고, 상기 제2 패턴 중 적어도 일부가 상기 가상의 조작 인터페이스의 제공 영역을 벗어날 경우 상기 패턴 입력을 초기화할지 여부를 결정하는, 패턴 입력 장치.
PCT/KR2014/009486 2013-10-30 2014-10-08 패턴 입력 장치 및 방법과 이를 이용한 기록 매체 WO2015064925A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/033,026 US10372896B2 (en) 2013-10-30 2014-10-08 Pattern input apparatus and method, and recording medium using the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130129817A KR101556599B1 (ko) 2013-10-30 2013-10-30 패턴 입력 장치 및 방법과 이를 이용한 기록 매체
KR10-2013-0129817 2013-10-30

Publications (1)

Publication Number Publication Date
WO2015064925A1 true WO2015064925A1 (ko) 2015-05-07

Family

ID=53004473

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/009486 WO2015064925A1 (ko) 2013-10-30 2014-10-08 패턴 입력 장치 및 방법과 이를 이용한 기록 매체

Country Status (3)

Country Link
US (1) US10372896B2 (ko)
KR (1) KR101556599B1 (ko)
WO (1) WO2015064925A1 (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101846447B1 (ko) * 2011-12-08 2018-04-06 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
JP2015529365A (ja) 2012-09-05 2015-10-05 エレメント,インク. カメラ付きデバイスに関連する生体認証のためのシステム及び方法
WO2015149235A1 (zh) * 2014-03-31 2015-10-08 华为技术有限公司 隐私保护方法和终端设备
US20170091431A1 (en) * 2015-09-26 2017-03-30 Qualcomm Incorporated Secure identification information entry on a small touchscreen display
US10558355B2 (en) * 2017-02-21 2020-02-11 International Business Machines Corporation Obfuscating mobile device passwords through pattern generation
US10417410B2 (en) * 2017-03-27 2019-09-17 International Business Machines Corporation Access control to protected resource based on images at changing locations identifiable by their type
WO2019056004A1 (en) 2017-09-18 2019-03-21 Element, Inc. METHODS, SYSTEMS AND MEDIA FOR DETECTING MYSTIFICATION DURING MOBILE AUTHENTICATION
US11163883B2 (en) 2019-03-04 2021-11-02 International Business Machines Corporation Enhancing security of a touch screen device
KR20220004628A (ko) 2019-03-12 2022-01-11 엘리먼트, 인크. 모바일 디바이스를 이용한 안면 인식 스푸핑의 검출
US11556628B2 (en) * 2019-04-30 2023-01-17 International Business Machines Corporation Multidimensional attribute authentication
US11507248B2 (en) 2019-12-16 2022-11-22 Element Inc. Methods, systems, and media for anti-spoofing using eye-tracking
CN116204864A (zh) * 2020-09-10 2023-06-02 华为技术有限公司 同时显示多个应用界面时进行生物特征认证的方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100026219A (ko) * 2008-08-29 2010-03-10 (주)혜강씨큐리티 터치스크린 방식 디지털 도어록 인증방법
US20110234524A1 (en) * 2003-12-22 2011-09-29 Longe Michael R Virtual Keyboard System with Automatic Correction
KR20120108715A (ko) * 2011-03-25 2012-10-05 세종대학교산학협력단 터치 스크린 단말기의 잠금 제어 시스템 및 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201113741A (en) * 2009-10-01 2011-04-16 Htc Corp Lock-state switching method, electronic apparatus and computer program product
US8536978B2 (en) * 2010-11-19 2013-09-17 Blackberry Limited Detection of duress condition at a communication device
KR101303160B1 (ko) 2011-10-06 2013-09-09 엘지전자 주식회사 이동 단말기 및 그것의 사용자 인터페이스 제공 방법
EP2584485A1 (en) * 2011-10-21 2013-04-24 Gemalto SA Method, device and system for entering data
CN103544426A (zh) * 2012-07-13 2014-01-29 深圳市腾讯计算机系统有限公司 一种触摸屏认证方法、装置及设备
US20140366127A1 (en) * 2013-06-06 2014-12-11 International Business Machines Corporation Touchscreen security user input interface
TW201512966A (zh) * 2013-09-24 2015-04-01 Fih Hong Kong Ltd 電子裝置的解鎖系統及方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110234524A1 (en) * 2003-12-22 2011-09-29 Longe Michael R Virtual Keyboard System with Automatic Correction
KR20100026219A (ko) * 2008-08-29 2010-03-10 (주)혜강씨큐리티 터치스크린 방식 디지털 도어록 인증방법
KR20120108715A (ko) * 2011-03-25 2012-10-05 세종대학교산학협력단 터치 스크린 단말기의 잠금 제어 시스템 및 방법

Also Published As

Publication number Publication date
US10372896B2 (en) 2019-08-06
KR20150050666A (ko) 2015-05-11
US20160283710A1 (en) 2016-09-29
KR101556599B1 (ko) 2015-10-02

Similar Documents

Publication Publication Date Title
WO2015064925A1 (ko) 패턴 입력 장치 및 방법과 이를 이용한 기록 매체
WO2015009128A1 (en) Flexible device, method for controlling device, and method and apparatus for displaying object by flexible device
WO2015122716A1 (en) Electronic device, method for authenticating user, and computer readable recording medium
WO2015037931A1 (en) Method and apparatus for online signature verification using proximity touch
KR20140072858A (ko) 컴퓨터 시스템에 대한 액세스를 제어하도록 인증을 제공하는 방법 및 컴퓨터 프로그램
WO2018106041A1 (ko) 이미지 패스워드 시스템 및 이를 이용한 사용자 인증 방법
EP3176719B1 (en) Methods and devices for acquiring certification document
WO2015170797A1 (en) Display device and method for controlling the same
WO2009145540A2 (en) Apparatus and method for inputting password using game
WO2021169776A1 (zh) 分享口令解析方法及装置
WO2014042476A1 (ko) 지문을 이용한 파일 관리 방법, 사용자 단말기 및 기록 매체
WO2023128345A1 (ko) 동형 암호화된 이미지를 이용한 개인 식별 방법 및 시스템
WO2019054796A1 (en) INTERACTION ACTIVATION METHOD USING A DIGITAL FOOTPRINT ON A DISPLAY AND ASSOCIATED ELECTRONIC DEVICE
WO2012053875A2 (ko) 지문 정보를 통한 데이터 송신 수신 장치 및 시스템
WO2013100430A1 (ko) 미션실행 제스처 인식을 이용한 사용자 인증방법
WO2017069411A1 (ko) 보안 처리된 객체의 보안 상태 해제 방법 및 그 장치
WO2023128341A1 (ko) 동형 암호화된 데이터를 이용한 부정 거래 탐지 방법 및 시스템
US20220156358A1 (en) Multi-factor authentication via mixed reality
JP2007114959A (ja) 認証情報処理装置,認証情報処理方法,およびコンピュータプログラム
CN115329309A (zh) 验证方法、装置、电子设备及存储介质
WO2016178499A1 (ko) 홍채 인식 기반 보안 스토리지 제공 방법 및 그 시스템
CN110837630B (zh) 登录方法、图像处理方法和电子设备
WO2014042480A1 (ko) 지문을 이용한 화면 표시 방법, 사용자 단말기 및 기록 매체
WO2020218656A1 (ko) 전자 장치 및 그 제어방법
WO2019088713A1 (ko) 도형 생성 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14858508

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15033026

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14858508

Country of ref document: EP

Kind code of ref document: A1