WO2017069411A1 - 보안 처리된 객체의 보안 상태 해제 방법 및 그 장치 - Google Patents

보안 처리된 객체의 보안 상태 해제 방법 및 그 장치 Download PDF

Info

Publication number
WO2017069411A1
WO2017069411A1 PCT/KR2016/010492 KR2016010492W WO2017069411A1 WO 2017069411 A1 WO2017069411 A1 WO 2017069411A1 KR 2016010492 W KR2016010492 W KR 2016010492W WO 2017069411 A1 WO2017069411 A1 WO 2017069411A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
state
security
touch input
secured
Prior art date
Application number
PCT/KR2016/010492
Other languages
English (en)
French (fr)
Inventor
최인호
김호
이진이
양승원
이애진
최상규
김동영
Original Assignee
삼성에스디에스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성에스디에스 주식회사 filed Critical 삼성에스디에스 주식회사
Publication of WO2017069411A1 publication Critical patent/WO2017069411A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the present invention relates to a method and a device for security release of a secured object. More specifically, the present invention relates to a method and apparatus for releasing and displaying security on a secured object according to a user input.
  • a document security processing technology that secures a document so that the document can be viewed only under specific conditions.
  • Such document security processing technology typically uses a method of assigning a password to a document and allowing access to the document only when the user inputs the password.
  • the technical problem to be solved by the present invention is to provide a method and apparatus for maintaining the security of the security target while the user is browsing the security target.
  • Another technical problem to be solved by the present invention is to provide a method and apparatus for providing access to a security target only to a user of a terminal using a biometric technology.
  • another technical problem to be solved by the present invention is to provide a method and apparatus for allowing access to a security target only for a user who has passed fingerprint authentication and face authentication.
  • Another technical problem to be solved by the present invention is to provide a method for releasing security of a secured object only in a region where a touch input is detected.
  • Another technical problem to be solved by the present invention is to provide a method and an apparatus for securely processing an object again when a security event occurs while the object in the unsecured state is being viewed.
  • Another technical problem to be solved by the present invention is to provide a method and apparatus for releasing security of an object that is differentially secured in various ways according to the security level.
  • Another technical problem to be solved by the present invention is to provide a method and an apparatus capable of releasing security on an object by specifying a security release area while performing fingerprint authentication.
  • a method for releasing a security state of a secured object includes receiving a fingerprint input from a user and authenticating the fingerprint of the user, and receiving a face image of the user and authenticating the face of the user. And when the fingerprint and face of the user are authenticated, displaying a secured object, receiving a touch input for releasing a secure state of the secured object, and performing a first touch input with the touch input. And, if detected, displaying the area where the first touch input is detected in a secure state.
  • the security state release method of the secured object receiving a fingerprint input from the user to authenticate the user and, if the user is authenticated, displaying the secured object And receiving a touch input for releasing the security state of the secured object and displaying the area where the touch input is detected as the security process is released as the touch input is detected.
  • the displaying of the security processing in a released state includes releasing and displaying a security state with respect to the area at a predetermined thickness along a trace of the received touch input.
  • the method for releasing the security state of a secured object identifying the approach to the secured object and as the identified approach is performed, displays the secured object And receiving a touch input for releasing the security state of the secured object, and displaying the area in which the touch input is detected in the unsecured state as the touch input is detected.
  • a method of releasing a security state of a secured object includes: displaying a secured object, receiving a touch input for fingerprint authentication from a user, and authenticating the fingerprint of the user; Receiving a scratch touch input for releasing the security state subsequent to the touch input within a preset time while the touch input for the fingerprint authentication is maintained and when the fingerprint of the user is authenticated as a result of the authentication And displaying an area in which the scratch touch input is detected in a secure state.
  • FIG. 1 is a block diagram of a user terminal according to an embodiment of the present invention.
  • FIG. 2 is a flowchart of a method for displaying a secured object according to another embodiment of the present invention.
  • FIG. 3 is an exemplary view illustrating a secured document and a general document referred to in some embodiments of the present invention.
  • FIG. 4 is an exemplary diagram for describing a fingerprint authentication process referred to in some embodiments of the present invention.
  • FIG. 5 is an exemplary view for explaining a face authentication process referred to in some embodiments of the present invention.
  • FIG. 6 is an illustration of a touch input for security processing release referred to in some embodiments of the present invention.
  • FIG. 7 is an exemplary diagram for describing a security processing release time referred to in some embodiments of the present invention.
  • FIG. 8 is another exemplary diagram for describing a security processing release time of FIG. 7.
  • FIG. 9 is an exemplary view for explaining a scrolling method of a secured document according to another embodiment of the present invention.
  • FIG. 10 is an exemplary diagram for describing a method of releasing a security state of an entire secured document according to another embodiment of the present invention.
  • FIG. 11 is an exemplary diagram for a security event referenced in some embodiments of the invention.
  • UI 12 is an illustration of a user interface (UI) according to another embodiment of the present invention.
  • FIG. 13 is an exemplary view illustrating a method of determining a security processing release area referred to in some embodiments of the present invention.
  • FIG. 14 is an exemplary view illustrating a fingerprint information registration process of a user referred to in some embodiments of the present invention.
  • 15 is an exemplary diagram illustrating a process of registering face information of a user referred to in some embodiments of the present invention.
  • 16 is an exemplary diagram for describing a security processing target set by a user referred to in some embodiments of the present disclosure.
  • 17 is a flowchart illustrating a security release method for an object secured by security level according to another embodiment of the present invention.
  • FIG. 18 is a flowchart of a method of releasing security on an object simultaneously with fingerprint authentication according to another embodiment of the present invention.
  • FIG. 19 is an exemplary diagram illustrating a process of releasing a security state for an object at the same time as fingerprint authentication referred to in some embodiments of the present invention.
  • FIG. 1 is a block diagram of a user terminal according to an embodiment of the present invention.
  • the user terminal 100 may include both a fixed computing device such as a desktop PC, a mobile computing device such as a laptop, a smart phone, and a tablet PC.
  • the user terminal 100 may include a communication unit 110, an input unit 120, an output unit 130, a storage unit 140, and a controller 150.
  • the communication unit 110 supports wired / wireless internet communication of the user terminal 100, and may transmit / receive various information with an external device.
  • the communication unit 110 may receive various documents, videos, messages, and the like from an external device.
  • the communication unit 110 may transmit user information and various authentication information input by a user to an external device.
  • the input unit 120 receives various data, commands, and / or information from an administrator of the user terminal 100.
  • the input unit 120 may include various modules for receiving various types of information of the user.
  • the input unit 120 may include a camera 121 for receiving a face image of a user or another user.
  • the user's face image is input through the camera 121. That is, the camera 121 may function as the input unit 120 as long as the face image of the user photographed through the camera 121 is used as an input target for user authentication.
  • the input unit 120 may include a display unit.
  • the input unit 120 may be applied to the user terminal 100 in an integrated form with the output unit 130.
  • the input unit 120 may be configured to include any type of input means well known in the art.
  • the output unit 130 notifies the manager of the user terminal 100 of various data, commands and / or information.
  • the output unit 130 may include a display unit 131.
  • the display unit 131 may display various data.
  • the display unit 131 may display a document, a video, an e-mail, a message, etc. received from an external device.
  • the display unit 131 may display the display object in a secured state.
  • the display unit 131 may be configured as a touch screen with a touch sensor to recognize a user's touch input.
  • the display unit 131 may include a separate fingerprint recognition sensor in addition to the touch sensor for fingerprint authentication of the user.
  • the display unit 131 may recognize a user's fingerprint by using a touch sensor without a separate fingerprint recognition sensor.
  • the output unit 130 may be configured to further include any form of output means well known in the art.
  • the storage unit 140 stores various data, commands, and / or information.
  • the storage 140 may store one or more programs for providing a security processing and a security processing releasing method according to embodiments of the present invention.
  • the storage 140 may store a document, a video, an e-mail, a message, and the like received from an external device.
  • the storage 140 may store fingerprint information of the registered user and face information of the user.
  • the storage 140 may temporarily or non-temporarily store data transmitted from an external device.
  • the storage unit 140 may include a nonvolatile memory such as a read only memory (ROM), an erasable programmable ROM (EPROM), an electrically erasable programmable ROM (EEPROM), a flash memory, a hard disk, a removable disk, or the like. And any well-known computer readable recording medium.
  • the controller 150 controls the overall operation of each component of the user terminal 100.
  • the controller 150 may include a central processing unit (CPU), a micro processor unit (MPU), a micro controller unit (MCU), or any type of processor well known in the art.
  • the controller 150 may store at least one application or program for executing a method according to an embodiment of the present invention. The function and operation of the controller 150 will be described in detail with reference to FIG. 2.
  • the user terminal 100 may be configured to include a separate hardware module for fingerprint authentication.
  • the home button provided on the housing of the user terminal 100 may be configured as a hardware module for fingerprint authentication.
  • FIG. 2 is a flowchart of a method for displaying a secured object according to another embodiment of the present invention.
  • 3 is an exemplary diagram illustrating a secured document and a general document referred to in some embodiments of the present invention.
  • user authentication is first required for a user to release a security state for a secured object. That is, user authentication is required as a condition for accessing the object before the security state of the secured object is released.
  • the user terminal 100 may receive a user's fingerprint input through the display unit 131 and authenticate the user's fingerprint (S10).
  • the controller 150 may determine whether the input fingerprint of the user matches the fingerprint of the pre-registered user (S20).
  • the input of the fingerprint of the user to be matched with the fingerprint of the pre-registered user means that the registered fingerprint and the input fingerprint coincide to the extent that it can be recognized as that of the same user.
  • the object includes all objects that can be displayed through the display unit 131 of the user terminal 100 as an object of security processing and security state release.
  • the object may include a video, a document, an e-mail, a messenger execution screen, a message on an SNS, a game execution screen, and various interfaces.
  • the secured document 310 on the screen 301 displayed through the display unit 131, and the document 320 on which the portion of the screen 302 is released is not secured. Is shown. Also, as an example of an object whose security state is released, the document 330 in which the security processing is released on the screen 303 displayed through the display unit 131 is illustrated.
  • the controller 150 may control the screen 401 to be displayed through the display unit 131.
  • the screen 401 may include a document list 411.
  • the controller 150 may control the screen 402 to be displayed.
  • the screen 402 may include an interface for requesting a user's fingerprint input.
  • the controller 150 may control the screen 402 to include an area 412 indicating a fingerprint input position and an area 413 providing a guide for fingerprint input.
  • the controller 150 may compare the fingerprint information registered in advance with the input fingerprint. That is, the controller 150 may determine whether the input fingerprint of the user matches the fingerprint of the pre-registered user (S20). As a result of the determination, when it is determined that the registered fingerprint information and the input fingerprint are the same person, the controller 150 may determine that the fingerprint authentication is successful.
  • the controller 150 may determine that the fingerprint authentication has failed and may control the screen 404 to be displayed.
  • the screen 404 may include an interface 417 for receiving a selection from a user regarding whether to retry fingerprint authentication.
  • the interface 417 may be displayed in the form of a popup window.
  • the user terminal 100 may authenticate the user's face (S30). On the other hand, if the fingerprint authentication of the user fails, the user terminal 100 may retry the fingerprint authentication of the user in step S10.
  • FIG. 5 is an exemplary view for explaining a face authentication process referred to in some embodiments of the present invention.
  • the controller 150 may provide an interface 501 for performing a face authentication process to the user through the user terminal 100.
  • the interface 501 may include an area 503 for outputting an image input through a camera and an area 502 for providing a guide for user face authentication.
  • the area 503 may include an area 504 for recognizing a face in the input image.
  • the user may input a face image of the user through the camera 121 of the user terminal 100.
  • the user may adjust the photographing angle of the camera 121 so that the user's face enters the area 504 with reference to the area 504.
  • the controller 150 may determine whether the input face image matches pre-registered face information (S40). As a result of the matching, if it is determined that the input image and the registered face information are the same person, the controller 150 may determine that the user's face authentication is successful. In this case, during the face authentication process of the user, the controller 150 may control the screen 510 to be displayed.
  • the screen 510 is a screen in which the controller 150 accesses the secured object. That is, the controller 150 may display a screen for preparing a security processed object selected by the user during face authentication of the user. At this time, the controller 150 may display (513) that the access to the secured object through the screen 510.
  • the secured document 511 is shown as an example of the secured object on the screen 510.
  • the controller 150 may not provide the interface 501 for face authentication of the user after fingerprint authentication of the user.
  • the controller 150 may control the screen 510 to be displayed.
  • the controller 150 may perform face authentication of the user through the camera 121 (S30).
  • the controller 150 may determine whether the user face authentication succeeds (S40).
  • the controller 150 may display 512 that the security processing cannot be released yet for the secured document 511.
  • the state in which the security process cannot be released means that the authentication of the face image of the user input through the camera is not completed.
  • the controller 150 may determine that face authentication has failed and control the screen 520 to be displayed.
  • the screen 520 may include an interface 521 for receiving a selection from a user regarding whether to retry face authentication.
  • the interface 521 may be displayed in the form of a popup window.
  • the controller 150 may control the fingerprint authentication to be performed after the face authentication of the user is performed.
  • the controller 150 may use only one authentication method among the fingerprint authentication and the face authentication for user authentication.
  • the controller 150 may display the secured object (S50).
  • the user terminal 100 may receive a touch input for releasing the security state of the object from the user (S60).
  • the controller 150 may display the area where the touch input is detected in a security released state (S70).
  • the touch input refers to a touch input that the user makes on the display unit 131 to control the user terminal 100.
  • the touch input may include various types of touch methods such as point touch, tap, drag, pinch in / out, and scratch input.
  • the scratch touch input used in an embodiment of the present invention refers to a touch input in which a user scratches a specific area on the display unit 131 by using a tool that can be recognized by a touch sensor such as a finger, an electronic pen, or a stylus pen. do.
  • the scratch touch input may be performed to clear the security state of the secured area.
  • FIG. 6 is an illustration of a touch input for security processing release referred to in some embodiments of the present invention.
  • the controller 150 may control the screen 510 to be displayed during the user authentication process.
  • Secured document 511 is shown as an example of a secured object on screen 510.
  • the screen 510 may include an indication 512 indicating that the security process is not yet released.
  • the controller 150 may control the screen 610 to be displayed.
  • the screen 610 may include a document 611 as a target of release of security processing.
  • the document 611 may also include an indication 612 indicating that the security process can be released.
  • the user terminal 100 may receive a touch input for releasing a security state of an object from a user.
  • Scratch touch input 615 is shown as an example of touch input on screen 610 of FIG. 6.
  • the scratch touch input may be referred to as a first touch input.
  • the controller 150 may detect the area 619 to which the scratch touch input is input. If a scratch touch input to the area 619 is detected, the controller 150 may release the security state of the area 619 on the secured document 611. Accordingly, the controller 150 may display the area 619 in a state in which security is released like the screen 620. That is, the screen 620 may include an area 621 in which the security state of the area 619 is released.
  • a pinch in / out touch input may be used to release security of an object.
  • the user may determine the security release area on the object with a pinch out touch input in step S60.
  • the controller 150 may control the area determined as the pinch-out touch input in step S70 to be displayed in the security released state.
  • FIG. 7 is an exemplary diagram for describing a security processing release time referred to in some embodiments of the present invention.
  • 8 is another exemplary diagram for describing the security processing release time of FIG. 7.
  • step S70 the controller 150 may display the area 621 on the screen 620 in a security released state.
  • the scratch touch input made in step S70 has a time interval. That is, for example, it is assumed that the user inputs a scratch touch along the trajectory 617 in the direction from the upper row to the lower row of the region 619 of FIG. In this case, the area 621 is released from the top row to the bottom row. In other words, the security release on the top line occurs before the security release on the bottom line.
  • step S70 as the preset time elapses, the controller 150 may control the area displayed in the released state to be displayed again in the secured state.
  • the upper row that is first unsecured passes the preset time earlier than the lower row. Accordingly, the controller 150 may secure the region 619 again in the order of the top line to the bottom line. Referring to the screen 710, an example is shown in which the upper row portion in which the preset time elapses is secured again by the controller 150.
  • the controller 150 may control the lower line portion 711 where the predetermined time has not elapsed to be displayed in a state in which the security is released.
  • the preset time is a time set by the user to maintain security on the object.
  • the preset time may be determined by the program provider for the method according to the embodiment of the present invention.
  • step S70 the controller 150 may display the area 621 on the screen 620 in a security-released state.
  • whether or not to secure the object in the unsecured state may be determined whether or not the user maintains the touch input.
  • an area 621 is shown that is desecured by the user's scratch touch input 800. As shown in FIG. In this case, it is assumed that the user releases the touch contact 820 on the display unit 31 as shown in the screen 810.
  • the controller 150 may detect whether a touch contact exists. If the touch contact is not detected, the controller 150 may control the area 619 to be displayed again after being secured like the screen 610. On the other hand, the controller 150 may control the security release state of the area 619 to be maintained while the user's touch input is detected.
  • step S70 the controller 150 may display the area 621 on the screen 620 in a security released state.
  • the user's two-point touch input 900 is input.
  • the two-point touch input means a user's touch input made to two points on the display unit 131.
  • a two-point touch can be made of a user's two finger touches. It may also be accomplished by two electronic pens or a stylus pen.
  • the two-point touch may have directivity.
  • the controller 150 maintains contact between the two fingers of the user and the display unit 131 by the two-point touch input 900 performed on the screen 620.
  • 900 may detect movement 915 upwards.
  • the controller 150 may control the object 611 to be scrolled upward in response to detecting that the two-point touch input 900 moves 915 in the upward direction. Accordingly, the unsecured area 621 of the screen 910 is also scrolled upward. As a result, the scroll bar 905 has been moved upward.
  • the controller 150 in the state that the contact between the two fingers of the user and the display unit 131 is maintained by the two-point touch input 900 made on the screen 620, 2 It may be detected that the point touch 900 moves 925 downward.
  • the controller 150 may control the object 611 to be scrolled downward in response to detecting that the two-point touch input 900 moves 925 downward. Accordingly, the unsecured area 621 of the screen 920 has also scrolled downward. Accordingly, the scroll bar 905 has also been moved downward.
  • the two-point touch input may be referred to as a second touch input in a sense distinguishing it from a scratch touch input (first touch input).
  • the controller 150 may control the security processed object 611 to be displayed, such as the screen 610.
  • the user's three-point touch input 1010 is input on the object 611.
  • the three-point touch input means a user's touch input made to three points on the display unit 131.
  • a two-point touch can be made of a user's three finger touches.
  • the controller 150 may control the secured object 611 to be displayed in a security released state as the three-point touch input of the user is detected on the display unit 131 on which the secured object 611 is displayed. have.
  • screen 1020 document 1025 in a security release state is shown as an example of an object displayed in a security release state.
  • the three-point touch input may be referred to as a third touch input in a sense distinguishing it from a scratch touch input (first touch input) and a two-point touch input (second touch input).
  • the controller 150 may display the object in a secure state again.
  • 11 is an exemplary diagram for a security event referenced in some embodiments of the invention.
  • the controller 150 may control the area 621 to be displayed in a security released state as in the screen 620.
  • the controller 150 may detect this and control the area 621 to be displayed in a secured state.
  • the security event refers to a case in which the need for security processing for the object occurs while the user views the unsecured object. This is to maximize the security of the object even while viewing the user with the right authority. Through this, even when the user is viewing the object, it is possible to block access to the object of other users.
  • the security event 1110 is a case in which the face of the user is not authenticated while the user browses the security released object even when face authentication succeeds in step S30. That is, according to an embodiment of the present invention, the controller 150 performs a user authentication in real time while the user reads the object released in step S70 after the user successfully authenticates the face in step S30. . That is, the controller 150 may receive a face image of the user who is viewing the object through the camera 121 in real time. Accordingly, the controller 150 may determine whether a face image input to face information registered in real time matches.
  • the controller 150 may control the face authentication performed during the viewing of the user's object to be performed at predetermined time intervals.
  • the predetermined time interval may be determined by a program provider of a method of releasing a security state of a user or a secured object.
  • the controller 150 may control the area 621 to be displayed again in a secured state.
  • the controller 150 may control the security processed object 611 to be displayed as the screen 610 according to the occurrence of the security event 1110.
  • the security event 1120 is a case where an object is unsecured by a user and a user different from the user accesses the terminal 100 of the user. That is, even in this case, the face of the user is not authenticated. Accordingly, the controller 150 may control the security processed object 611 to be displayed, such as the screen 610.
  • the security event 1130 may be input to the user terminal 100 when a face image of a user other than the user is input to the user terminal while the user reads the security release object even when face authentication is successful in step S30. If it is. For example, when there is another user at a close distance from the user who is viewing the object, the user terminal 100 may receive the face image of the other user together with the face image of the user through the camera 121. In this case, the controller 150 may determine that there is a risk that the object is exposed to another user. Accordingly, even if the user's face authentication succeeds, the controller 150 controls the object 611 to be displayed in a secured state like the screen 610 when the input face image includes the face image of another user. You may.
  • the scene 1200 is an exemplary diagram when a user views an object in a security released state displayed in step S70.
  • the controller 150 may provide a real-time face authentication interface to the user, such as the screen 1210.
  • the controller 150 may control to display a face image 1220 of a user who is viewing an object in a security released state in the scene 1200 through the interface. That is, the displayed face image 1220 is a face image input through the camera 121.
  • the user may be careful that the face image is input like the face image 1220 on the screen 1210 in order to maintain the security release state while viewing the object.
  • the user may note whether the image 1220 displayed includes the face image of another user.
  • controller 150 may determine whether a security event has occurred by detecting a display state of an area where the face image 1220 is displayed.
  • FIG. 13 is an exemplary view illustrating a method of determining a security processing release area referred to in some embodiments of the present invention.
  • the controller 150 may provide an interface for receiving a selection of a method of determining a security processing release area.
  • Interface 1305 is shown as an example of the interface on screen 1300.
  • the controller 150 may recognize the touch input as an input for one point.
  • the controller 150 may recognize the scratch touch input as a trajectory passing through a point recognized by the touch input. In this case, the controller 150 may determine a region formed as a trajectory passing by the thickness of the dot as the security state release region.
  • the controller 150 may recognize a point recognized by the touch input at a preset thickness. For example, when the user presets the touch recognition thickness to 0.5 cm (cm), when a scratch touch input is received, the controller 150 may control the scratched area to be scratched to a thickness of 0.5 cm. have. That is, the controller 150 may control the security processed area to be released according to the trajectory of the scratch touch input with a thickness of 0.5 cm.
  • the controller 150 may control the security processed area to be released according to the trajectory of the scratch touch input with a thickness of 1.0 cm.
  • the security for the secured area of the object is released twice as thick as when the touch recognition thickness is set to 0.5 cm.
  • the touch recognition thicknesses are different on the screen 1310 and the screen 1320, the thicknesses of the security release areas 1312 and 1322 of the secured object are changed as an example.
  • the controller 150 may control to display a notification 1401 for notifying a user of a need for registering fingerprint information, such as the screen 1400.
  • the controller 150 may control to display an interface for registering fingerprint information. Screen 1410 is shown as an example of the interface.
  • the screen 1410 may include a fingerprint information input area 1412 for fingerprint registration of a user and a guide providing area 1413 for fingerprint registration.
  • the controller 150 may receive the registration information and register the fingerprint information of the user.
  • the controller 150 may control to display a notification for notifying this.
  • notification 1421 is shown by way of example.
  • the controller 150 may determine whether the received fingerprint input matches the registered fingerprint information and authenticate the fingerprint of the user.
  • the controller 150 may control to display a notification 1501 for notifying a user of a need for registering face information, such as the screen 1500.
  • the controller 150 may control to display an interface for registering face information. As an example of the interface, a screen 1510 on the user terminal 100 is shown.
  • the screen 1510 may include a face information recognition area 1512 for registering a face of the user among the image 1511 of the user input through the camera. Also, the screen 1510 may include an area 1513 that provides a photographing guide for a face for face registration.
  • the photographing guide illustrated on the screen 1510 is merely an example, and various photographing guides may be provided to increase the accuracy and utilization of facial information.
  • the photographing guide may include left and right side photographing requests.
  • the controller 150 may receive the registered face information and register the face information of the user.
  • the controller 150 may control to display a notification for notifying the user.
  • notification 1521 is shown by way of example.
  • the controller 150 may determine whether the input face image matches the registered face information and authenticate the face of the user.
  • a user may set a security processing target.
  • the controller 150 may set the specific document itself as a security processing target according to a user setting.
  • the controller 150 may set all files belonging to a specific document as a security processing target according to a user setting. In this case, all files having the same extension name are set for security processing.
  • the controller 150 may display an interface for receiving a user setting for a security processing target. Interface 1610 is shown by way of example in screen 1600. When the video is set as the security processing target, the controller 150 may control the playback video to be secured when the specific video is played. An example of this is shown on screen 1620.
  • the controller 150 may control to display the video 1625 set as the security processing target by the user to be displayed together with the secured screen 1620. have. That is, in this case, when a user's touch input is detected, the controller 150 may control to display the area where the touch input is detected in a state where security is released. Alternatively, when the user's three-point touch input is detected, the controller 150 may control the entire video to be displayed in a security released state.
  • the controller 150 may control the video 1625 to be secured and displayed again.
  • the security processing target referred to in some embodiments of the present invention may be determined by the security processing performer for the object.
  • the document may have been secured by the document sender or document creator. That is, when a specific counterpart receives an object secured, the user terminal 100 may recognize the object as a secured object.
  • the file of the secured object includes a header area for identifying the secured document. Therefore, the controller 150 may determine whether the object is secured based on the file of the object selected by the user. If it is determined that the object is secured, the user terminal 100 performs a process from step S10 to step S70.
  • FIG. 17 is a flowchart illustrating a security release method for an object secured by security level according to another embodiment of the present invention.
  • the controller 150 may determine an access method for a secured object (S1701).
  • the controller 150 may identify a security level set for the object to determine an approach to the object. Or, if there is an object set approach, the controller 150 may identify the approach itself.
  • the approach is set differently according to the security level of the object.
  • the security level of the object is high, in order to display the secured object as shown in step S50 described with reference to FIG. It may be required to perform all of the authentication (S30).
  • the controller 150 may control to sequentially display the interfaces for the fingerprint authentication S10 and the face authentication S30. That is, when the user succeeds in fingerprint authentication, the controller 150 may provide an interface for face authentication to the user. Alternatively, as described above, the controller 150 may provide an interface for the face authentication S30 prior to the fingerprint authentication S10.
  • the controller 150 may determine only one of the face authentication (S30) and fingerprint authentication (S10) as an access method. Alternatively, when the access method specified by the security setting operator for the object exists, the controller 150 may provide only an interface related to the access method to the user.
  • the controller 150 may display the secured object in operation S1702.
  • a touch input for releasing the security process of the secured object is received (S1703)
  • the controller 150 may control the touch input to be displayed in a state where the detected area is released. (S1704).
  • the controller 150 may display the secured object without an approach such as fingerprint authentication or face authentication. In this case, the security state for the object is maintained only by the user's touch input.
  • the controller 150 provided an interface for user authentication.
  • the display unit 131 may include a touch sensor and a fingerprint recognition sensor. 18 and 19 will be described with reference to FIGS. 18 and 19.
  • FIG. 18 is a flowchart of a method of releasing security on an object simultaneously with fingerprint authentication according to another embodiment of the present invention.
  • 19 is an exemplary view for explaining the method of FIG. 19.
  • the controller 150 may display the secured object (S1801).
  • a secured document 611 is illustrated as an example of a secured object.
  • the controller 150 may receive a user's touch input 1900 for fingerprint authentication on the display unit 131 on which the secured document 611 is displayed. In this case, the controller 150 may detect an area 1910 in which the touch input is input. The controller 150 may perform fingerprint authentication of the user based on the touch input detected in the area 1910 (S1802).
  • the controller 150 may receive a scratch touch input 1920 continuous to the touch input within a preset time (S1803).
  • the scratch touch input 1920 is a touch input for releasing a security state for an object.
  • the controller 150 may detect an area 1930 to which a scratch touch input is input.
  • the controller 150 may display the area 1930 where the scratch touch input is detected in a secure state. There is (S1804).
  • Screen 1950 is an example of an object displayed with area 1930 unsecured 1970.
  • the methods according to the embodiments of the present invention described above with reference to the accompanying drawings may be performed by execution of a computer program implemented in computer readable code.
  • the computer program may be transmitted to and installed on the second computing device from the first computing device via a network such as the Internet, and thus may be used in the second computing device.
  • the first computing device and the second computing device include both server devices, fixed computing devices such as desktop PCs, and mobile computing devices such as laptops, smartphones, and tablet PCs.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 일 실시예에 따른, 보안 처리된 객체의 보안 상태 해제 방법은, 사용자로부터 지문 입력을 수신하여 상기 사용자의 지문을 인증하는 단계와 상기 사용자의 얼굴 이미지를 입력 받고 상기 사용자의 얼굴을 인증하는 단계와 상기 사용자의 지문 및 얼굴이 인증된 경우, 보안 처리된 객체를 디스플레이하는 단계와 상기 보안 처리된 객체의 보안 상태를 해제하기 위한 터치 입력을 수신하는 단계와 상기 터치 입력으로 제1 터치 입력이 감지됨에 따라, 상기 제1 터치 입력이 감지된 영역을 보안 해제된 상태로 디스플레이하는 단계를 포함한다.

Description

보안 처리된 객체의 보안 상태 해제 방법 및 그 장치
본 발명은 보안 처리된 객체의 보안 해제 방법 및 그 장치에 관한 것이다. 보다 자세하게는, 사용자 입력에 따라, 보안 처리된 객체에 대한 보안을 해제하여 디스플레이하는 방법 및 그 장치에 관한 것이다.
사용자가 본인의 단말을 이용하여 보안 문서를 열람하는 경우, 때때로 사용자의 부주의로 인한 문서가 타인에게 노출되는 경우가 있다. 또한, 타인의 고의적인 접근 시도로 인하여 보안 문서가 유출되는 경우도 발생한다.
이러한 문제점을 방지하기 위하여, 문서를 보안 처리하여, 특정한 조건에서만 문서를 열람할 수 있도록 하는 문서 보안 처리 기술이 제공되고 있다. 이러한 문서 보안 처리 기술은 대표적으로, 문서에 암호를 할당하여 사용자가 해당 암호를 입력한 경우에만 문서에 대한 접근을 허락하는 방식이 이용되고 있다.
그러나, 이러한 방식을 이용하더라도, 사용자가 암호를 입력하여 문서 보안이 이미 해제된 상태라면, 보안 문서에 대한 노출 위험은 여전히 존재한다. 즉, 일단 문서의 보안이 해제된 후에 사용자가 문서를 열람하고 있는 동안에는, 보안 문서는 보안성을 상실하고, 일반 문서와 다를 바 없게 된다. 따라서, 암호화 방식으로는 보안 문서에 대한 타인의 접근을 원천적으로 차단할 수 없다.
본 발명이 해결하고자 하는 기술적 과제는, 사용자가 보안 대상을 열람하고 있는 동안에도 보안 대상의 보안성을 유지할 수 있는 방법 및 그 장치를 제공하는 것이다.
본 발명이 해결하고자 하는 다른 기술적 과제는 생체 인식 기술을 이용하여, 보안 대상에 대한 접근성을 단말의 사용자에게만 제공하는 방법 및 그 장치를 제공하는 것이다.
구체적으로, 본 발명이 해결하고자 하는 다른 기술적 과제는, 지문 인증 및 얼굴 인증을 통과한 사용자에 한하여, 보안 대상에 대한 접근을 허용하는 방법 및 그 장치를 제공하는 것이다.
본 발명이 해결하고자 하는 또 다른 기술적 과제는, 터치 입력이 감지된 영역에 한하여 보안 처리된 객체의 보안을 해제하는 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 또 다른 기술적 과제는, 보안 해제된 상태의 객체가 열람되고 있는 동안, 보안 이벤트가 발생하는 경우, 객체를 다시 보안 처리하는 방법 및 그 장치를 제공하는 것이다.
본 발명이 해결하고자 하는 또 다른 기술적 과제는, 보안 등급에 따라 차등적으로 보안 처리된 객체를 다양한 방식으로 보안 해제하기 위한 방법 및 장치를 제공하는 것이다.
본 발명이 해결하고자 하는 또 다른 기술적 과제는, 지문 인증을 수행함과 동시에, 보안 해제 영역을 지정하여 객체에 대한 보안을 해제할 수 있는 방법 및 그 장치를 제공하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명의 기술분야에서의 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.
상기 기술적 과제를 해결하기 위한, 보안 처리된 객체의 보안 상태 해제 방법은, 사용자로부터 지문 입력을 수신하여 상기 사용자의 지문을 인증하는 단계와 상기 사용자의 얼굴 이미지를 입력 받고 상기 사용자의 얼굴을 인증하는 단계와 상기 사용자의 지문 및 얼굴이 인증된 경우, 보안 처리된 객체를 디스플레이하는 단계와 상기 보안 처리된 객체의 보안 상태를 해제하기 위한 터치 입력을 수신하는 단계와 상기 터치 입력으로 제1 터치 입력이 감지됨에 따라, 상기 제1 터치 입력이 감지된 영역을 보안 해제된 상태로 디스플레이하는 단계를 포함한다.
또한, 상기 기술적 과제를 해결하기 위한, 보안 처리된 객체의 보안 상태 해제 방법은, 사용자로부터 지문 입력을 수신하여 상기 사용자를 인증하는 단계와 상기 사용자가 인증된 경우, 보안 처리된 객체를 디스플레이하는 단계와 상기 보안 처리된 객체의 보안 상태를 해제하기 위한 터치 입력을 수신하는 단계와 상기 터치 입력이 감지됨에 따라, 상기 터치 입력이 감지된 영역을 보안 처리가 해제된 상태로 디스플레이하는 단계를 포함하되, 상기 보안 처리가 해제된 상태로 디스플레이하는 단계는, 상기 영역에 대하여, 상기 수신된 터치 입력의 궤적을 따라 미리 설정된 두께로 보안 상태를 해제하여 디스플레이하는 단계를 포함한다.
또한, 상기 기술적 과제를 해결하기 위한, 보안 처리된 객체의 보안 상태 해제 방법은, 보안 처리된 객체에 대한 접근 방식을 식별하는 단계와 상기 식별된 접근 방식이 수행됨에 따라, 보안 처리된 객체를 디스플레이하는 단계와 상기 보안 처리된 객체의 보안 상태를 해제하기 위한 터치 입력을 수신하는 단계와 상기 터치 입력이 감지됨에 따라, 상기 터치 입력이 감지된 영역을 보안 해제된 상태로 디스플레이하는 단계를 포함한다.
또한, 상기 기술적 과제를 해결하기 위한, 보안 처리된 객체의 보안 상태 해제 방법은, 보안 처리된 객체를 디스플레이하는 단계와 사용자로부터 지문 인증을 위한 터치 입력을 수신하여 상기 사용자의 지문을 인증하는 단계와 상기 지문 인증을 위한 터치 입력이 유지된 상태에서, 미리 설정된 시간 이내에, 상기 터치 입력에 연속하는 상기 보안 상태를 해제하기 위한 스크래치 터치 입력을 수신하는 단계와 상기 인증 결과 상기 사용자의 지문이 인증된 경우, 상기 스크래치 터치 입력이 감지된 영역을 보안 해제된 상태로 디스플레이하는 단계를 포함한다.
본 발명에 따르면, 사용자가 열람중인 보안 대상에 대하여 보안성을 유지할 수 있는 효과가 있다.
구체적으로, 사용자가 보안 해제된 상태의 객체를 열람 중이라도, 타인의 접근을 감지하여, 보안 대상의 노출을 방지할 수 있다.
또한, 본 발명에 따르면, 사용자가 보안 대상 중 일부 영역에 대해서만 보안을 해제할 수 있으므로, 보안 대상의 보안성을 극대화할 수 있는 효과가 있다.
또한, 본 발명에 따르면, 보안 등급이 서로 다른 각각의 객체에 대하여, 서로 다른 보안 해제 방식으로 보안이 해제되도록 할 수 있는 효과가 있다. 따라서, 보안 등급에 따라 객체에 대한 보안 처리를 차등적으로 적용할 수 있는 효과가 있다.
또한, 본 발명에 따르면, 지문 인증을 수행함과 동시에, 보안 해제 영역을 지정하여 객체에 대한 보안을 해제함으로써, 보안 처리된 객체에 대한 신속한 보안 해제를 제공 받는 효과가 있다.
또한, 본 발명에 따르면, 추천 서비스의 제공자가 추천 서비스를 위한 데이터베이스를 효율적으로 관리할 수 있는 방법을 제공받는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 사용자 단말의 블록도이다.
도 2는 본 발명의 다른 실시예에 따른 보안 처리된 객체의 디스플레이 방법의 순서도이다.
도 3은 본 발명의 몇몇 실시예들에서 참조되는 보안 처리된 문서와 일반 문서를 설명하는 예시도이다.
도 4는 본 발명의 몇몇 실시예들에서 참조되는 지문 인증 과정을 설명하기 위한 예시도이다.
도 5는 본 발명의 몇몇 실시예들에서 참조되는 얼굴 인증 과정을 설명하기 위한 예시도이다.
도 6은 본 발명의 몇몇 실시예들에서 참조되는 보안 처리 해제를 위한 터치 입력의 예시이다.
도 7은 본 발명의 몇몇 실시예들에서 참조되는 보안 처리 해제 시간을 설명하기 위한 예시도이다.
도 8은 도 7의 보안 처리 해제 시간을 설명하기 위한 다른 예시도이다.
도 9는 본 발명의 또 다른 실시예에 따른 보안 처리된 문서의 스크롤 방법을 설명하기 위한 예시도이다.
도 10은 본 발명의 또 다른 실시예에 따른 보안 처리된 문서 전체의 보안 상태를 해제하는 방법을 설명하기 위한 예시도이다.
도 11은 본 발명의 몇몇 실시예에서 참조되는 보안 이벤트에 대한 예시도이다.
도 12는 본 발명의 또 다른 실시예 따른 사용자 인터페이스(User Interface, UI)의 예시이다.
도 13은 본 발명의 몇몇 실시예에서 참조되는 보안 처리 해제 영역을 결정하는 방식을 설명하는 예시도이다.
도 14는 본 발명의 몇몇 실시예에서 참조되는 사용자의 지문 정보 등록 과정을 설명하는 예시도이다.
도 15 본 발명의 몇몇 실시예에서 참조되는 사용자의 얼굴 정보 등록 과정을 설명하는 예시도이다.
도 16은 본 발명의 몇몇 실시예에서 참조되는 사용자에 의해 설정된 보안 처리 대상을 설명하기 위한 예시도이다.
도 17은 본 발명의 또 다른 실시예에 따른 보안 등급 별로 보안 처리된 객체에 대한 보안 해제 방법의 순서도이다.
도 18은 본 발명의 또 다른 실시예에 따른 지문 인증과 동시에 객체에 대한 보안을 해제하는 방법의 순서도이다.
도 19는 본 발명의 몇몇 실시예에서 참조되는 지문 인증과 동시에 객체에 대한 보안 상태를 해제하는 과정을 설명하는 예시도이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.
도 1은 본 발명의 일 실시예에 따른 사용자 단말의 블록도이다.
이하, 도 1을 참조하여 본 발명의 일 실시예에 따른 보안 처리된 객체의 보안 상태를 해제하는 사용자 단말의 구성 및 동작을 구체적으로 설명한다. 여기에서 사용자 단말(100)은 데스크탑 PC와 같은 고정식 컴퓨팅 장치, 노트북, 스마트폰, 태블릿 피씨와 같은 모바일 컴퓨팅 장치를 모두 포함할 수 있다.
도 1을 참조하면, 사용자 단말(100)은 통신부(110), 입력부(120), 출력부(130), 저장부(140) 및 제어부(150)로 구성될 수 있다.
통신부(110)은 사용자 단말(100)의 유무선 인터넷 통신을 지원하며, 외부 장치와 각종 정보를 송수신할 수 있다. 통신부(110)는 외부 장치로부터 각종 문서, 동영상, 메시지 등을 수신할 수 있다. 또한, 통신부(110)는 사용자가 입력한 사용자 정보, 각종 인증 정보를 외부 장치로 송신할 수도 있다.
입력부(120)는 사용자 단말(100)의 관리자로부터 각종 데이터, 명령 및/또는 정보를 입력 받는다. 특히, 입력부(120)는 사용자의 각종 정보를 입력 받기 위한 각종 모듈을 포함할 수 있다. 예를 들어, 입력부(120)는 사용자 또는 다른 사용자의 얼굴 이미지를 입력 받기 위한 카메라(121)를 포함할 수도 있다. 본 발명의 몇몇 실시예들에서 카메라(121)를 통해 사용자의 얼굴 이미지가 입력된다. 즉, 카메라(121)를 통해 촬영된 사용자의 얼굴 이미지가 사용자 인증을 위한 입력 대상으로 이용되는 한도에서 카메라(121)는 입력부(120)로 기능할 수 있다.
또한, 후술할 디스플레이부가 사용자 터치 입력을 수신하기 위한 터치 센서를 구비하여 터치스크린으로 구성되는 경우, 입력부(120)는 디스플레이부를 포함할 수도 있다. 이 경우, 입력부(120)는 출력부(130)와 통합된 형태로 사용자 단말(100)에 적용될 수 있다. 또한, 입력부(120)는 본 발명이 속하는 기술분야에서 잘 알려진 임의의 형태의 입력 수단을 포함하여 구성될 수 있다.
출력부(130)는 사용자 단말(100)의 관리자에게 각종 데이터, 명령 및/또는 정보를 통보한다. 출력부(130)는 디스플레이부(131)를 포함할 수 있다. 디스플레이부(131)는 각종 데이터 등을 디스플레이할 수 있다. 특히, 디스플레이부(131)는 외부 장치부터 수신한 문서, 동영상, 이 메일, 메시지 등을 디스플레이할 수 있다. 또한, 디스플레이부(131)는 상기 디스플레이 대상이 보안 처리된 상태로 디스플레이할 수도 있다.
본 발명의 몇몇 실시예들에 따르면, 디스플레이부(131)는 사용자의 터치 입력을 인식하기 위하여, 터치 센서를 구비하여 터치스크린으로 구성될 수 있다. 또한, 디스플레이부(131)는 사용자의 지문 인증을 위하여 터치 센서 외에, 별도의 지문 인식 센서를 포함할 수도 있다. 또는 디스플레이부(131)는 별도 지문 인식 센서 없이 터치 센서를 이용하여 사용자의 지문을 인식할 수도 있다. 또한, 출력부(130)는 본 발명이 속하는 기술분야에서 잘 알려진 임의의 형태의 출력 수단을 더 포함하여 구성될 수 있다.
저장부(140)는 각종 데이터, 명령 및/또는 정보를 저장한다. 저장부(140)는, 본 발명의 실시예들에 따른 보안 처리 및 보안 처리 해제 방법을 제공하기 위한 하나 이상의 프로그램을 저장할 수 있다. 특히, 저장부(140)는 외부 장치로부터 수신된 문서, 동영상, 이 메일, 메시지 등을 저장할 수 있다. 또한, 저장부(140)는 등록된 사용자의 지문 정보 및 사용자의 얼굴 정보를 저장할 수도 있다.
저장부(140)는 외부 장치로부터 전달된 데이터 등을 임시적으로 또는 비임시적으로 저장할 수 있다. 저장부(140)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.
제어부(150)은 사용자 단말(100)의 각 구성의 전반적인 동작을 제어한다. 제어부(150)은 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다. 또한, 제어부(150)는 본 발명의 실시예에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램을 저장할 수도 있다. 제어부(150)의 기능 및 동작은 도 2를 참조하여 자세히 설명하도록 한다.
한편, 도시되지 않았으나, 본 발명의 다른 실시예에 따른 사용자 단말(100)은 지문 인증을 위한 별도 하드웨어 모듈을 포함하여 구성될 수도 있다. 예를 들어, 사용자 단말(100)의 하우징(Housing) 상에 구비된 홈 버튼은 지문 인증을 위한 하드웨어 모듈로서 구성될 수도 있다.
이하, 도 2 내지 도 16을 참조하여, 상술한 사용자 단말(100)에 의해 실행되는 보안 처리된 객체의 보안 상태 해제 방법을 구체적으로 설명하도록 한다.
도 2는 본 발명의 다른 실시예에 따른 보안 처리된 객체의 디스플레이 방법의 순서도이다. 또한, 도 3은 본 발명의 몇몇 실시예들에서 참조되는 보안 처리된 문서와 일반 문서를 설명하는 예시도이다.
도 2를 참조하면, 본 발명의 일 실시예에 따르면, 사용자가 보안 처리된 객체에 대한 보안 상태를 해제하기 위하여는 사용자 인증이 우선적으로 요구된다. 즉, 보안 처리된 객체의 보안 상태 해제에 앞서 상기 객체에 접근하기 위한 조건으로 사용자 인증이 요구된다.
사용자 인증 수단이 지문 인증인 경우를 설명한다. 사용자 단말(100)은 디스플레이부(131)를 통해, 사용자의 지문 입력을 수신하여 사용자의 지문을 인증할 수 있다(S10).
구체적으로, 제어부(150)는 상기 입력된 사용자의 지문이 미리 등록된 사용자의 지문에 매칭되는지 여부를 판단할 수 있다(S20). 여기에서 입력된 사용자의 지문이 미리 등록된 사용자의 지문에 매칭된다는 의미는, 등록된 지문과 입력된 지문이 동일한 사용자의 것으로 인정될 수 있는 정도 일치하는 것을 의미한다.
여기에서 객체란, 보안 처리 및 보안 상태 해제의 대상으로서, 사용자 단말(100)의 디스플레이부(131)를 통해 디스플레이될 수 있는 모든 대상을 포함한다. 예를 들어, 객체는 동영상, 문서, 이 메일, 메신저 실행화면, SNS 상의 메시지, 게임 실행 화면, 각종 인터페이스를 포함할 수 있다.
도 3을 참조하면, 보안 처리된 객체의 예시로, 디스플레이부(131)를 통해 디스플레이된 화면(301) 상의 보안 처리된 문서(310), 화면(302) 상의 일부가 보안 해제된 문서(320)가 도시되었다. 또한, 보안 상태가 해제된 객체의 예시로, 디스플레이부(131)를 통해 디스플레이된 화면(303) 상의 보안 처리가 해제된 문서(330)이 도시되었다.
도 4는 상술한 지문 인증 과정을 설명하기 위한 예시도이다. 도 4를 참조하여, 지문 인증 과정을 자세히 설명하도록 한다. 도 4를 참조하면, 제어부(150)는 문서에 접근을 요청하는 사용자 입력을 수신하면, 화면(401)이 디스플레이부(131)를 통해 디스플레이되도록 제어할 수 있다. 화면(401)은 문서 리스트(411)를 포함할 수 있다. 또한, 상기 리스트(411) 상의 문서 중, 적어도 하나가 보안 처리된 문서인 경우를 가정하도록 한다.
사용자로부터 상기 보안 처리된 문서에 대한 열람을 요청하는 입력이 수신되면, 제어부(150)는 화면(402)가 디스플레이되도록 제어할 수 있다. 화면(402)는 사용자의 지문 입력을 요청하는 인터페이스를 포함할 수 있다. 또한, 제어부(150)는 화면(402)에 지문 입력 위치를 나타내는 영역(412)와 지문 입력을 위한 가이드를 제공하는 영역(413)이 포함되도록 제어할 수도 있다. 이때, 화면(403)에서 영역(412) 상에 사용자의 지문이 입력되면, 제어부(150)는 미리 등록된 지문 정보와 상기 입력된 지문을 비교할 수 있다. 즉, 제어부(150)는 상기 입력된 사용자의 지문이 미리 등록된 사용자의 지문에 매칭되는지 여부를 판단할 수 있다(S20). 상기 판단 결과, 등록된 지문 정보와 입력된 지문이 동일인의 것으로 판단되는 경우, 제어부(150)는 지문 인증이 성공된 것으로 판단할 수 있다.
반면, 등록된 지문 정보와 입력된 지문이 동일인의 것으로 판단되지 않는 경우, 제어부(150)는 지문 인증이 실패한 것으로 판단하고 화면(404)가 디스플레이되도록 제어할 수 있다. 화면(404)는 지문 인증의 재시도 여부에 대한 사용자가 선택을 입력 받기 위한 인터페이스(417)를 포함할 수 있다. 예를 들어, 상기 인터페이스(417)는 팝업 창과 같은 형태로 디스플레이될 수 있다.
다시, 도 2를 참조하면, 사용자의 지문 인증이 성공한 경우, 사용자 단말(100)은 사용자의 얼굴을 인증할 수 있다(S30). 한편, 사용자의 지문 인증이 실패한 경우, 사용자 단말(100)은 단계(S10)에서 사용자의 지문 인증을 재시도 할 수 있다.
사용자 얼굴 인증 과정에 대하여, 도 5를 참조하여, 구체적으로 설명하도록 한다. 도 5는 본 발명의 몇몇 실시예들에서 참조되는 얼굴 인증 과정을 설명하기 위한 예시도이다.
도 5를 참조하면, 사용자의 지문 인증이 성공한 경우, 제어부(150)는 사용자 단말(100)을 통해 사용자에게 얼굴 인증 과정을 수행하기 위한 인터페이스(501)를 제공할 수 있다. 인터페이스(501)는 카메라를 통하여 입력되는 이미지를 출력하는 영역(503) 및 사용자 얼굴 인증을 위한 가이드를 제공하는 영역(502)을 포함할 수 있다.
예를 들어, 영역(503)은 입력되는 이미지 중, 얼굴을 인식하기 위한 영역(504)을 포함할 수도 있다. 장면(510)을 참조하면, 사용자는 사용자 단말(100)의 카메라(121)를 통해, 사용자의 얼굴 이미지를 입력할 수 있다. 이 경우, 사용자는 영역(504)을 참고하여, 사용자의 얼굴이 영역(504)에 들어오도록 카메라(121) 촬영 각도를 조절할 수 있다.
제어부(150)는 입력된 얼굴 이미지가 미리 등록된 얼굴 정보에 매칭되는지 판단할 수 있다(S40). 상기 매칭 결과, 입력된 이미지와 등록된 얼굴 정보가 동일인의 것으로 판단되면, 제어부(150)는 사용자의 얼굴 인증이 성공한 것으로 판단할 수 있다. 이때, 사용자의 얼굴 인증 과정 동안, 제어부(150)는 화면(510)이 디스플레이되도록 제어할 수 있다.
화면(510)은 제어부(150)가 보안 처리된 객체에 접근하는 화면이다. 즉, 제어부(150)는 사용자의 얼굴 인증 동안, 사용자가 선택한 보안 처리된 객체를 준비하는 화면을 디스플레이할 수 있다. 이때, 제어부(150)는 화면(510)을 통해 보안 처리된 객체에 접근 중임을 표시(513)할 수도 있다. 화면(510)에서 보안 처리된 객체에 대한 예시로 보안 처리된 문서(511)가 도시되었다.
한편, 본 발명의 다른 실시예에 따르면, 제어부(150)는 사용자의 지문 인증 후에, 사용자의 얼굴 인증을 위하여 인터페이스(501)을 제공하지 않을 수도 있다. 이 경우, 제어부(150)는 단계(S10)에서 사용자의 지문 인증이 성공되면, 화면(510)가 디스플레이되도록 제어할 수 있다. 이때, 제어부(150)는 화면(510)이 디스플레이된 상태에서, 카메라(121)를 통해 사용자의 얼굴 인증을 수행할 수도 있다(S30). 또한, 제어부(150)는 사용자 얼굴 인증의 성공 여부를 판단할 수도 있다(S40).
사용자의 얼굴을 인증 중인 경우, 제어부(150)는 상기 보안 처리된 문서(511)에 대하여 보안 처리 해제가 아직 불가능한 상태임을 표시(512)할 수도 있다. 상기 보안 처리 해제가 불가능한 상태란, 카메라를 통해 입력된 사용자의 얼굴 이미지에 대한 인증이 완료되지 않은 상태를 의미한다.
제어부(150)는 등록된 얼굴 정보와 입력된 얼굴 이미지가 동일인의 것으로 판단되지 않는 경우, 제어부(150)는 얼굴 인증이 실패한 것으로 판단하고 화면(520)가 디스플레이되도록 제어할 수 있다. 화면(520)은 얼굴 인증의 재시도 여부에 대한 사용자가 선택을 입력 받기 위한 인터페이스(521)를 포함할 수 있다. 예를 들어, 상기 인터페이스(521)는 팝업 창과 같은 형태로 디스플레이될 수 있다.
상기에서 사용자의 지문 인증 단계(S10)가 수행된 후 사용자의 얼굴 인증 단계(S30)를 설명하였으나, 본 발명의 또 다른 실시예에 따르면, 상기 단계(S10) 및 단계(S30)은 순서를 달리할 수 있다. 즉, 제어부(150)는 사용자의 얼굴 인증을 수행한 후, 지문 인증이 수행되도록 제어할 수도 있다. 또한, 제어부(150)는 사용자 인증을 위하여 상기 지문 인증 및 얼굴 인증 중, 어느 하나의 인증 방식만을 이용할 수도 있다.
다시 도 2를 참조하면, 상기 사용자 인증이 완료된 후, 제어부(150)는 보안 처리된 객체를 디스플레이할 수 있다(S50). 보안 처리된 객체가 디스플레이된 상태에서, 사용자 단말(100)은 사용자로부터 객체에 대한 보안 상태 해제를 위한 터치 입력을 수신할 수 있다(S60). 제어부(150)는 터치 입력이 감지된 영역을 보안 해제된 상태로 디스플레이할 수 있다(S70).
일반적으로, 터치 입력이란, 사용자가 사용자 단말(100)을 제어하기 위하여 디스플레이부(131) 상에 행하는 터치 입력을 의미한다. 터치 입력은 포인트 터치, 탭, 드래그, 핀치 인/아웃(Pinch In/Out), 스크래치 입력 등 다양한 종류의 터치 방식을 포함할 수 있다. 특히, 본 발명의 일 실시예에서 이용되는 스크래치 터치 입력은, 사용자가 손가락, 전자 펜, 스타일러스 펜 등 터치 센서가 인식 가능한 도구를 이용하여 디스플레이부(131) 상의 특정 영역을 스크래치 하는 터치 입력을 의미한다. 예를 들어, 스크래치 터치 입력은 보안 처리된 영역의 보안 상태를 지우는 동작 행해질 수 있다.
보안 처리된 객체가 디스플레이된 상태에서, 사용자가 보안 상태를 해제하는 과정을 이하, 도 6을 참조하여, 구체적으로 설명하도록 한다.
도 6은 본 발명의 몇몇 실시예들에서 참조되는 보안 처리 해제를 위한 터치 입력의 예시이다. 도 6을 참조하면, 제어부(150)는 사용자 인증 과정 동안 화면(510)이 디스플레이되도록 제어할 수 있다. 화면(510)에서 보안 처리된 객체의 예시로서 보안 처리된 문서(511)가 도시되었다. 또한, 화면(510)은 보안 처리 해제가 아직 불가능한 상태임을 표시하는 표시(512)를 포함할 수도 있다.
사용자 인증이 완료된 경우, 제어부(150)는 화면(610)이 디스플레이되도록 제어할 수 있다. 화면(610)은 보안 처리의 해제 대상으로서 문서(611)를 포함할 수 있다. 또한, 문서(611)이 보안 처리의 해제가 가능함을 표시하는 표시(612)를 포함할 수도 있다.
사용자 단말(100)은 사용자로부터 객체에 대한 보안 상태 해제를 위한 터치 입력을 수신할 수 있다. 도 6의 화면(610)에서 터치 입력의 예시로 스크래치 터치 입력(615)가 예로써 도시되었다. 본 명세서에서 상기 스크래치 터치 입력은 제1 터치 입력으로 명명될 수 있다.
사용자로부터 궤적(617)을 따라 영역(619)을 스크래치하는 터치 입력(615)이 입력되면, 제어부(150)는 상기 스크래치 터치 입력이 입력된 영역(619)을 감지할 수 있다. 제어부(150)는 영역(619)에 대한 스크래치 터치 입력이 감지되면, 보안 처리된 문서(611) 상의 영역(619)의 보안 상태를 해제할 수 있다. 이에 따라, 제어부(150)는 영역(619)를 화면(620)과 같이 보안 해제된 상태로 디스플레이할 수 있다. 즉, 화면(620)는 영역(619)의 보안 상태가 해제된 영역인(621)을 포함할 수 있다.
한편, 상기에서, 사용자의 터치 입력이 스크래치 터치 입력인 경우를 주로 설명하였으나, 본 발명의 다른 실시예에 따르면, 객체에 대한 보안 해제를 위하여 핀치 인/아웃 터치 입력이 이용될 수도 있다. 예를 들어, 사용자는 단계(S60)에서 핀치 아웃 터치 입력으로 객체 상의 보안 해제 영역을 결정할 수도 있다. 이 경우, 제어부(150)는 단계(S70)에서 핀치 아웃 터치 입력으로 결정된 영역이 보안 해제 상태로 디스플레이되도록 제어할 수도 있다.
다음으로, 도 7 및 도 8을 참조하여, 영역(621)이 보안 해제 상태에서 다시 보안 처리된 상태로 변경되는 경우를 설명한다.
도 7은 본 발명의 몇몇 실시예들에서 참조되는 보안 처리 해제 시간을 설명하기 위한 예시도이다. 또한, 도 8은 도 7의 보안 처리 해제 시간을 설명하기 위한 다른 예시도이다.
도 7을 참조하면, 단계(S70)에서, 제어부(150)는 화면(620) 상의 영역(621)을 보안 해제된 상태로 디스플레이할 수 있다. 단계(S70)에서 행해진 스크래치 터치 입력은 시간 간격을 가진다. 즉, 예를 들어 사용자가 도 6의 영역(619)의 윗줄에서 아랫줄 방향으로 궤적(617)을 따라 스크래치 터치 입력한 경우를 가정하도록 한다. 이 경우, 영역(621)은 윗줄부터 아랫줄 순서대로 보안 해제된다. 즉, 윗줄에 대한 보안 해제가 아랫줄에 대한 보안 해제보다 먼저 이뤄진다.
이 경우, 단계(S70)에서, 제어부(150)는 미리 설정된 시간이 경과함에 따라, 보안 해제된 상태로 디스플레이된 영역이 다시 보안 처리된 상태로 디스플레이되도록 제어할 수 있다. 상기 예에서 먼저 보안 해제된 윗줄은 아랫줄 보다 미리 설정된 시간을 먼저 경과하게 된다. 이에 따라 윗줄부터 아랫줄 순서대로, 제어부(150)는 영역(619)를 다시 보안 처리할 수 있다. 화면(710)을 참조하면, 미리 설정된 시간이 경과한 윗줄 부분이 제어부(150)에 의해 다시 보안 처리된 경우가 예로써 도시되었다. 제어부(150)는 미리설정된 시간이 경과하지 않은 아랫줄 부분(711)은 여전히 보안 해제된 상태로 디스플레이되도록 제어할 수 있다.
여기에서, 미리 설정된 시간은 객체에 대한 보안 유지를 위하여 사용자에 의해 설정된 시간이다. 또는, 상기 미리 설정된 시간은 본 발명의 실시예에 따른 방법에 대한 프로그램 제공자에 의해 결정될 수도 있다.
도 8을 참조하면, 단계(S70)에서, 제어부(150)는 화면(620) 상의 영역(621)을 보안 해제된 상태로 디스플레이할 수 있다. 본 발명의 다른 실시예에 따르면, 보안 해제된 상태의 객체에 대하여 다시 보안 처리할 것인지 여부는 사용자의 터치 입력의 유지 여부로 결정될 수도 있다.
화면(620)에서, 사용자의 스크래치 터치 입력(800)에 의해 보안 해제된 영역(621)이 도시되었다. 이때, 화면(810)과 같이 사용자가 디스플레이부(31) 상의 터치 접촉을 해제(820)한 경우를 가정하도록 한다. 제어부(150)는 터치 접촉이 존재하는지 감지할 수 있다. 제어부(150)는 터치 접촉이 감지되지 않는 경우, 영역(619)이 화면(610)과 같이 다시 보안 처리되어 디스플레이되도록 제어할 수 있다. 반면, 제어부(150)는 사용자의 터치 입력이 감지되는 동안, 영역(619)에 대한 보안 해제 상태가 유지되도록 제어할 수도 있다.
이하, 본 발명의 또 다른 실시예에 따른 스크래치 터치 입력 외의 다른 터치 입력 방식에 따른 보안 문서의 열람 방법에 대하여 도 9 및 도 10을 참조하여 설명하도록 한다.
도 9는 본 발명의 또 다른 실시예에 따른 보안 처리된 문서의 스크롤 방법을 설명하기 위한 예시도이다. 도 9를 참조하면, 단계(S70)에서, 제어부(150)는 화면(620) 상의 영역(621)을 보안 해제된 상태로 디스플레이할 수 있다. 화면(620)에서, 사용자의 2점 터치 입력(900)이 입력된 경우를 가정하도록 한다. 여기에서 2점 터치 입력이란, 디스플레이부(131) 상의 2개의 점에 대하여 행해진 사용자의 터치 입력을 의미한다. 예를 들어, 2점 터치는, 사용자의 2개의 손가락 터치로 이뤄질 수 있다. 또한, 두 개의 전자 펜 또는 스타일러스 펜에 의하여 이뤄질 수도 있다.
본 발명의 실시예들에 따르면, 상기 2점 터치는 방향성을 가질 수 있다.
화면(910)을 참조하면, 제어부(150)는 화면(620)에서 행해진 2점 터치 입력(900)에 의해 사용자의 두 손가락과 디스플레이부(131)의 접촉이 유지된 상태에서, 2점 터치(900)이 위 방향으로 이동(915)하는 것을 감지할 수 있다. 제어부(150)는 2점 터치 입력(900)이 위 방향으로 이동(915)하는 것을 감지함에 따라, 객체(611)가 위 방향으로 스크롤되도록 제어할 수 있다. 이에 따라, 화면(910)에서 보안 해제된 영역(621) 역시 위 방향으로 스크롤되었다. 이에 따라 스크롤 바(905)가 위 방향으로 이동되었다.
반면, 화면(920)을 참조하면, 제어부(150)는, 화면(620)에서 행해진 2점 터치 입력(900)에 의해 사용자의 두 손가락과 디스플레이부(131)의 접촉이 유지된 상태에서, 2점 터치(900)이 아래 방향으로 이동(925)하는 것을 감지할 수 있다. 제어부(150)는 2점 터치 입력(900)이 아래 방향으로 이동(925)하는 것을 감지함에 따라, 객체(611)가 아래 방향으로 스크롤되도록 제어할 수 있다. 이에 따라, 화면(920)에서 보안 해제된 영역(621) 역시 아래 방향으로 스크롤되었다. 이에 따라 스크롤 바(905) 역시 아래 방향으로 이동되었다.
본 명세서에서 상기 2점 터치 입력은 스크래치 터치 입력(제1 터치 입력)과 구별하는 의미에서 제2 터치 입력으로 명명할 수도 있다.
도 10은 본 발명의 또 다른 실시예에 따른 보안 처리된 문서 전체의 보안 상태를 해제하는 방법을 설명하기 위한 예시도이다. 도 10을 참조하면, 단계(S50)에서, 제어부(150)는 화면(610)과 같이 보안 처리된 객체(611)가 디스플레이되도록 제어할 수 있다. 다음으로, 화면(1000)에서, 객체(611) 상에 사용자의 3점 터치 입력(1010)이 입력된 경우를 가정하도록 한다. 여기에서 3점 터치 입력이란, 디스플레이부(131) 상의 3개의 점에 대하여 행해진 사용자의 터치 입력을 의미한다. 예를 들어, 2점 터치는, 사용자의 3개의 손가락 터치로 이뤄질 수 있다.
제어부(150)는 보안 처리된 객체(611)가 디스플레이된 디스플레이부(131) 상에 사용자의 3점 터치 입력을 감지함에 따라, 보안 처리된 객체(611)가 보안 해제 상태로 디스플레이되도록 제어할 수 있다. 화면(1020)에서, 보안 해제 상태의 문서(1025)가 보안 해제 상태로 디스플레이된 객체의 예로써 도시되었다.
본 명세서에서 상기 3점 터치 입력은 스크래치 터치 입력(제1 터치 입력) 및 2점 터치 입력(제2 터치 입력)과 구별하는 의미에서 제3 터치 입력으로 명명할 수도 있다.
한편, 본 발명의 또 다른 실시예에 따르면, 보안 해제된 객체를 열람하는 동안에도 보안 이벤트가 발생하는 경우, 제어부(150)는 객체를 다시 보안 상태로 디스플레이할 수 있다. 도 11은 본 발명의 몇몇 실시예에서 참조되는 보안 이벤트에 대한 예시도이다.
도 11을 참조하면, 단계(S70)에서 제어부(150)는 화면(620)과 같이, 영역(621)이 보안 해제 상태로 디스플레이되도록 제어할 수 있다. 이때, 보안 이벤트가 발생한 경우, 제어부(150)는 이를 감지하고, 영역(621)이 보안 처리된 상태로 디스플레이되도록 제어할 수 있다. 여기에서 보안 이벤트는 사용자가 보안 해제된 객체를 열람하는 도중, 다시 객체에 대한 보안 처리 필요성이 발생하는 경우를 의미한다. 적법한 권한을 가진 사용자의 열람 중에도 객체에 대한 보안성을 극대화하기 위함이다. 이를 통해, 사용자가 객체를 열람 중이라도, 다른 사용자의 객체에 대한 접근을 차단할 수 있다.
도 11에서 보안 이벤트의 예시로 사용자의 얼굴 인증이 실패하는 경우(1110, 1120, 1130)가 도시되었다.
보안 이벤트(1110)은, 사용자에 대하여 단계(S30)에서 얼굴 인증이 성공된 경우라도, 사용자가 보안 해제된 객체를 열람하는 도중에 사용자의 얼굴이 인증되지 않는 경우이다. 즉, 본 발명의 일 실시예에 따르면, 제어부(150)는 사용자가 단계(S30)에서 얼굴 인증에 성공한 후, 단계(S70)에서 보안 해제된 객체를 열람하는 중에, 사용자 인증을 실시간으로 수행한다. 즉, 제어부(150)는 객체를 열람 중인 사용자의 얼굴 이미지를 카메라(121)를 통해, 실시간으로 입력 받을 수 있다. 이에 따라, 제어부(150)는 실시간으로 등록된 얼굴 정보에 입력되는 얼굴 이미지가 매칭되는지 판단할 수 있다.
또는, 제어부(150)는 상기 사용자의 객체에 대한 열람 중 수행되는 얼굴인증이 소정의 시간 간격으로 수행되도록 제어할 수도 있다. 상기 소정의 시간 간격은 사용자 또는 보안 처리된 객체의 보안 상태 해제 방법의 프로그램 제공자에 의해 결정될 수 있다.
보안 이벤트(1110)이 발생하면, 제어부(150)는 영역(621)이 다시 보안 처리된 상태로 디스플레이되도록 제어할 수 있다. 예를 들면, 제어부(150)는 보안 이벤트(1110)의 발생에 따라, 화면(610)과 같이 보안 처리된 객체(611)가 디스플레이되도록 제어할 수 있다.
보안 이벤트(1120)은, 사용자에 의해 객체가 보안 해제되고, 사용자와 다른 사용자가 사용자의 단말(100)에 접근하는 경우이다. 즉, 이 경우에도, 사용자의 얼굴이 인증되지 않게 된다. 이에 따라, 제어부(150)는 화면(610)과 같이 보안 처리된 객체(611)가 디스플레이되도록 제어할 수 있다.
또한, 보안 이벤트(1130)은 사용자에 대하여 단계(S30)에서 얼굴 인증이 성공된 경우라도, 사용자가 보안 해제된 객체를 열람하는 도중에 사용자 외의 다른 사용자의 얼굴 이미지가 사용자 단말(100)에 입력되는 경우이다. 예를 들어, 객체를 열람 중인 사용자와 가까운 거리에서 다른 사용자가 있는 경우, 사용자 단말(100)은 카메라(121)를 통해, 사용자의 얼굴 이미지와 함께 상기 다른 사용자의 얼굴 이미지도 입력 받을 수 있다. 이때, 제어부(150)는 객체가 다른 사용자에게 노출될 위험이 있는 것으로 판단할 수 있다. 이에 따라, 제어부(150)는 사용자의 얼굴 인증이 성공하더라도, 입력된 얼굴 이미지에 다른 사용자의 얼굴 이미지가 포함된 경우, 객체(611)가 화면(610)과 같이 보안 처리된 상태로 디스플레이되도록 제어할 수도 있다.
도 12는 본 발명의 또 다른 실시예 따른 사용자 인터페이스의 예시이다. 장면(1200)은 사용자가 단계(S70)에서 디스플레이된 보안 해제 상태의 객체를 열람하는 경우의 예시도이다. 본 발명의 또 다른 실시예에 따르면, 제어부(150)는 화면(1210)과 같이, 사용자에게 실시간 얼굴 인증 인터페이스를 제공할 수 있다. 제어부(150)는 상기 인터페이스를 통해 장면(1200)에서 보안 해제 상태의 객체를 열람 중인 사용자의 얼굴 이미지(1220)가 디스플레이되도록 제어할 수 있다. 즉, 상기 디스플레이되는 얼굴 이미지(1220)는 카메라(121)를 통해, 입력되는 얼굴 이미지이다.
이에 따라, 사용자로서는 객체에 대한 열람 중에, 보안 해제 상태의 유지를 위해, 얼굴 이미지가 화면(1210) 상의 얼굴 이미지(1220)와 같이 입력되도록 주의할 수 있다. 또한, 사용자는 디스플레이되는 이미지(1220)에 다른 사용자의 얼굴 이미지가 포함되는지 주의할 수 있게 된다.
또한, 제어부(150)는 보안 이벤트의 발생 여부를 상기 얼굴 이미지(1220)가 표시된 영역의 디스플레이 상태를 감지함으로써 판단할 수도 있다.
도 13은 본 발명의 몇몇 실시예에서 참조되는 보안 처리 해제 영역을 결정하는 방식을 설명하는 예시도이다.
도 13을 참조하면, 제어부(150)는 사용자에게 보안 처리 해제 영역을 결정하는 방식을 선택 받기 위한 인터페이스를 제공할 수 있다. 화면(1300)에서 상기 인터페이스의 예시로 인터페이스(1305)이 도시되었다.
본 발명의 실시예에 따르면, 사용자로부터 터치 입력이 입력되면, 제어부(150)는 터치 입력을 하나의 점에 대한 입력으로 인식할 수 있다. 또한, 터치 입력에 이어 스크래치 터치 입력이 입력되면, 제어부(150)는 상기 스크래치 터치 입력을 상기 터치 입력에 의하여 인식된 점을 지나는 궤적으로 인식할 수 있다. 이 경우, 제어부(150)는 상기 점의 두께로 지나는 궤적으로 이루는 영역을 보안 상태 해제 영역으로 결정할 수 있다.
제어부(150)는 미리 설정된 두께로 상기 터치 입력에 의하여 인식된 점을 인식할 수 있다. 예를 들어, 사용자가 터치 인식 두께를 0.5 센치미터(cm)로 미리 설정한 경우, 스크래치 터치 입력이 수신되면, 제어부(150)는 0.5 센치미터의 두께로 보안 처리된 영역이 스크래치되도록 제어할 수 있다. 즉, 제어부(150)는 보안 처리된 영역이 0.5 센치미터의 두께로 스크래치 터치 입력의 궤적을 따라, 보안 해제되도록 제어할 수 있다.
사용자가 터치 인식 두께를 1.0 센치미터(cm)로 미리 설정한 경우, 제어부(150)는 보안 처리된 영역이 1.0 센치미터의 두께로 스크래치 터치 입력의 궤적을 따라, 보안 해제되도록 제어할 수 있다. 이 경우, 객체의 보안 처리된 영역에 대한 보안이, 터치 인식 두께가 0.5 센치미터로 설정된 경우보다 2배 두껍게 해제된다. 화면(1310)과 화면(1320)에서 각각 터치 인식 두께가 다른 경우, 보안 처리된 객체의 보안 해제 영역(1312, 1322)의 두께가 달라지는 경우가 예로써 도시되었다.
한편, 단계(S10)에서 사용자의 지문 인증을 위한 미리 설정된 지문 정보가 존재하지 않는 경우, 지문 정보 등록 과정에 대하여 도 14을 참조하여 설명한다. 도 14를 참조하면, 미리 설정된 지문 정보가 존재하지 않는 경우, 제어부(150)는 화면(1400)과 같이 지문 정보 등록의 필요를 사용자에게 알리기 위한 알림(1401)이 디스플레이되도록 제어할 수 있다. 또한, 제어부(150)는 지문 정보 등록을 위한 인터페이스가 디스플레이되도록 제어할 수 있다. 상기 인터페이스의 예로써 화면(1410)이 도시되었다.
화면(1410)은 사용자의 지문 등록을 위한 지문 정보 입력 영역(1412) 및 지문 등록을 위한 가이드 제공 영역(1413)을 포함할 수 있다. 사용자가 상기 영역(1412)에 지문 정보를 입력하면, 제어부(150)는 이를 수신하여, 사용자의 지문 정보를 등록할 수 있다.
사용자의 지문 정보가 등록되면, 제어부(150)는 이를 알리기 위한 알림이 디스플레이되도록 제어할 수 있다. 화면(1420)에서, 알림(1421)이 예로써 도시되었다. 단계(S10)에서 사용자로부터 지문 입력이 수신되면, 제어부(150)는 수신된 지문 입력이 상기 등록된 지문 정보에 매칭되는지 여부를 판단하여 상기 사용자의 지문을 인증할 수 있다.
단계(S30)에서 사용자의 얼굴 인증을 위한 미리 설정된 얼굴 정보가 존재하지 않는 경우, 얼굴 정보 등록 과정에 대하여 도 15를 참조하여 설명한다. 도 15를 참조하면, 미리 설정된 얼굴 정보가 존재하지 않는 경우, 제어부(150)는 화면(1500)과 같이 얼굴 정보 등록의 필요를 사용자에게 알리기 위한 알림(1501)이 디스플레이되도록 제어할 수 있다. 또한, 제어부(150)는 얼굴 정보 등록을 위한 인터페이스가 디스플레이되도록 제어할 수 있다. 상기 인터페이스의 예로써 사용자 단말(100) 상의 화면(1510)이 도시되었다.
화면(1510)은 카메라를 통해 입력된 사용자의 이미지(1511) 중, 사용자의 얼굴 등록을 위한 얼굴 정보 인식 영역(1512)을 포함할 수 있다. 또한, 화면(1510)은 얼굴 등록을 위하여 얼굴에 대한 촬영 가이드를 제공하는 영역(1513)을 포함할 수 있다. 화면(1510)에 도시된 상기 촬영 가이드는 예시에 불과하며, 얼굴 정보의 정확성 및 활용도를 높이기 위하여, 다양한 촬영 가이드가 제공될 수도 있다. 예를 들어, 상기 촬영 가이드는 좌우 측면 촬영 요청을 포함할 수도 있다.
사용자가 상기 영역(1512)에 얼굴 정보를 입력하면, 제어부(150)는 이를 수신하여, 사용자의 얼굴 정보를 등록할 수 있다.
사용자의 얼굴 정보가 등록되면, 제어부(150)는 이를 알리기 위한 알림이 디스플레이되도록 제어할 수 있다. 화면(1520)에서, 알림(1521)이 예로써 도시되었다. 단계(S30)에서 사용자로부터 얼굴 이미지가 입력되면, 제어부(150)는 입력된 얼굴 이미지가 상기 등록된 얼굴 정보에 매칭되는지 여부를 판단하여 상기 사용자의 얼굴을 인증할 수 있다.
도 16은 본 발명의 몇몇 실시예에서 참조되는 사용자에 의해 설정된 보안 처리 대상을 설명하기 위한 예시도이다. 본 발명의 또 다른 실시예에 따르면, 사용자는 보안 처리 대상을 설정할 수 있다. 예를 들어, 사용자가 보안 처리를 희망하는 객체가 특정 문서인 경우, 제어부(150)는 사용자 설정에 따라 특정 문서 자체를 보안 처리 대상으로 설정할 수 있다. 또한, 제어부(150)는 사용자 설정에 따라 특정 문서가 속하는 파일을 전부 보안 처리 대상으로 설정할 수도 있다. 이 경우, 동일한 확장자 명을 가지는 파일은 모두 보안 처리 대상으로 설정된다.
도 16을 참조하면, 제어부(150)는 보안 처리 대상에 대한 사용자 설정을 입력 받기 위한 인터페이스를 디스플레이할 수 있다. 화면(1600)에서 인터페이스(1610)이 예로써 이 도시되었다. 보안 처리 대상으로 동영상이 설정된 경우, 제어부(150)는 특정 동영상의 재생 시에, 재생 동영상이 보안 처리되도록 제어할 수 있다. 이에 대한, 예시가 화면(1620)에 도시되었다.
사용자의 지문 인증(S10) 및 얼굴 인증(S30) 완료된 경우에, 제어부(150)는 사용자에 의해 보안 처리 대상으로 설정된 동영상(1625)이, 보안 처리된 화면(1620)과 같이 디스플레이되도록 제어할 수 있다. 즉, 이 경우, 사용자의 터치 입력이 감지되면, 제어부(150)는 상기 터치 입력이 감지된 영역이 보안 해제된 상태로 디스플레이되도록 제어할 수 있다. 또는, 제어부(150)는 사용자의 3점 터치 입력이 감지되면, 전체 동영상이 보안 해제된 상태로 디스플레이되도록 제어할 수도 있다.
다만, 이 경우에도, 사용자의 동영상 시청 중에 사용자의 얼굴 인증이 실패하는 등의 보안 이벤트 발생 시, 제어부 (150)는 동영상(1625)가 다시 보안 처리되어 디스플레이되도록 제어할 수 있다.
또한, 본 발명의 몇몇 실시예에서 참조되는 보안 처리 대상은, 객체에 대한 보안 처리 수행자에 의해 결정될 수 도 있다. 예를 들어, 사용자 단말(100)을 통해 보안 처리된 문서가 수신된 경우를 가정한다. 상기 문서는 문서 송신자 또는 문서 작성자에 의해 보안 처리되었을 수 있다. 즉, 특정 상대방이 보안 처리한 객체를 수신하면, 사용자 단말(100)은 이를 보안 처리된 객체로 인식할 수 있다. 이 경우, 보안 처리된 객체의 파일은 보안 처리된 문서임을 식별하기 위한 헤더 영역을 포함한다. 따라서, 제어부(150)는 사용자로부터 선택된 객체의 파일을 기초로 객체가 보안 처리되어 있는지 판단할 수 있다. 객체가 보안 처리되어 있는 것으로 판단되면, 사용자 단말(100)은 상기 단계(S10)에서 단계(S70)까지 과정을 수행한다.
상기에서, 사용자 인증 방식으로 사용자의 지문 인증(S10) 및 얼굴 인증(S20)이 보안 등급에 무관하게 이용되는 경우에 대하여 설명하였다. 본 발명의 또 다른 실시예에 따르면, 사용자 인증 방식이 객체에 대한 보안 등급에 따라 다른 보안 상태 해제 방법이 제공된다. 도 17은 본 발명의 또 다른 실시예에 따른 보안 등급 별로 보안 처리된 객체에 대한 보안 해제 방법의 순서도이다.
도 17을 참조하면, 제어부(150)는 보안 처리된 객체에 대한 접근 방식을 판단할 수 있다(S1701). 제어부(150)는 객체에 설정된 보안 등급을 식별하여, 객체에 대한 접근 방식을 판단할 수 있다. 또는, 객체 설정된 접근 방식이 존재하는 경우, 제어부(150)는 접근 방식 자체를 식별할 수도 있다.
객체의 보안 등급에 따라 접근 방식이 다르게 설정되어 있는 경우를 가정한다. 예를 들어, 객체의 보안 등급이 높은 경우, 도 2에서 설명한 단계(S50)과 같이 보안 처리된 객체를 디스플레이하기 위하여, 사용자 단말(100)은 사용자에게 상술한 사용자의 지문 인증(S10) 및 얼굴 인증(S30)을 모두 수행할 것을 요구할 수 있다. 이 경우, 제어부(150)는 상기 지문 인증(S10) 및 얼굴 인증(S30)을 위한 인터페이스가 순차적으로 디스플레이되도록 제어할 수 있다. 즉, 사용자가 지문 인증에 성공한 경우, 제어부(150)는 얼굴 인증을 위한 인터페이스를 사용자에게 제공할 수 있다. 또는 상술한 바와 같이, 제어부(150)는 상기 얼굴 인증(S30)에 대한 인터페이스를 지문 인증(S10)에 앞서 제공할 수도 있다.
반면, 객체의 보안 등급이 낮은 경우, 제어부(150)는 상기 얼굴 인증(S30) 및 지문 인증(S10) 중 어느 하나만을 접근 방식으로 판단할 수 있다. 또는, 객체에 대한 보안 설정 수행자가 지정한 접근 방식이 존재하는 경우, 제어부(150)는 사용자에게 상기 접근 방식에 관한 인터페이스만을 제공할 수 도 있다.
제어부(150)는 상기 판단된 접근 방식이 수행됨에 따라, 보안 처리된 객체를 디스플레이할 수 있다(S1702). 보안 처리된 객체의 보안 처리를 해제하기 위한 터치 입력이 수신되면(S1703), 제어부(150)는 터치 입력이 감지됨에 따라, 상기 터치 입력이 감지된 영역 보안 해제된 상태로 디스플레이되도록 제어할 수 있다(S1704).
한편, 객체의 보안 등급이 매우 낮은 경우, 제어부(150)는 지문 인증 또는 얼굴 인증과 같은 접근 방식 없이 보안 처리된 객체를 디스플레이할 수도 있다. 이 경우, 객체에 대한 보안 상태는 사용자의 터치 입력 여부에 의하여만 유지된다.
지금까지, 적어도 하나의 사용자 인증 방식을 통해 보안 처리된 객체에 접근한 후, 사용자의 터치 입력을 수신하여 객체에 대한 보안을 해제하는 방법을 위주로 설명하였다. 상기 사용자 인증 방식을 위하여, 제어부(150)는 사용자 인증을 위한 인터페이스를 제공하였다. 본 발명의 또 다른 실시예에 따르면, 사용자 인증을 위한 별도의 인터페이스 제공 없이 보안 처리된 객체를 보안 해제하는 방법을 제공한다. 이를 위해, 상술한 바와 같이 디스플레이부(131)는 터치 센서 및 지문 인식 센서를 구비하여 구성될 수도 있다. 사용자 인증을 위한 별도의 인터페이스 없이도 사용자 인증과 동시에 보안 해제를 위한 사용자 입력을 수신하는 방법을 도 18 및 도 19를 참조하여 설명한다.
도 18은 본 발명의 또 다른 실시예에 따른 지문 인증과 동시에 객체에 대한 보안을 해제하는 방법의 순서도이다. 또한, 도 19는 도 19의 방법을 설명하기 위한 예시도이다.
도 18 및 도 19를 참조하면, 사용자가 도 4의 객체 리스트(411)에서 보안 처리된 객체를 선택한 경우, 제어부(150)는 보안 처리된 객체를 디스플레이할 수 있다(S1801). 도 19의 화면(610)에서 보안 처리된 객체의 예로써 보안 처리된 문서(611)가 도시되었다. 제어부(150)는 보안 처리된 문서(611)가 디스플레이된 디스플레이부(131) 상에 지문 인증을 위한 사용자의 터치 입력(1900)을 수신할 수 있다. 이때, 제어부(150) 상기 터치 입력이 입력된 영역(1910)을 감지할 수 있다. 제어부(150)는 영역(1910)에서 감지된 터치 입력을 기초로, 사용자의 지문 인증을 수행할 수 있다(S1802).
다음으로, 상기 지문 인증을 위한 터치 입력(1900)이 유지된 상태에서, 제어부(150)는 미리 설정된 시간 이내에, 상기 터치 입력에 연속하는 스크래치 터치 입력(1920)을 수신할 수 있다(S1803). 상기 스크래치 터치 입력(1920)은 객체에 대한 보안 상태를 해제하기 위한 터치 입력이다. 이때, 제어부(150)는 스크래치 터치 입력이 입력된 영역(1930)을 감지할 수 있다.
제어부(150)는 단계(S1802)에서 입력된 터치 입력을 기초로 지문을 인증한 결과 상기 사용자의 지문이 인증된 경우, 스크래치 터치 입력이 감지된 영역(1930)을 보안 해제된 상태로 디스플레이할 수 있다(S1804). 화면(1950)은 영역(1930)이 보안 해제된 상태(1970)로 디스플레이된 객체에 대한 예시이다.
상술한 바와 같이, 별도의 인증 인터페이스 없이 보안 설정된 객체의 보안을 해제하는 방법을 이용하면, 간편하게 객체에 대한 보안을 해제할 수 있다.
지금까지 첨부된 도면을 참조하여 설명된 본 발명의 실시예에 따른 방법들은 컴퓨터가 읽을 수 있는 코드로 구현된 컴퓨터프로그램의 실행에 의하여 수행될 수 있다. 상기 컴퓨터프로그램은 인터넷 등의 네트워크를 통하여 제1 컴퓨팅 장치로부터 제2 컴퓨팅 장치에 송신되어 상기 제2 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 제2 컴퓨팅 장치에서 사용될 수 있다. 상기 제1 컴퓨팅 장치 및 상기 제2 컴퓨팅 장치는, 서버 장치, 데스크탑 PC와 같은 고정식 컴퓨팅 장치, 노트북, 스마트폰, 태블릿 피씨와 같은 모바일 컴퓨팅 장치를 모두 포함한다.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다.

Claims (18)

  1. 사용자로부터 지문 입력을 수신하여 상기 사용자의 지문을 인증하는 단계;
    상기 사용자의 얼굴 이미지를 입력 받고 상기 사용자의 얼굴을 인증하는 단계;
    상기 사용자의 지문 및 얼굴이 인증된 경우, 보안 처리된 객체를 디스플레이하는 단계;
    상기 보안 처리된 객체의 보안 상태를 해제하기 위한 터치 입력을 수신하는 단계; 및
    상기 터치 입력으로 제1 터치 입력이 감지됨에 따라, 상기 제1 터치 입력이 감지된 영역을 보안 해제된 상태로 디스플레이하는 단계를 포함하는,
    보안 처리된 객체의 보안 상태 해제 방법.
  2. 제1 항에 있어서,
    상기 보안 해제된 상태로 디스플레이하는 단계는,
    미리 설정된 시간이 경과함에 따라, 상기 보안 해제된 상태로 디스플레이된 영역을, 다시 보안 처리된 상태로 디스플레이하는 단계를 포함하는,
    보안 처리된 객체의 보안 상태 해제 방법.
  3. 제 1 항에 있어서,
    상기 보안 해제된 상태로 디스플레이하는 단계는,
    상기 영역 외의 영역에 제1 터치 입력이 감지되는 동안, 상기 영역에 대하여 보안 해제된 상태를 유지하는 단계를 포함하는,
    보안 처리된 객체의 보안 상태 해제 방법.
  4. 제 1 항에 있어서,
    상기 제1 터치 입력은 디스플레이부 상에 행해지는 스크래치 터치 입력을 포함하는,
    보안 처리된 객체의 보안 상태 해제 방법.
  5. 제 1 항에 있어서,
    상기 보안 해제된 상태로 디스플레이하는 단계는,
    제2 터치 입력을 수신하는 단계; 및
    상기 제2 터치 입력이 감지됨에 따라, 상기 보안 처리된 객체를 스크롤하는 단계를 포함하는,
    보안 처리된 객체의 보안 상태 해제 방법.
  6. 제 1 항에 있어서,
    상기 보안 해제된 상태로 디스플레이하는 단계는,
    상기 터치 입력으로 제3 터치 입력이 감지됨에 따라,
    상기 보안 처리된 객체를 보안처리가 해제된 상태로 디스플레이하는 단계를 포함하는,
    보안 처리된 객체의 보안 상태 해제 방법.
  7. 제 1 항에 있어서,
    상기 보안 해제된 상태로 디스플레이하는 단계는,
    상기 영역이 보안 해제된 상태로 디스플레이되는 동안, 사용자의 얼굴 이미지를 입력 받는 단계;
    상기 입력된 얼굴 이미지가 상기 인증된 사용자의 얼굴에 매칭되는지 판단하는 단계; 및
    상기 판단 결과, 상기 얼굴 이미지가 상기 인증된 사용자의 얼굴에 매칭되지 않으면, 상기 영역을 보안 처리된 상태로 디스플레이하는 단계를 포함하는,
    보안 처리된 객체의 보안 상태 해제 방법.
  8. 제 7 항에 있어서,
    상기 영역을 보안 처리된 상태로 디스플레이하는 단계는,
    상기 판단 결과, 상기 입력된 얼굴 이미지가 상기 인증된 사용자의 얼굴 외에 다른 사용자의 얼굴 이미지를 포함하는 경우,
    상기 영역을 보안 처리된 상태로 디스플레이하는 단계를 포함하는,
    보안 처리된 객체의 보안 상태 해제 방법.
  9. 제 7 항에 있어서,
    상기 영역을 보안 처리된 상태로 디스플레이하는 단계는,
    상기 영역 외의 다른 영역에 상기 입력된 얼굴 이미지를 디스플레이하는 단계를 포함하는,
    보안 처리된 객체의 보안 상태 해제 방법.
  10. 제 1 항에 있어서,
    상기 보안 해제된 상태로 디스플레이하는 단계는,
    상기 영역에 대하여, 상기 수신된 제1 터치 입력의 궤적을 따라 미리 설정된 두께으로 보안 상태를 해제하여 디스플레이하는 단계를 포함하는,
    보안 처리된 객체의 보안 상태 해제 방법.
  11. 제 1 항에 있어서,
    상기 사용자의 지문을 인증하는 단계는,
    지문 인증을 위한 미리 설정된 지문 정보가 존재하지 않는 경우, 지문 정보 등록을 위한 인터페이스를 디스플레이하는 단계;
    상기 인터페이스를 통해, 상기 사용자로부터 지문 정보를 입력 받는 단계;
    상기 입력된 지문 정보를 등록하는 단계; 및
    상기 수신된 지문 입력이 상기 등록된 지문 정보에 매칭되는지 여부를 판단하여 상기 사용자의 지문을 인증하는 단계를 포함하는,
    보안 처리된 객체의 보안 상태 해제 방법.
  12. 제 1 항에 있어서,
    상기 사용자의 얼굴을 인증하는 단계는,
    얼굴 인증을 위한 미리 설정된 얼굴 정보가 존재하지 않는 경우, 얼굴 정보 등록을 위하여 상기 사용자의 얼굴 정보를 입력 받는 단계;
    상기 입력된 얼굴 정보를 등록하는 단계; 및
    상시 입력된 얼굴 이미지가 상기 사용자의 얼굴 정보에 매칭되는지 여부를 판단하여 상기 사용자의 얼굴을 인증하는 단계를 포함하는,
    보안 처리된 객체의 보안 상태 해제 방법.
  13. 제 1 항에 있어서,
    상기 보안 처리된 객체는, 상기 사용자에 의하여 보안 처리 대상으로 설정된 객체를 포함하는,
    보안 처리된 객체의 보안 상태 해제 방법.
  14. 제 1 항에 있어서,
    상기 보안 처리된 객체는, 보안 처리 설정자에 의해 보안 처리된 객체를 포함하되,
    상기 객체의 파일은 보안 처리된 문서임을 식별하기 위한 헤더 영역을 포함하는,
    보안 처리된 객체의 보안 상태 해제 방법.
  15. 사용자로부터 지문 입력을 수신하여 상기 사용자를 인증하는 단계;
    상기 사용자가 인증된 경우, 보안 처리된 객체를 디스플레이하는 단계;
    상기 보안 처리된 객체의 보안 상태를 해제하기 위한 터치 입력을 수신하는 단계; 및
    상기 터치 입력이 감지됨에 따라, 상기 터치 입력이 감지된 영역을 보안 해제된 상태로 디스플레이하는 단계를 포함하되,
    상기 보안 해제된 상태로 디스플레이하는 단계는,
    상기 영역에 대하여, 상기 수신된 터치 입력의 궤적을 따라 미리 설정된 두께로 보안 상태를 해제하여 디스플레이하는 단계를 포함하는,
    보안 처리된 객체의 보안 상태 해제 방법.
  16. 보안 처리된 객체에 대한 접근 방식을 판단하는 단계;
    상기 판단된 접근 방식이 수행됨에 따라, 보안 처리된 객체를 디스플레이하는 단계;
    상기 보안 처리된 객체의 보안 처리를 해제하기 위한 터치 입력을 수신하는 단계; 및
    상기 터치 입력이 감지됨에 따라, 상기 터치 입력이 감지된 영역을 보안 해제된 상태로 디스플레이하는 단계를 포함하는,
    보안 처리된 객체의 보안 상태 해제 방법.
  17. 제 16 항에 있어서,
    상기 판단된 접근 방식은 상기 사용자의 지문 인증 및 상기 사용자의 얼굴 인증 방식 중, 적어도 하나를 포함하고,
    상기 접근 방식을 판단하는 단계는,
    상기 적어도 하나의 인증 방식을 수행하기 위한 인터페이스를 제공하는 단계; 및
    사용자 입력을 수신하여, 상기 적어도 하나의 인증 방식에 따른 인증을 수행하는 단계를 포함하는,
    보안 처리된 객체의 보안 상태 해제 방법.
  18. 보안 처리된 객체를 디스플레이하는 단계;
    사용자로부터 지문 인증을 위한 터치 입력을 수신하여 상기 사용자의 지문을 인증하는 단계;
    상기 지문 인증을 위한 터치 입력이 유지된 상태에서, 미리 설정된 시간 이내에, 상기 터치 입력에 연속하는 상기 보안 상태를 해제하기 위한 스크래치 터치 입력을 수신하는 단계; 및
    상기 인증 결과 상기 사용자의 지문이 인증된 경우, 상기 스크래치 터치 입력이 감지된 영역을 보안 해제된 상태로 디스플레이하는 단계를 포함하는,
    보안 처리된 객체의 보안 상태 해제 방법.
PCT/KR2016/010492 2015-10-20 2016-09-21 보안 처리된 객체의 보안 상태 해제 방법 및 그 장치 WO2017069411A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2015-0146084 2015-10-20
KR1020150146084A KR101778008B1 (ko) 2015-10-20 2015-10-20 보안 처리된 객체의 보안 상태 해제 방법 및 그 장치

Publications (1)

Publication Number Publication Date
WO2017069411A1 true WO2017069411A1 (ko) 2017-04-27

Family

ID=58557616

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/010492 WO2017069411A1 (ko) 2015-10-20 2016-09-21 보안 처리된 객체의 보안 상태 해제 방법 및 그 장치

Country Status (2)

Country Link
KR (1) KR101778008B1 (ko)
WO (1) WO2017069411A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102406099B1 (ko) 2017-07-13 2022-06-10 삼성전자주식회사 전자 장치 및 이의 정보 표시
KR101882281B1 (ko) 2017-09-15 2018-08-24 엘지전자 주식회사 디지털 디바이스 및 그의 생체 인증 방법
CN108881625B (zh) * 2018-05-31 2020-09-29 北京小米移动软件有限公司 终端设备以及感测方法和装置
KR20220064765A (ko) * 2020-11-12 2022-05-19 삼성전자주식회사 사용자 인증을 위한 방법 및 그 전자 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060107261A (ko) * 2005-04-08 2006-10-13 인천대학교 산학협력단 문서관리 시스템
JP2006302199A (ja) * 2005-04-25 2006-11-02 Hitachi Ltd 部分的にウィンドウをロックする情報処理装置およびこの情報処理装置を動作させるプログラム
US20110061092A1 (en) * 2009-09-08 2011-03-10 Timothee Bailloeul Method for applying a physical seal authorization to documents in electronic workflows
KR101314514B1 (ko) * 2011-09-29 2013-11-21 이청종 보안이 강화된 클라우드 시스템 및 그에 의한 보안 관리 방법
KR20140124499A (ko) * 2013-04-17 2014-10-27 삼성전자주식회사 터치 디바이스의 문서 처리 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060107261A (ko) * 2005-04-08 2006-10-13 인천대학교 산학협력단 문서관리 시스템
JP2006302199A (ja) * 2005-04-25 2006-11-02 Hitachi Ltd 部分的にウィンドウをロックする情報処理装置およびこの情報処理装置を動作させるプログラム
US20110061092A1 (en) * 2009-09-08 2011-03-10 Timothee Bailloeul Method for applying a physical seal authorization to documents in electronic workflows
KR101314514B1 (ko) * 2011-09-29 2013-11-21 이청종 보안이 강화된 클라우드 시스템 및 그에 의한 보안 관리 방법
KR20140124499A (ko) * 2013-04-17 2014-10-27 삼성전자주식회사 터치 디바이스의 문서 처리 방법 및 장치

Also Published As

Publication number Publication date
KR20170045944A (ko) 2017-04-28
KR101778008B1 (ko) 2017-09-13

Similar Documents

Publication Publication Date Title
WO2017069411A1 (ko) 보안 처리된 객체의 보안 상태 해제 방법 및 그 장치
WO2015012441A1 (en) Digital device and control method thereof
WO2019144738A1 (zh) 金融业务的验证方法、装置、设备和计算机存储介质
WO2015037931A1 (en) Method and apparatus for online signature verification using proximity touch
WO2015064925A1 (ko) 패턴 입력 장치 및 방법과 이를 이용한 기록 매체
WO2014069882A1 (en) Method and apparatus for processing webpage in terminal device by using cloud server
WO2017039287A1 (ko) 세그먼트 기반 수기서명 인증 시스템 및 방법
US11004163B2 (en) Terminal-implemented method, server-implemented method and terminal for acquiring certification document
WO2014042476A1 (ko) 지문을 이용한 파일 관리 방법, 사용자 단말기 및 기록 매체
WO2017065576A1 (ko) 가변 키패드를 이용한 본인 인증 방법 및 시스템
EP3507734A1 (en) Method and electronic device for providing multi-level security
US10863056B2 (en) Login support system that supports login to electronic apparatus
WO2023128345A1 (ko) 동형 암호화된 이미지를 이용한 개인 식별 방법 및 시스템
WO2012074275A2 (ko) 인터넷 보안을 위한 본인인증 장치, 그 방법 및 이를 기록한 기록매체
WO2019164079A1 (ko) 생체 인증과 관련된 객체의 표시에 따라 생체 인증을 수행하는 방법 및 이를 위한 전자 장치
WO2021137620A1 (ko) 증강 수기 서명 인증 방법 및 이를 지원하는 전자 장치
WO2016093652A2 (ko) 전화번호를 통하여 클라우드 서버에 접속하여 가족 앨범을 이용할 수 있도록 하는 가족 앨범서비스 제공방법
WO2015020465A1 (en) Portable terminal, method of providing fingerprint input guide information of portable terminal, and nonvolatile recording medium for recording program for executing the method
WO2023128341A1 (ko) 동형 암호화된 데이터를 이용한 부정 거래 탐지 방법 및 시스템
WO2017052277A1 (ko) 가변키패드를 이용한 본인 인증 방법 및 시스템
WO2018084503A1 (ko) 사용자의 키보드 및 마우스 입력 행위 패턴을 이용한 인증 방법 및 그 방법을 구현하는 프로그램을 기록한 기록매체
WO2018124671A1 (en) Electronic device and operation method thereof
WO2018062594A1 (ko) 이동 단말기 및 그 제어방법
WO2019041183A1 (zh) 一种移动终端防窥屏方法、移动终端及存储介质
WO2019047022A1 (zh) Wifi共享方法、移动终端及计算机可读存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16857669

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16857669

Country of ref document: EP

Kind code of ref document: A1