WO2018173932A1 - 認証制御装置、認証制御方法、認証方法及び記憶媒体 - Google Patents

認証制御装置、認証制御方法、認証方法及び記憶媒体 Download PDF

Info

Publication number
WO2018173932A1
WO2018173932A1 PCT/JP2018/010311 JP2018010311W WO2018173932A1 WO 2018173932 A1 WO2018173932 A1 WO 2018173932A1 JP 2018010311 W JP2018010311 W JP 2018010311W WO 2018173932 A1 WO2018173932 A1 WO 2018173932A1
Authority
WO
WIPO (PCT)
Prior art keywords
authentication
positions
input
characters
image
Prior art date
Application number
PCT/JP2018/010311
Other languages
English (en)
French (fr)
Inventor
崇 秋保
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US16/490,945 priority Critical patent/US11526594B2/en
Priority to JP2019507619A priority patent/JP6729792B2/ja
Publication of WO2018173932A1 publication Critical patent/WO2018173932A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/36User authentication by graphic or iconic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2133Verifying human interaction, e.g., Captcha
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Definitions

  • This disclosure relates to an authentication control device and the like.
  • the authentication technique includes a technique for discriminating whether a certain access request is made by a human, like the techniques described in Patent Documents 2 and 3.
  • An example of such a technique is CAPTCHA (Completely Automated Automated Public Testing Tour to Tell Computers and Humans Apart.
  • CAPTCHA the character string is deformed and processed so that the machine cannot recognize it.
  • it is necessary to make it difficult to read a character string.
  • the interpretation of the character string is too difficult, it will also be difficult for humans to judge, which will hinder the use of legitimate users and impair convenience.
  • An exemplary object of the present disclosure is to provide an authentication technology that achieves both ease of use by humans and good accuracy in determining human input.
  • a receiving unit that receives an input that is included in an authentication image that causes a viewer to perceive depth and that is associated with one or more positions among a plurality of positions having different apparent depths, and based on the input
  • an authentication control apparatus includes a determination unit that determines whether the input is from a human.
  • an input corresponding to one or more positions among a plurality of positions that are included in an authentication image that allows a viewer to perceive depth and has different depths is received, and the input is based on the input by a human
  • An authentication control method is provided for determining whether or not.
  • an authentication image that causes a viewer to perceive depth is displayed, and an input corresponding to one or more positions among a plurality of positions included in the authentication image and having different depths is received, and based on the input
  • an authentication method for determining whether or not the input is by a human is provided.
  • a process of accepting an input corresponding to one or more positions among a plurality of positions included in an image that causes a viewer to perceive depth and having different depths, and based on the input There is provided a program for executing a process of determining whether an input is from a human.
  • a storage medium storing the above-described program may be provided.
  • FIG. 1 is a block diagram illustrating an example of the configuration of the authentication control apparatus.
  • FIG. 2 is a flowchart illustrating an example of the operation of the authentication control apparatus.
  • FIG. 3 shows an example of the authentication image.
  • FIG. 4 is a block diagram illustrating an example of the configuration of the authentication system.
  • FIG. 5 is a flowchart illustrating an example of the operation of the server apparatus.
  • FIG. 6 shows an example of the base image.
  • FIG. 7A shows an example of the authentication screen.
  • FIG. 7B shows another example of the authentication screen.
  • FIG. 8 shows still another example of the authentication screen.
  • FIG. 9 shows still another example of the authentication screen.
  • FIG. 10 shows still another example of the authentication screen.
  • FIG. 11 is a block diagram illustrating an example of a hardware configuration of the computer apparatus.
  • FIG. 1 is a block diagram illustrating a configuration of an authentication control apparatus 100 according to an embodiment.
  • the authentication control device 100 includes a reception unit 110 and a determination unit 120.
  • the authentication control apparatus 100 may further include other configurations as necessary.
  • Authentication here refers to confirming the legitimacy of the subject. From a certain point of view, the validity in the present embodiment can be said to mean that the responder (that is, the subject of input) is not a computer but a human. According to this viewpoint, it can be said that the authentication control apparatus 100 is a computer apparatus for determining whether an input is made by a human. However, even if the input is a human input, the authentication control apparatus 100 determines that the input is incorrect if there is an error in the input.
  • the authentication control device 100 does not need to be integrated with the input device.
  • the authentication control apparatus 100 may be configured to execute other authentication (for example, password authentication) using a known technique.
  • the accepting unit 110 accepts input by the responder.
  • the responder here includes a human and a computer such as a robot.
  • the reception unit 110 receives input via an input device such as a keyboard and a mouse.
  • the accepting unit 110 accepts an input based on an authentication image.
  • the authentication image is an image used for authentication.
  • the authentication image includes at least an image that allows the viewer to perceive depth.
  • the authentication image can be said to be an image having a sense of depth and an image having a sense of perspective.
  • the authentication image may be a so-called natural image (photo or the like) taken by a digital camera or the like, or may be a graphic image (line drawing or computer graphics image) generated using drawing software.
  • the accepting unit 110 accepts an input associated with one or more positions among a plurality of positions included in the authentication image.
  • this input represents the specific location of the authentication image itself.
  • this input may represent one or a plurality of characters (hereinafter also referred to as “character string”) displayed at a specific position of the authentication image.
  • the characters here may include all characters and symbols that can be input via the input device. That is, the character that is an input target in the present embodiment is not limited to a narrow character such as an alphabet. For example, symbols that can be described using a predetermined character code such as ASCII (American Standard Code for Information Interchange) can also be included in the characters here. However, characters that may be misread or input incorrectly, such as characters similar to other characters, may be excluded from the input target.
  • ASCII American Standard Code for Information Interchange
  • the determining unit 120 determines whether the input received by the receiving unit 110 is valid. In other words, the determination unit 120 determines whether the input received by the reception unit 110 is from a human. The determination unit 120 performs this determination based on the input received by the reception unit 110. More specifically, the determination unit 120 determines the validity of the input by determining whether the input received by the reception unit 110 satisfies a predetermined condition.
  • the predetermined condition here is determined in advance based on the authentication image.
  • the determination unit 120 may determine that the input is valid when the input received by the reception unit 110 is an input corresponding to a predetermined position of the authentication image.
  • the determination unit 120 may determine that the input is valid when the input received by the reception unit 110 represents a character string including characters displayed at a predetermined position of the authentication image.
  • FIG. 2 is a flowchart showing the operation of the authentication control apparatus 100.
  • the reception unit 110 receives an input using an authentication image.
  • the determination unit 120 determines whether the input is by a person based on the input received in step S11. In other words, the determination unit 120 determines whether the responder to the authentication using the authentication image is a human or a computer. More specifically, the determination unit 120 determines whether the input is a human being by determining whether the apparent depth corresponding to the input received in step S11 is a predetermined depth.
  • FIG. 3 shows an example of an authentication image.
  • the authentication image 130 is superimposed on the image 131 and an image 131 imitating the inside of a box having a rectangular bottom surface (one surface) and side surfaces (four surfaces) perpendicular to each side of the bottom surface.
  • displayed characters 132 to 137 displayed characters 132 to 137.
  • the bottom surface portion of the image 131 is perceived as being deeper than the side surface portion as viewed from the viewer.
  • Characters 132 to 137 are displayed at either the bottom or side portion of the image 131.
  • the display positions (display positions) of the characters 132 to 137 include those having different apparent depths.
  • the characters 132, 133, and 134 are displayed on the bottom surface portion, and the characters 135, 136, and 137 are displayed on the side surface portion.
  • the apparent depths of the characters 132 to 137 do not have to be all different, and some characters (for example, the characters 132, 133, and 134) may be the same.
  • authentication is performed by the responder inputting a character displayed at a specific position of the authentication image 130.
  • the responder is requested to input characters displayed on the bottom portion of the image 131, that is, characters 132, 133, and 134.
  • the responder inputs at least one of the characters 132, 133, and 134.
  • the responder may be required to enter the characters 132, 133, 134 in a predetermined order (eg, “1A2”).
  • the determination unit 120 determines that the input is by a human.
  • the authentication control apparatus 100 has a configuration for determining whether an input is made by a person using an authentication image that allows a viewer (ie, a person) to perceive depth. That is, it can be said that the authentication control apparatus 100 determines whether the input is from a human by using the human perception ability.
  • the person when the human sees the authentication image 130, the person can easily specify which part the “back face” is in based on the human depth perception ability (if it is the bottom face part).
  • the machine usually cannot recognize where the “inner side” of the authentication image 130 is. Therefore, it is possible to easily determine whether the responder is a human or a machine by requesting the responder to input depending on depth perception using such an authentication image. Such input is easy for humans but not easy for machines.
  • this embodiment has an effect that it is possible to achieve both ease of use by humans and good accuracy in determining human input.
  • FIG. 4 is a block diagram illustrating a configuration of an authentication system 200 according to another embodiment.
  • the authentication system 200 includes a client device 210 and a server device 220.
  • the client device 210 and the server device 220 are connected to each other via a network such as the Internet, for example.
  • the authentication system 200 may include a plurality of client devices 210.
  • the client device 210 is a computer device used by a user.
  • the client device 210 may be a personal computer or a mobile communication terminal such as a smartphone. More specifically, the client device 210 includes a control unit 211, a display unit 212, and an input unit 213.
  • the client device 210 may further include other configurations such as a microphone, a speaker, and a vibrator.
  • the control unit 211 controls the exchange of data inside and outside the client device 210.
  • the control unit 211 supplies the data transmitted from the server device 220 to the display unit 212 or the input unit 213, and transmits the data supplied from the input unit 213 to the server device 220.
  • Display unit 212 displays an image.
  • the display unit 212 displays a predetermined screen including an authentication screen according to the screen data supplied from the control unit 211.
  • the display unit 212 changes the display screen according to a user operation.
  • the authentication screen of the present embodiment corresponds to an example of the authentication image of the first embodiment.
  • the input unit 213 receives input from the user.
  • the input unit 213 includes input devices such as a mouse and a keyboard, for example.
  • the input unit 213 may include a so-called touch screen display, that is, an input device provided integrally with the display unit 212.
  • the input here may include not only input by fingers but also voice input.
  • the input unit 213 supplies data indicating user input (hereinafter also referred to as “input data”) to the control unit 211.
  • the server device 220 authenticates the user and executes a predetermined process according to the authentication result.
  • the server device 220 corresponds to an example of the authentication control device 100 of the first embodiment. More specifically, the server device 220 includes a control unit 221, a screen generation unit 222, an image database 223, a data reception unit 224, an authentication determination unit 225, and a process execution unit 226.
  • the control unit 221 controls data exchange inside and outside the server device 220. For example, the control unit 221 supplies the input data transmitted from the client device 210 to the data reception unit 224. In addition, the control unit 221 transmits the screen data generated by the screen generation unit 222 to the client device 210.
  • the screen generation unit 222 generates screen data indicating the authentication screen.
  • the screen generation unit 222 generates screen data using the base image recorded in the image database 223.
  • the screen generation unit 222 supplies the generated screen data to the control unit 221.
  • the image database 223 records image data indicating a base image as a template.
  • the base image here is an image that is the basis of the authentication screen.
  • a plurality of base images are registered in the image database 223.
  • the image database 223 supplies the image data to the screen generation unit 222 when generating the screen data indicating the authentication screen.
  • the image database 223 may be configured as a device different from the server device 220.
  • the data receiving unit 224 receives input data supplied from the control unit 221.
  • the data reception unit 224 supplies the input data input according to the authentication screen to the authentication determination unit 225.
  • the data reception unit 224 corresponds to an example of the reception unit 110 of the first embodiment.
  • the authentication discrimination unit 225 executes user authentication based on the input data supplied from the data reception unit 224.
  • the user authentication of this embodiment includes determining whether or not the user, that is, the sender of input data is a human. However, the user authentication of this embodiment may be combined with other authentication such as password authentication and biometric authentication.
  • the process execution unit 226 executes a process according to the determination result by the authentication determination unit 225. In some cases, the process execution unit 226 executes a process for notifying the client device 210 whether the user authentication has succeeded or failed. Alternatively, the process execution unit 226 may execute a predetermined application program (so-called Web application or the like) after user authentication, and notify the authentication result to another device.
  • a predetermined application program so-called Web application or the like
  • the configuration of the authentication system 200 is as described above.
  • the user uses a predetermined service using the client device 210.
  • the client device 210 requests access to the service and transmits input data corresponding to the authentication screen to the server device 220.
  • the server device 220 executes the following processing with the client device 210.
  • FIG. 5 is a flowchart showing the operation of the server apparatus 220.
  • the data receiving unit 224 receives a request for access to a service.
  • the client device 210 requests access to a service when a predetermined operation is received from the user.
  • the predetermined operation here is, for example, an operation of starting a specific application program or an operation of accessing a resource specified by a specific URL (Uniform Resource Locator).
  • the screen generation unit 222 executes steps S22 and S23 in response to the access request.
  • step S ⁇ b> 22 the screen generation unit 222 acquires one of a plurality of base images recorded in the image database 223.
  • step S23 the screen generation unit 222 generates screen data indicating the authentication screen based on the base image acquired in step S22.
  • the control unit 221 transmits the screen data generated by the screen generation unit 222 to the client device 210.
  • FIG. 6 shows an example of the base image.
  • the base image 230 is an image that makes a viewer perceive depth.
  • the base image 230 is, for example, an image obtained by removing characters 132 to 137 from the authentication image 130 of FIG.
  • the authentication screen includes an image obtained by superimposing a plurality of characters on such a base image.
  • the characters superimposed on the base image include a character string for authentication and a dummy character string.
  • the character string for authentication is a character string that is correct in user authentication.
  • the dummy character string is a character string that is incorrect in user authentication. The user succeeds in user authentication when inputting a character string for authentication, but fails in user authentication when inputting a dummy character string.
  • the display position of these character strings may be set in advance in the base image. More specifically, the display position of the authentication character string and the display position of the dummy character string may be set in the base image. The display position of the character string may be different for each base image. However, the character string for authentication and the dummy character string do not need to be determined in advance, and may be different each time (that is, every time screen data is generated).
  • the base image may include coordinate information indicating the visual depth of each coordinate in addition to the coordinates (two-dimensional) on the plane.
  • the coordinate information here is, for example, information of a three-dimensional orthogonal coordinate system in which coordinates on a plane are represented by x and y components and depth is represented by a z component. In this way, the screen generator 222 can recognize the depth of the base image.
  • the screen generation unit 222 may randomly determine the size of characters to be superimposed on the base image. “Random” here is not limited to having no regularity. For example, the screen generation unit 222 may determine the character size based on a pseudo random number. Or the screen generation part 222 may determine the size of the character superimposed on a base image so that it may not have a correlation with the depth of the display position of each character. This makes it difficult to estimate the depth of the character from the size of the character.
  • FIG. 7A and 7B show an example of an authentication screen displayed based on the base image 230 of FIG.
  • the authentication character string is “5FZ”.
  • the dummy character strings are “9”, “G”, and “Q”.
  • the authentication character string is “S”.
  • the character string for authentication is specified based on the question text displayed on the authentication screen 241 and the authentication screen 242, that is, the input rule. For example, in the example of FIG. 7A, the user is requested to input a character string displayed at the back of the base image 230. On the other hand, in the example of FIG. 7B, the user is requested to input a character string displayed on the front side of the base image 230. Note that these input rules may be determined in advance, but may be determined (that is, variable) by the screen generation unit 222.
  • the client device 210 When the client device 210 receives the screen data indicating the authentication screen from the server device 220, the client device 210 displays the authentication screen. The client device 210 prompts the user to input a character string for authentication by displaying an authentication screen. When the client apparatus 210 receives an input corresponding to the authentication screen, the client apparatus 210 transmits input data indicating the input to the server apparatus 220.
  • step S24 the data receiving unit 224 receives input data transmitted from the client device 210 corresponding to the authentication screen.
  • this input data indicates a character string for authentication.
  • step S25 the authentication discrimination
  • step S26 If these character strings match (S25: YES), that is, if the user authentication is successful, the process execution unit 226 executes step S26. On the other hand, when these character strings do not match (S25: NO), that is, when user authentication fails, the screen generation unit 222 executes steps S22 and S23 to generate screen data again. At this time, the screen generation unit 222 may use a base image different from the base image used last time, but may change the authentication character string without changing the base image.
  • step S26 the process execution unit 226 executes a predetermined process.
  • the process execution unit 226 may notify the client device 210 that the user authentication is successful.
  • the process execution unit 226 may execute a process for executing a service requested from the client device 210.
  • the client device 210 may notify the user of success or failure of user authentication by sound or vibration.
  • the authentication system 200 of the present embodiment has a configuration for determining whether an input is made by a human using an authentication screen that allows a viewer to perceive depth. That is, the authentication system 200 has a configuration common to the authentication control apparatus 100 of the first embodiment. Therefore, the authentication system 200 can achieve the same effect as the authentication control apparatus 100.
  • the authentication system 200 has a configuration for executing user authentication using an authentication screen in which a base image and a plurality of characters are superimposed.
  • This configuration makes it possible to generate an authentication screen by a combination of images and characters. Therefore, according to such a configuration, it is possible to easily generate a large number of authentication screens, for example, compared to a case where an authentication screen using CAPTCHA is generated. Moreover, according to such a structure, it is not necessary to change a character like CAPTCHA.
  • FIGS. 8 to 10 show other examples of the authentication screen.
  • the authentication screen 310 of FIG. 8 includes an authentication image that displays a polyhedron (here, a rectangular parallelepiped) and allows a character string displayed on a specific surface of the polyhedron to be input.
  • the character strings for authentication are “FTY”, “4R”, and “82ER”. Note that the number of polyhedra displayed on the authentication screen may be one.
  • the authentication screen 320 in FIG. 9 includes an authentication image that expresses unevenness by shading and allows a specific area (a portion perceived to be on the near side here) to be selected based on the unevenness.
  • the selection here may be an operation of clicking with a mouse or an operation of tapping a touch screen display.
  • the authentication screen 330 in FIG. 10 displays points (here, black dots) at a plurality of positions having different apparent depths, and a specific point (here, perceived as being the deepest). Authentication image that allows the user to select a point). As shown in the examples of FIGS. 9 and 10, the authentication image does not necessarily include characters. In this way, user authentication that does not depend on the ability to identify characters can be realized.
  • the specific hardware configuration of the devices according to the present disclosure includes various variations and is not limited to a specific configuration.
  • the apparatus according to the present disclosure may be realized using software, and may be configured to share various processes using a plurality of hardware.
  • FIG. 11 is a block diagram illustrating an example of a hardware configuration of a computer apparatus 400 that implements an apparatus according to the present disclosure.
  • the computer device 400 includes a CPU (Central Processing Unit) 401, a ROM (Read Only Memory) 402, a RAM (Random Access Memory) 403, a storage device 404, a drive device 405, a communication interface 406, and an input / output interface. 407.
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the CPU 401 executes the program 408 using the RAM 403.
  • the communication interface 406 exchanges data with an external device via the network 410.
  • the input / output interface 407 exchanges data with peripheral devices (such as an input device and a display device).
  • the communication interface 406 and the input / output interface 407 can function as components for acquiring or outputting data.
  • the program 408 may be stored in the ROM 402.
  • the program 408 may be recorded on a storage medium 409 such as a memory card and read by the drive device 405, or may be transmitted from the external device via the network 410.
  • the apparatus according to the present disclosure can be realized by the configuration (or part thereof) shown in FIG.
  • the reception unit 110 and the determination unit 120 correspond to the CPU 401, the ROM 402, and the RAM 403.
  • the control unit 221, the screen generation unit 222, the data reception unit 224, the authentication determination unit 225, and the process execution unit 226 correspond to the CPU 401, ROM 402, RAM 403, and communication interface 406.
  • the image database 223 corresponds to the ROM 402, the drive device 405, or the communication interface 406.
  • the component of the apparatus according to the present disclosure may be configured by a single circuit (processor or the like) or may be configured by a combination of a plurality of circuits.
  • the circuit here may be either dedicated or general purpose.
  • a part of the apparatus according to the present disclosure may be realized by a dedicated processor, and the other part may be realized by a general-purpose processor.
  • An authentication control apparatus comprising: a determination unit configured to determine whether the input is by a person based on the input.
  • (Appendix 3) Further comprising: generating means for generating the authentication image in which any one of the plurality of characters is displayed at each of the plurality of positions based on a base image for allowing a viewer to perceive depth and a plurality of characters;
  • the accepting means accepts the input representing characters corresponding to the one or more positions;
  • the authentication control apparatus according to Supplementary Note 1 or Supplementary Note 2, wherein the determination unit determines whether a character represented by the input is a character corresponding to a predetermined position among the plurality of positions.
  • the generating means generates the authentication image based on any of a plurality of base images,
  • the authentication control apparatus according to claim 6, wherein a display position of the predetermined character among the plurality of positions is determined in advance for each of the plurality of base images.
  • Appendix 15 Display an authentication image that allows the viewer to perceive depth, Receiving an input corresponding to one or more positions among a plurality of positions included in the authentication image and having different depths; An authentication method for determining, based on the input, whether the input is by a human.
  • Appendix 20 The authentication method according to any one of appendix 17 to appendix 19, wherein the authentication image in which predetermined characters and dummy characters are displayed at the plurality of positions is generated.
  • a reception process that receives an input corresponding to one or more positions among a plurality of positions that are included in an authentication image that causes a viewer to perceive depth and have different depths;
  • a storage medium storing a program for executing, based on the input, a determination process for determining whether the input is by a human.
  • the program is stored in a computer. Based on a base image that allows a viewer to perceive depth and a plurality of characters, further generating processing for generating the authentication image in which any of the plurality of characters is displayed at each of the plurality of positions, The accepting process accepts the input representing characters corresponding to the one or more positions, The storage medium according to attachment 22 or attachment 23, wherein the determination processing determines whether a character represented by the input is a character corresponding to a predetermined position among the plurality of positions.
  • Appendix 26 The storage medium according to appendix 24 or appendix 25, wherein a size of the plurality of characters displayed at the plurality of positions of the authentication image has no correlation with a depth of the plurality of positions.
  • the generation process generates the authentication image based on any of a plurality of base images, The storage medium according to claim 27, wherein a display position of the predetermined character among the plurality of positions is predetermined for each of the plurality of base images.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

人間による利用の容易性と人間による入力を判別する精度の良さとを両立する認証技術を提供する。 認証制御装置100は、見る者に奥行きを知覚させる認証画像に含まれ、かつ見かけ上の奥行きが異なる複数の位置のうち1以上の位置に対応付けられた入力を受け付ける受付部110と、受付部110により受け付けられた入力に基づいて、当該入力が人間によるものであるかを判別する判別部120とを含む。

Description

認証制御装置、認証制御方法、認証方法及び記憶媒体
 本開示は、認証制御装置等に関する。
 いわゆるユーザ認証にはさまざまな手法がある(例えば、特許文献1~3参照)。認証技術には、特許文献2、3に記載された技術のように、あるアクセスの要求が人間によるものであるかを判別するための技術が含まれる。このような技術の一例がCAPTCHA(Completely Automated Public Turing test to tell Computers and Humans Apart)である。
特開2012-155501号公報 特開2013-061971号公報 特開2014-130599号公報
 CAPTCHAにおいて、文字列は、機械が認識できないように変形や加工が施されている。しかしながら、機械による文字認識の精度向上に対処するためには、文字列の判読をより一層困難にする必要がある。とはいえ、文字列の判読があまりにも困難であると、人間による判断も困難になり、正当なはずのユーザの利用を阻害したり利便性を損ねたりする。
 本開示の例示的な目的は、人間による利用の容易性と人間による入力を判別する精度の良さとを両立する認証技術を提供することにある。
 一の態様において、見る者に奥行きを知覚させる認証画像に含まれ、かつ見かけ上の奥行きが異なる複数の位置のうち1以上の位置に対応付けられた入力を受け付ける受付手段と、前記入力に基づいて、当該入力が人間によるものであるかを判別する判別手段とを含む認証制御装置が提供される。
 別の態様において、見る者に奥行きを知覚させる認証画像に含まれ、かつ奥行きが異なる複数の位置のうち1以上の位置に対応する入力を受け付け、前記入力に基づいて、当該入力が人間によるものであるかを判別する認証制御方法が提供される。
 さらに別の態様において、見る者に奥行きを知覚させる認証画像を表示し、前記認証画像に含まれ、かつ奥行きが異なる複数の位置のうち1以上の位置に対応する入力を受け付け、前記入力に基づいて、当該入力が人間によるものであるかと判別する認証方法が提供される。
 さらに別の態様において、コンピュータに、見る者に奥行きを知覚させる画像に含まれ、かつ奥行きが異なる複数の位置のうち1以上の位置に対応する入力を受け付ける処理と、前記入力に基づいて、当該入力が人間によるものであるかを判別する処理とを実行させるためのプログラムが提供される。さらに別の態様において、前述のプログラムが格納されている記憶媒体が提供されてもよい。
 本開示によれば、人間による利用の容易性と人間による入力を判別する精度の良さとを両立する認証技術が提供される。
図1は、認証制御装置の構成の一例を示すブロック図である。 図2は、認証制御装置の動作の一例を示すフローチャートである。 図3は、認証画像の一例を示す。 図4は、認証システムの構成の一例を示すブロック図である。 図5は、サーバ装置の動作の一例を示すフローチャートである。 図6は、ベース画像の一例を示す。 図7Aは、認証画面の一例を示す。 図7Bは、認証画面の別の例を示す。 図8は、認証画面のさらに別の例を示す。 図9は、認証画面のさらに別の例を示す。 図10は、認証画面のさらに別の例を示す。 図11は、コンピュータ装置のハードウェア構成の一例を示すブロック図である。
 [第1実施形態]
 図1は、一の実施形態に係る認証制御装置100の構成を示すブロック図である。認証制御装置100は、受付部110と、判別部120とを含む。ただし、認証制御装置100は、必要に応じて他の構成をさらに含んでもよい。
 ここでいう認証は、対象の正当性を確認することをいう。ある観点において、本実施形態における正当性は、応答者(すなわち入力の主体)がコンピュータではなく人間であることを意味するともいえる。この観点によれば、認証制御装置100は、入力が人間によるものであるかを判別するためのコンピュータ装置であるともいえる。ただし、認証制御装置100は、人間による入力であっても、当該入力に誤りがあれば不正であると判別する。
 なお、認証制御装置100は、入力装置と一体である必要はない。また、認証制御装置100は、上述のような入力の主体に基づく認証に加え、周知技術による他の認証(例えば、パスワード認証)をあわせて実行するように構成されてもよい。
 受付部110は、応答者による入力を受け付ける。ここでいう応答者は、人間とロボット等のコンピュータとを含む。例えば、受付部110は、キーボード、マウス等の入力装置を介した入力を受け付ける。本実施形態において、受付部110は、認証画像に基づく入力を受け付ける。
 認証画像は、認証のために用いられる画像である。ここにおいて、認証画像は、見る者に奥行きを知覚させる画像を少なくとも含む。換言すれば、認証画像は、奥行き感のある画像、遠近感のある画像ともいえる。認証画像は、デジタルカメラ等により撮影されたいわゆる自然画像(写真等)であってもよく、描画ソフトウェアを用いて生成されたグラフィック画像(線画、コンピュータグラフィクス画像)であってもよい。
 受付部110は、認証画像に含まれる複数の位置のうち1以上の位置に対応付けられた入力を受け付ける。いくつかの場合において、この入力は、認証画像の特定の位置そのものを表す。あるいは、この入力は、認証画像の特定の位置に表示された1又は複数の文字(以下「文字列」ともいう。)を表してもよい。
 ここでいう文字は、入力装置を介して入力可能な文字及び記号の全てを含み得る。すなわち、本実施形態において入力対象とされる文字は、アルファベット等の狭義的な文字に限定されない。例えば、ASCII(American Standard Code for Information Interchange)等の所定の文字コードを用いて記述可能な記号も、ここでいう文字に含まれ得る。ただし、他の文字と類似する文字のような、誤読又は誤入力の可能性がある文字は、入力対象から除外されてもよい。
 判別部120は、受付部110により受け付けられた入力が正当かを判別する。換言すれば、判別部120は、受付部110により受け付けられた入力が人間によるものであるかを判別する。判別部120は、受付部110により受け付けられた入力に基づいてこの判別を実行する。より詳細には、判別部120は、受付部110により受け付けられた入力が所定の条件を満たすかを判断することによって、当該入力の正当性を判断する。
 ここでいう所定の条件は、認証画像に基づいてあらかじめ決められている。例えば、判別部120は、受付部110により受け付けられた入力が認証画像の所定の位置に対応する入力である場合に、当該入力が正当であると判別してもよい。あるいは、判別部120は、受付部110により受け付けられた入力が認証画像の所定の位置に表示された文字からなる文字列を表す場合に、当該入力が正当であると判別してもよい。
 図2は、認証制御装置100の動作を示すフローチャートである。ステップS11において、受付部110は、認証画像を用いた入力を受け付ける。ステップS12において、判別部120は、ステップS11において受け付けられた入力に基づいて、当該入力が人間によるものであるかを判別する。換言すれば、判別部120は、認証画像を用いた認証に対する応答者が人間であるかコンピュータであるかを判別する。より詳細には、判別部120は、ステップS11において受け付けられた入力に対応する見かけ上の奥行きが所定の奥行きであるかを判別することにより、当該入力が人間によるものであるかを判別する。
 図3は、認証画像の一例を示す。この例において、認証画像130は、長方形の底面(1面)と、底面の各辺に垂直な側面(4面)とを有する箱の内部を模したような画像131と、画像131に重畳して表示される文字132~137とを含む。この例において、画像131の底面部分は、これを見る者からみて側面部分よりも奥にあるように知覚される。
 文字132~137は、画像131の底面部分又は側面部分のいずれかの位置に表示される。ただし、文字132~137の表示位置(表示位置)は、見かけ上の奥行きが異なるものが含まれる。具体的には、文字132、133、134は底面部分に表示され、文字135、136、137は側面部分に表示される。文字132~137の見かけ上の奥行きは、全て異なっている必要はなく、一部の文字(例えば文字132、133、134)で同一であってもよい。
 本実施形態において、認証は、応答者が認証画像130の特定の位置に表示される文字を入力することによって実行される。図3の例においては、応答者は、画像131の底面部分に表示される文字、すなわち文字132、133、134の入力を要求される。この場合、応答者は、文字132、133、134の少なくともいずれかを入力する。応答者は、文字132、133、134を所定の順序(例えば「1A2」)で入力することを要求されてもよい。判別部120は、所定の文字列が入力された場合に、当該入力が人間によるものであると判別する。
 以上のとおり、本実施形態の認証制御装置100は、入力が人間によるものであるかを、見る者(すなわち人間)に奥行きを知覚させる認証画像を用いて判別する構成を有する。すなわち、認証制御装置100は、入力が人間によるものであるかを人間の知覚能力を利用して判別しているともいえる。
 人間は、両眼視差等のさまざまな手がかりを利用して物体の奥行きを知覚している。また、人間は、透視図法(遠近法)を用いて描かれた絵画や図形のような、人間の奥行き知覚能力を応用した画像を見た場合、その画像が平面であるにもかかわらず、あたかも奥行きがあるように知覚する。このような知覚能力は、機械にはない人間特有の知覚能力であるといえる。
 人間は、例えば認証画像130を見た場合において、「奥にある面」がどの部分にあるかを、人間の奥行き知覚能力に基づいて(底面部分であると)容易に特定することができる。一方、機械は、通常、認証画像130の「奥にある面」がどこにあるのかを認識することができない。したがって、このような認証画像を用いた奥行き知覚に依存する入力を応答者に要求することによって、応答者が人間であるか機械であるかを容易に判別することができる。このような入力は、人間には容易である一方、機械には容易でないからである。
 従って、本実施形態には、人間による利用の容易性と人間による入力を判別する精度の良さとを両立することができると言う効果がある。
 [第2実施形態]
 図4は、別の実施形態に係る認証システム200の構成を示すブロック図である。認証システム200は、クライアント装置210と、サーバ装置220とを含む。クライアント装置210及びサーバ装置220は、例えば、インターネット等のネットワークを介して互いに接続される。なお、認証システム200は、クライアント装置210を複数含み得る。
 クライアント装置210は、ユーザによって使用されるコンピュータ装置である。クライアント装置210は、パーソナルコンピュータであってもよいし、スマートフォン等の移動通信端末であってもよい。クライアント装置210は、より詳細には、制御部211と、表示部212と、入力部213とを含む。また、クライアント装置210は、マイク、スピーカ、バイブレータなど、他の構成をさらに含んでもよい。
 制御部211は、クライアント装置210内外のデータのやり取りを制御する。制御部211は、サーバ装置220から送信されたデータを表示部212又は入力部213に供給し、入力部213から供給されたデータをサーバ装置220に送信する。
 表示部212は、画像を表示する。表示部212は、制御部211から供給される画面データに従って、認証画面を含む所定の画面を表示する。また、表示部212は、ユーザの操作に応じて表示画面を遷移させる。本実施形態の認証画面は、第1実施形態の認証画像の一例に相当する。
 入力部213は、ユーザによる入力を受け付ける。入力部213は、例えば、マウス、キーボード等の入力装置を含む。また、入力部213は、いわゆるタッチスクリーンディスプレイ、すなわち表示部212と一体に設けられた入力装置を含んでもよい。なお、ここでいう入力は、手指による入力だけでなく音声入力を含み得る。入力部213は、ユーザの入力を示すデータ(以下「入力データ」ともいう。)を制御部211に供給する。
 サーバ装置220は、ユーザを認証し、認証結果に応じた所定の処理を実行する。サーバ装置220は、第1実施形態の認証制御装置100の一例に相当する。サーバ装置220は、より詳細には、制御部221と、画面生成部222と、画像データベース223と、データ受付部224と、認証判別部225と、処理実行部226とを含む。
 制御部221は、サーバ装置220内外のデータのやり取りを制御する。例えば、制御部221は、クライアント装置210から送信された入力データをデータ受付部224に供給する。また、制御部221は、画面生成部222により生成された画面データをクライアント装置210に送信する。
 画面生成部222は、認証画面を示す画面データを生成する。画面生成部222は、画像データベース223に記録されたベース画像を用いて画面データを生成する。画面生成部222は、生成された画面データを制御部221に供給する。
 画像データベース223は、ベース画像を示す画像データをテンプレートとして記録する。ここでいうベース画像は、認証画面の基となる画像である。画像データベース223には、複数通りのベース画像が登録されている。画像データベース223は、認証画面を示す画面データの生成に際して、画像データを画面生成部222に供給する。なお、画像データベース223は、サーバ装置220とは別の装置として構成されてもよい。
 データ受付部224は、制御部221から供給された入力データを受け付ける。データ受付部224は、認証画面に応じて入力された入力データを認証判別部225に供給する。データ受付部224は、第1実施形態の受付部110の一例に相当する。
 認証判別部225は、データ受付部224から供給された入力データに基づいてユーザ認証を実行する。本実施形態のユーザ認証は、ユーザ、すなわち入力データの送信者が人間か否かを判別することを含む。ただし、本実施形態のユーザ認証は、パスワード認証、生体認証等の他の認証が組み合わされてもよい。
 処理実行部226は、認証判別部225による判別結果に応じた処理を実行する。いくつかの場合において、処理実行部226は、ユーザ認証に成功したか失敗したかをクライアント装置210に通知するための処理を実行する。あるいは、処理実行部226は、ユーザ認証後に所定のアプリケーションプログラム(いわゆるWebアプリケーション等)を実行してもよく、認証結果を他の装置に通知してもよい。
 認証システム200の構成は、以上のとおりである。ユーザは、クライアント装置210を用いて所定のサービスを利用する。このサービスの利用に際し、クライアント装置210は、サービスへのアクセスを要求し、認証画面に応じた入力データをサーバ装置220に送信する。サーバ装置220は、クライアント装置210との間で以下の処理を実行する。
 図5は、サーバ装置220の動作を示すフローチャートである。ステップS21において、データ受付部224は、サービスへのアクセス要求を受け付ける。クライアント装置210は、ユーザから所定の操作を受け付けた場合に、サービスへのアクセスを要求する。ここでいう所定の操作は、例えば、特定のアプリケーションプログラムを起動する操作や、特定のURL(Uniform Resource Locator)により特定されるリソースにアクセスする操作である。
 画面生成部222は、アクセス要求に応じてステップS22、S23を実行する。ステップS22において、画面生成部222は、画像データベース223に記録された複数のベース画像のいずれかを取得する。ステップS23において、画面生成部222は、ステップS22において取得されたベース画像に基づいて、認証画面を示す画面データを生成する。また、制御部221は、画面生成部222により生成された画面データをクライアント装置210に送信する。
 図6は、ベース画像の一例を示す。ベース画像230は、見る者に奥行きを知覚させる画像である。ベース画像230は、例えば、図3の認証画像130から文字132~137を除いた画像である。認証画面は、このようなベース画像に複数の文字を重畳させた画像を含む。
 ベース画像に重畳される文字は、認証用の文字列とダミーの文字列とを含む。認証用の文字列は、ユーザ認証において正解となる文字列である。これに対し、ダミーの文字列は、ユーザ認証において不正解となる文字列である。ユーザは、認証用の文字列を入力した場合にはユーザ認証に成功する一方、ダミーの文字列を入力した場合にはユーザ認証に失敗する。
 ベース画像は、これらの文字列の表示位置があらかじめ設定されていてもよい。より詳細には、ベース画像は、認証用の文字列の表示位置とダミーの文字列の表示位置とがそれぞれ設定されていてもよい。また、文字列の表示位置は、ベース画像毎に異なってもよい。ただし、認証用の文字列及びダミーの文字列は、あらかじめ決められている必要はなく、毎回(すなわち画面データが生成される毎に)異なってもよい。
 ベース画像は、平面上の座標(2次元)に加え、各座標の視覚的な奥行きを示す座標情報を含んでもよい。ここでいう座標情報は、例えば、平面上の座標をx成分及びy成分で表し、奥行きをz成分で表した3次元直交座標系の情報である。このようにすれば、画面生成部222がベース画像の奥行きを認識することが可能になる。
 画面生成部222は、ベース画像に重畳される文字のサイズをランダムに決定してもよい。ここでいう「ランダム」は、規則性が全くないことに限定されない。例えば、画面生成部222は、文字サイズを疑似乱数に基づいて決定してもよい。あるいは、画面生成部222は、ベース画像に重畳される文字のサイズを、個々の文字の表示位置の奥行きと相関を有しないように決定してもよい。このようにすれば、文字のサイズからその文字の奥行きを推定することを困難にすることができる。
 図7A及び図7Bは、図6のベース画像230に基づいて表示される認証画面の一例を示す。図7Aに例示された認証画面241において、認証用の文字列は、「5FZ」である。なお、この例において、ダミーの文字列は、「9」、「G」、「Q」である。一方、図7Bに例示された認証画面242において、認証用の文字列は、「S」である。
 認証用の文字列は、認証画面241及び認証画面242に表示される質問文、すなわち入力ルールに基づいて特定される。例えば、図7Aの例においては、ユーザは、ベース画像230の一番奥に表示された文字列の入力が要求される。一方、図7Bの例においては、ユーザは、ベース画像230の最も手前側に表示された文字列の入力が要求される。なお、これらの入力ルールは、あらかじめ決められていてもよいが、画面生成部222により決定されても(すなわち可変でも)よい。
 クライアント装置210は、認証画面を示す画面データをサーバ装置220から受信すると、認証画面を表示する。クライアント装置210は、認証画面を表示することにより、認証用の文字列の入力をユーザに促す。クライアント装置210は、認証画面に応じた入力を受け付けると、当該入力を示す入力データをサーバ装置220に送信する。
 ステップS24において、データ受付部224は、認証画面に対応してクライアント装置210から送信された入力データを受け付ける。ユーザが適切な文字列を入力した場合、この入力データは、認証用の文字列を示す。ステップS25において、認証判別部225は、ステップS24において受け付けられた入力データに基づいてユーザ認証を実行する。より詳細には、認証判別部225は、ステップS24において受け付けられた入力データが示す文字列と認証画面に対応する所定の文字列とが一致するかを判断する。
 これらの文字列が一致する場合(S25:YES)、すなわちユーザ認証が成功した場合、処理実行部226は、ステップS26を実行する。一方、これらの文字列が一致しない場合(S25:NO)、すなわちユーザ認証が失敗した場合、画面生成部222は、ステップS22、S23を実行し、画面データを再度生成する。このとき、画面生成部222は、前回用いられたベース画像と異なるベース画像を用いてもよいが、ベース画像を変えずに認証用の文字列を変えてもよい。
 ステップS26において、処理実行部226は、所定の処理を実行する。このとき、処理実行部226は、ユーザ認証が成功したことをクライアント装置210に通知してもよい。あるいは、処理実行部226は、クライアント装置210から要求されたサービスを実行するための処理を実行してもよい。クライアント装置210は、ユーザ認証の成否を音や振動によってユーザに通知してもよい。
 以上のとおり、本実施形態の認証システム200は、入力が人間によるものであるかを、見る者に奥行きを知覚させる認証画面を用いて判別する構成を有する。すなわち、認証システム200は、第1実施形態の認証制御装置100と共通する構成を有する。したがって、認証システム200は、認証制御装置100と同様の効果を奏することができる。
 また、認証システム200は、ベース画像と複数の文字とを重畳した認証画面を用いてユーザ認証を実行する構成を有する。この構成は、画像と文字の組み合わせによって認証画面を生成することを可能にする。そのため、このような構成によれば、例えばCAPTCHAを用いた認証画面を生成する場合に比べ、多数の認証画面を容易に生成することが可能である。また、このような構成によれば、CAPTCHAのように文字を変形させる必要もない。
 [変形例]
 上述された第1~第2実施形態は、例えば、以下のような変形を適用することができる。これらの変形例は、必要に応じて適宜組み合わせることも可能である。
 (1)図8~図10は、認証画面の他の例を示す。図8の認証画面310は、多面体(ここでは直方体)を表示し、この多面体の特定の面に表示された文字列を入力させる認証画像を含む。この例において、認証用の文字列は、「FTY」、「4R」、「82ER」である。なお、認証画面に表示される多面体の数は、1つでもよい。
 図9の認証画面320は、陰影により凹凸を表現し、凹凸に基づいて特定の領域(ここでは手前側にあると知覚される部分)を選択させる認証画像を含む。ここでいう選択は、マウスでクリックする操作であってもよく、タッチスクリーンディスプレイをタップする操作であってもよい。
 図10の認証画面330は、見かけ上の奥行きが異なる複数の位置にポイント(ここでは黒色のドット)を表示し、この複数のポイントのうちの特定のポイント(ここでは最も奥にあると知覚されるポイント)を選択させる認証画像を含む。なお、図9、図10の例が示すとおり、認証画像は、必ずしも文字を含まなくてもよい。このようにすれば、文字の識別能力に依存しないユーザ認証を実現することができる。
 (2)本開示に係る装置(認証制御装置100及びサーバ装置220)の具体的なハードウェア構成は、さまざまなバリエーションが含まれ、特定の構成に限定されない。例えば、本開示に係る装置は、ソフトウェアを用いて実現されてもよく、複数のハードウェアを用いて各種処理を分担するように構成されてもよい。
 図11は、本開示に係る装置を実現するコンピュータ装置400のハードウェア構成の一例を示すブロック図である。コンピュータ装置400は、CPU(Central Processing Unit)401と、ROM(Read Only Memory)402と、RAM(Random Access Memory)403と、記憶装置404と、ドライブ装置405と、通信インタフェース406と、入出力インタフェース407とを含んで構成される。
 CPU401は、RAM403を用いてプログラム408を実行する。通信インタフェース406は、ネットワーク410を介して外部装置とデータをやり取りする。入出力インタフェース407は、周辺機器(入力装置、表示装置など)とデータをやり取りする。通信インタフェース406及び入出力インタフェース407は、データを取得又は出力するための構成要素として機能することができる。
 なお、プログラム408は、ROM402に記憶されていてもよい。また、プログラム408は、メモリカード等の記憶媒体409に記録され、ドライブ装置405によって読み出されてもよいし、外部装置からネットワーク410を介して送信されてもよい。
 本開示に係る装置は、図11に示される構成(又はその一部)によって実現され得る。例えば、認証制御装置100の場合、受付部110及び判別部120は、CPU401、ROM402及びRAM403に対応する。また、サーバ装置220の場合、制御部221、画面生成部222、データ受付部224、認証判別部225及び処理実行部226は、CPU401、ROM402、RAM403及び通信インタフェース406に対応する。画像データベース223は、ROM402、ドライブ装置405又は通信インタフェース406に対応する。
 なお、本開示に係る装置の構成要素は、単一の回路(プロセッサ等)によって構成されてもよいし、複数の回路の組み合わせによって構成されてもよい。ここでいう回路(circuitry)は、専用又は汎用のいずれであってもよい。例えば、本開示に係る装置は、一部が専用のプロセッサによって実現され、他の部分が汎用のプロセッサによって実現されてもよい。
 (3)以上、本発明は、上述された実施形態及び変形例を模範的な例として説明された。しかし、本発明は、これらの実施形態及び変形例に限定されない。本発明は、本発明のスコープ内において、いわゆる当業者が把握し得るさまざまな変形又は応用を適用した実施の形態を含み得る。また、本発明は、本明細書に記載された事項を必要に応じて適宜に組み合わせ、又は置換した実施の形態を含み得る。例えば、特定の実施形態を用いて説明された事項は、矛盾を生じない範囲において、他の実施形態に対しても適用し得る。
 また、上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 見る者に奥行きを知覚させる認証画像に含まれ、かつ見かけ上の奥行きが異なる複数の位置のうち1以上の位置に対応付けられた入力を受け付ける受付手段と、
 前記入力に基づいて、当該入力が人間によるものであるかを判別する判別手段と
 を備える認証制御装置。
 (付記2)
 前記判別手段は、前記入力に対応する見かけ上の奥行きが所定の奥行きであるかを判別することにより、当該入力が人間によるものであるかを判別する
 付記1に記載の認証制御装置。
 (付記3)
 見る者に奥行きを知覚させるベース画像と、複数の文字とに基づいて、前記複数の位置のそれぞれに前記複数の文字のいずれかが表示される前記認証画像を生成する生成手段をさらに備え、
 前記受付手段は、前記1以上の位置に対応する文字を表す前記入力を受け付け、
 前記判別手段は、前記入力により表される文字が前記複数の位置のうちの所定の位置に対応する文字であるかを判別する
 付記1又は付記2に記載の認証制御装置。
 (付記4)
 前記生成手段は、前記複数の位置に表示される前記複数の文字のサイズをランダムに決定する
 付記3に記載の認証制御装置。
 (付記5)
 前記認証画像は、前記複数の位置に表示される前記複数の文字のサイズが、当該複数の位置の奥行きと相関を有しない
 付記3又は付記4に記載の認証制御装置。
 (付記6)
 前記生成手段は、前記複数の位置に、所定の文字とダミーの文字とが表示される前記認証画像を生成する
 付記3から付記5までのいずれか1項に記載の認証制御装置。
 (付記7)
 前記生成手段は、複数のベース画像のうちのいずれかに基づいて前記認証画像を生成し、
 前記複数の位置のうち前記所定の文字の表示位置は、前記複数のベース画像毎にあらかじめ決められている
 付記6に記載の認証制御装置。
 (付記8)
 見る者に奥行きを知覚させる認証画像に含まれ、かつ奥行きが異なる複数の位置のうち1以上の位置に対応する入力を受け付け、
 前記入力に基づいて、当該入力が人間によるものであるかを判別する
 認証制御方法。
 (付記9)
 前記入力に対応する見かけ上の奥行きが所定の奥行きであるかを判別することにより、当該入力が人間によるものであるかを判別する
 付記8に記載の認証制御方法。
 (付記10)
 見る者に奥行きを知覚させるベース画像と、複数の文字とに基づいて、前記複数の位置のそれぞれに前記複数の文字のいずれかが表示される前記認証画像を生成し、
 前記1以上の位置に対応する文字を表す前記入力を受け付け、
 前記入力により表される文字が前記複数の位置のうちの所定の位置に対応する文字であるかを判別する
 付記8又は付記9に記載の認証制御方法。
 (付記11)
 前記複数の位置に表示される前記複数の文字のサイズをランダムに決定する
 付記10に記載の認証制御方法。
 (付記12)
 前記認証画像は、前記複数の位置に表示される前記複数の文字のサイズが、当該複数の位置の奥行きと相関を有しない
 付記10又は付記11に記載の認証制御方法。
 (付記13)
 前記複数の位置に、所定の文字とダミーの文字とが表示される前記認証画像を生成する
 付記10から付記12までのいずれか1項に記載の認証制御方法。
 (付記14)
 複数のベース画像のうちのいずれかに基づいて前記認証画像を生成し、
 前記複数の位置のうち前記所定の文字の表示位置は、前記複数のベース画像毎にあらかじめ決められている
 付記13に記載の認証制御方法。
 (付記15)
 見る者に奥行きを知覚させる認証画像を表示し、
 前記認証画像に含まれ、かつ奥行きが異なる複数の位置のうち1以上の位置に対応する入力を受け付け、
 前記入力に基づいて、当該入力が人間によるものであるかと判別する
 認証方法。
 (付記16)
 前記入力に対応する見かけ上の奥行きが所定の奥行きであるかを判別することにより、当該入力が人間によるものであるかを判別する
 付記15に記載の認証方法。
 (付記17)
 見る者に奥行きを知覚させるベース画像と、複数の文字とに基づいて、前記複数の位置のそれぞれに前記複数の文字のいずれかが表示される前記認証画像を生成し、
 前記1以上の位置に対応する文字を表す前記入力を受け付け、
 前記入力により表される文字が前記複数の位置のうちの所定の位置に対応する文字であるかを判別する
 付記15又は付記16に記載の認証方法。
 (付記18)
 前記複数の位置に表示される前記複数の文字のサイズをランダムに決定する
 付記17に記載の認証方法。
 (付記19)
 前記認証画像は、前記複数の位置に表示される前記複数の文字のサイズが、当該複数の位置の奥行きと相関を有しない
 付記17又は付記18に記載の認証方法。
 (付記20)
 前記複数の位置に、所定の文字とダミーの文字とが表示される前記認証画像を生成する
 付記17から付記19までのいずれか1項に記載の認証方法。
 (付記21)
 複数のベース画像のうちのいずれかに基づいて前記認証画像を生成し、
 前記複数の位置のうち前記所定の文字の表示位置は、前記複数のベース画像毎にあらかじめ決められている
 付記20に記載の認証方法。
 (付記22)
 コンピュータに、
 見る者に奥行きを知覚させる認証画像に含まれ、かつ奥行きが異なる複数の位置のうち1以上の位置に対応する入力を受け付ける受付処理と、
 前記入力に基づいて、当該入力が人間によるものであるかを判別する判別処理と
 を実行させるためのプログラムを記憶する記憶媒体。
 (付記23)
 前記判別処理は、前記入力に対応する見かけ上の奥行きが所定の奥行きであるかを判別することにより、当該入力が人間によるものであるかを判別する
 付記22に記載の記憶媒体。
 (付記24)
 前記プログラムは、コンピュータに、
 見る者に奥行きを知覚させるベース画像と、複数の文字とに基づいて、前記複数の位置のそれぞれに前記複数の文字のいずれかが表示される前記認証画像を生成する生成処理をさらに実行させ、
 前記受付処理は、前記1以上の位置に対応する文字を表す前記入力を受け付け、
 前記判別処理は、前記入力により表される文字が前記複数の位置のうちの所定の位置に対応する文字であるかを判別する
 付記22又は付記23に記載の記憶媒体。
 (付記25)
 前記生成処理は、前記複数の位置に表示される前記複数の文字のサイズをランダムに決定する
 付記24に記載の記憶媒体。
 (付記26)
 前記認証画像は、前記複数の位置に表示される前記複数の文字のサイズが、当該複数の位置の奥行きと相関を有しない
 付記24又は付記25に記載の記憶媒体。
 (付記27)
 前記生成処理は、前記複数の位置に、所定の文字とダミーの文字とが表示される前記認証画像を生成する
 付記24から付記26までのいずれか1項に記載の記憶媒体。
 (付記28)
 前記生成処理は、複数のベース画像のうちのいずれかに基づいて前記認証画像を生成し、
 前記複数の位置のうち前記所定の文字の表示位置は、前記複数のベース画像毎にあらかじめ決められている
 付記27に記載の記憶媒体。
 この出願は、2017年3月23日に出願された日本出願特願2017-056888を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 100  認証制御装置
 110  受付部
 120  判別部
 130  認証画像
 131  画像
 132、133、134、135、136、137  文字
 200  認証システム
 210  クライアント装置
 211  制御部
 212  表示部
 213  入力部
 220  サーバ装置
 221  制御部
 222  画面生成部
 223  画像データベース
 224  データ受付部
 225  認証判別部
 226  処理実行部
 230  ベース画像
 241、242、310、320、330  認証画面
 400  コンピュータ装置
 401  CPU
 402  ROM
 403  RAM
 404  記憶装置
 405  ドライブ装置
 406  通信インタフェース
 407  入出力インタフェース
 408  プログラム
 409  記憶媒体
 410  ネットワーク

Claims (28)

  1.  見る者に奥行きを知覚させる認証画像に含まれ、かつ見かけ上の奥行きが異なる複数の位置のうち1以上の位置に対応付けられた入力を受け付ける受付手段と、
     前記入力に基づいて、当該入力が人間によるものであるかを判別する判別手段と
     を備える認証制御装置。
  2.  前記判別手段は、前記入力に対応する見かけ上の奥行きが所定の奥行きであるかを判別することにより、当該入力が人間によるものであるかを判別する
     請求項1に記載の認証制御装置。
  3.  見る者に奥行きを知覚させるベース画像と、複数の文字とに基づいて、前記複数の位置のそれぞれに前記複数の文字のいずれかが表示される前記認証画像を生成する生成手段をさらに備え、
     前記受付手段は、前記1以上の位置に対応する文字を表す前記入力を受け付け、
     前記判別手段は、前記入力により表される文字が前記複数の位置のうちの所定の位置に対応する文字であるかを判別する
     請求項1又は請求項2に記載の認証制御装置。
  4.  前記生成手段は、前記複数の位置に表示される前記複数の文字のサイズをランダムに決定する
     請求項3に記載の認証制御装置。
  5.  前記認証画像は、前記複数の位置に表示される前記複数の文字のサイズが、当該複数の位置の奥行きと相関を有しない
     請求項3又は請求項4に記載の認証制御装置。
  6.  前記生成手段は、前記複数の位置に、所定の文字とダミーの文字とが表示される前記認証画像を生成する
     請求項3から請求項5までのいずれか1項に記載の認証制御装置。
  7.  前記生成手段は、複数のベース画像のうちのいずれかに基づいて前記認証画像を生成し、
     前記複数の位置のうち前記所定の文字の表示位置は、前記複数のベース画像毎にあらかじめ決められている
     請求項6に記載の認証制御装置。
  8.  見る者に奥行きを知覚させる認証画像に含まれ、かつ奥行きが異なる複数の位置のうち1以上の位置に対応する入力を受け付け、
     前記入力に基づいて、当該入力が人間によるものであるかを判別する
     認証制御方法。
  9.  前記入力に対応する見かけ上の奥行きが所定の奥行きであるかを判別することにより、当該入力が人間によるものであるかを判別する
     請求項8に記載の認証制御方法。
  10.  見る者に奥行きを知覚させるベース画像と、複数の文字とに基づいて、前記複数の位置のそれぞれに前記複数の文字のいずれかが表示される前記認証画像を生成し、
     前記1以上の位置に対応する文字を表す前記入力を受け付け、
     前記入力により表される文字が前記複数の位置のうちの所定の位置に対応する文字であるかを判別する
     請求項8又は請求項9に記載の認証制御方法。
  11.  前記複数の位置に表示される前記複数の文字のサイズをランダムに決定する
     請求項10に記載の認証制御方法。
  12.  前記認証画像は、前記複数の位置に表示される前記複数の文字のサイズが、当該複数の位置の奥行きと相関を有しない
     請求項10又は請求項11に記載の認証制御方法。
  13.  前記複数の位置に、所定の文字とダミーの文字とが表示される前記認証画像を生成する
     請求項10から請求項12までのいずれか1項に記載の認証制御方法。
  14.  複数のベース画像のうちのいずれかに基づいて前記認証画像を生成し、
     前記複数の位置のうち前記所定の文字の表示位置は、前記複数のベース画像毎にあらかじめ決められている
     請求項13に記載の認証制御方法。
  15.  見る者に奥行きを知覚させる認証画像を表示し、
     前記認証画像に含まれ、かつ奥行きが異なる複数の位置のうち1以上の位置に対応する入力を受け付け、
     前記入力に基づいて、当該入力が人間によるものであるかと判別する
     認証方法。
  16.  前記入力に対応する見かけ上の奥行きが所定の奥行きであるかを判別することにより、当該入力が人間によるものであるかを判別する
     請求項15に記載の認証方法。
  17.  見る者に奥行きを知覚させるベース画像と、複数の文字とに基づいて、前記複数の位置のそれぞれに前記複数の文字のいずれかが表示される前記認証画像を生成し、
     前記1以上の位置に対応する文字を表す前記入力を受け付け、
     前記入力により表される文字が前記複数の位置のうちの所定の位置に対応する文字であるかを判別する
     請求項15又は請求項16に記載の認証方法。
  18.  前記複数の位置に表示される前記複数の文字のサイズをランダムに決定する
     請求項17に記載の認証方法。
  19.  前記認証画像は、前記複数の位置に表示される前記複数の文字のサイズが、当該複数の位置の奥行きと相関を有しない
     請求項17又は請求項18に記載の認証方法。
  20.  前記複数の位置に、所定の文字とダミーの文字とが表示される前記認証画像を生成する
     請求項17から請求項19までのいずれか1項に記載の認証方法。
  21.  複数のベース画像のうちのいずれかに基づいて前記認証画像を生成し、
     前記複数の位置のうち前記所定の文字の表示位置は、前記複数のベース画像毎にあらかじめ決められている
     請求項20に記載の認証方法。
  22.  コンピュータに、
     見る者に奥行きを知覚させる認証画像に含まれ、かつ奥行きが異なる複数の位置のうち1以上の位置に対応する入力を受け付ける受付処理と、
     前記入力に基づいて、当該入力が人間によるものであるかを判別する判別処理と
     を実行させるためのプログラムを記憶する記憶媒体。
  23.  前記判別処理は、前記入力に対応する見かけ上の奥行きが所定の奥行きであるかを判別することにより、当該入力が人間によるものであるかを判別する
     請求項22に記載の記憶媒体。
  24.  前記プログラムは、コンピュータに、
     見る者に奥行きを知覚させるベース画像と、複数の文字とに基づいて、前記複数の位置のそれぞれに前記複数の文字のいずれかが表示される前記認証画像を生成する生成処理をさらに実行させ、
     前記受付処理は、前記1以上の位置に対応する文字を表す前記入力を受け付け、
     前記判別処理は、前記入力により表される文字が前記複数の位置のうちの所定の位置に対応する文字であるかを判別する
     請求項22又は請求項23に記載の記憶媒体。
  25.  前記生成処理は、前記複数の位置に表示される前記複数の文字のサイズをランダムに決定する
     請求項24に記載の記憶媒体。
  26.  前記認証画像は、前記複数の位置に表示される前記複数の文字のサイズが、当該複数の位置の奥行きと相関を有しない
     請求項24又は請求項25に記載の記憶媒体。
  27.  前記生成処理は、前記複数の位置に、所定の文字とダミーの文字とが表示される前記認証画像を生成する
     請求項24から請求項26までのいずれか1項に記載の記憶媒体。
  28.  前記生成処理は、複数のベース画像のうちのいずれかに基づいて前記認証画像を生成し、
     前記複数の位置のうち前記所定の文字の表示位置は、前記複数のベース画像毎にあらかじめ決められている
     請求項27に記載の記憶媒体。
PCT/JP2018/010311 2017-03-23 2018-03-15 認証制御装置、認証制御方法、認証方法及び記憶媒体 WO2018173932A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/490,945 US11526594B2 (en) 2017-03-23 2018-03-15 Authentication control device, authentication control method, and authentication method
JP2019507619A JP6729792B2 (ja) 2017-03-23 2018-03-15 認証制御装置、認証制御方法、認証方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017056888 2017-03-23
JP2017-056888 2017-03-23

Publications (1)

Publication Number Publication Date
WO2018173932A1 true WO2018173932A1 (ja) 2018-09-27

Family

ID=63585338

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/010311 WO2018173932A1 (ja) 2017-03-23 2018-03-15 認証制御装置、認証制御方法、認証方法及び記憶媒体

Country Status (3)

Country Link
US (1) US11526594B2 (ja)
JP (1) JP6729792B2 (ja)
WO (1) WO2018173932A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008262549A (ja) * 2007-03-16 2008-10-30 Ricoh Co Ltd 認証方法及び認証装置
JP2012109960A (ja) * 2011-10-31 2012-06-07 Taketoshi Okamoto 情報機器、表示オブジェクトと表示オブジェクトの電子署名の検証結果とを表示するステップを実行させるためのプログラム及び表示する方法
US20120291122A1 (en) * 2011-05-13 2012-11-15 University Of Wollongong Multi Dimensional CAPTCHA System and Method
US20160378968A1 (en) * 2015-06-27 2016-12-29 Intel Corporation Technologies for depth-based user authentication

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010067096A (ja) * 2008-09-11 2010-03-25 Ricoh Co Ltd 認証装置、認証方法、情報処理プログラム及び記録媒体
US8132255B2 (en) 2008-06-16 2012-03-06 Intel Corporation Generating a challenge response image including a recognizable image
JP2012155501A (ja) 2011-01-26 2012-08-16 Kyocera Corp 携帯端末、パスワード入力プログラムおよびパスワード入力方法
US8621564B2 (en) * 2011-06-03 2013-12-31 Ebay, Inc. Focus-based challenge-response authentication
US9509671B2 (en) 2012-12-27 2016-11-29 Dassault Systèmes 3D bot detection

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008262549A (ja) * 2007-03-16 2008-10-30 Ricoh Co Ltd 認証方法及び認証装置
US20120291122A1 (en) * 2011-05-13 2012-11-15 University Of Wollongong Multi Dimensional CAPTCHA System and Method
JP2012109960A (ja) * 2011-10-31 2012-06-07 Taketoshi Okamoto 情報機器、表示オブジェクトと表示オブジェクトの電子署名の検証結果とを表示するステップを実行させるためのプログラム及び表示する方法
US20160378968A1 (en) * 2015-06-27 2016-12-29 Intel Corporation Technologies for depth-based user authentication

Also Published As

Publication number Publication date
US20200019694A1 (en) 2020-01-16
JPWO2018173932A1 (ja) 2019-12-19
JP6729792B2 (ja) 2020-07-22
US11526594B2 (en) 2022-12-13

Similar Documents

Publication Publication Date Title
US10657243B2 (en) Variation analysis-based public turing test to tell computers and humans apart
KR101832544B1 (ko) 픽처 제스처 인증 기법
EP3425847B1 (en) Captcha-based authentication processing method and device
JP2010067096A (ja) 認証装置、認証方法、情報処理プログラム及び記録媒体
US20160180073A1 (en) Captcha processing method and device, terminal and server
WO2016025756A1 (en) Form filling method and related terminal
KR20150050666A (ko) 패턴 입력 장치 및 방법과 이를 이용한 기록 매체
CN110380864A (zh) 人脸数据采集、验证的方法、设备及系统
CN106603545A (zh) 基于交互操作的验证方法、服务器、终端设备及系统
EP3644578B1 (en) Point and click authentication
CN115225362A (zh) 人机行为的验证方法、装置、设备及存储介质
KR101267229B1 (ko) 입력패턴을 이용한 인증 방법 및 시스템
JP6729792B2 (ja) 認証制御装置、認証制御方法、認証方法及びプログラム
CN113162770A (zh) 线上签名方法及系统
CN108200043B (zh) 图片验证码验证方法和图片验证码验证装置
CN113196263B (zh) 用户认证系统、用户认证服务器及用户认证方法
CN103853968A (zh) 验证码图片的生成方法和装置及其验证方法和装置
CN107679601B (zh) 一种带有三维解密体的图形码结构及对其进行扫描的方法
US20210089638A1 (en) Gesture based accesses
KR102535682B1 (ko) 2차원 코드를 기반으로 웹 사이트가 정상 웹 사이트인지 여부에 대한 확인을 수행하는 웹 사이트 확인 서버 및 그 동작 방법
CN112241522B (zh) 一种图片验证码生成方法和验证系统
US20240078095A1 (en) Electronic apparatus equipped with a ui development tool capable of recommending a template for a ui component based on the characteristics of the ui to be developed and the operating method thereof
KR20220133753A (ko) 2차원 코드를 기반으로 사용자가 매장 내에 구비된 무선 ap 장비에 손쉽게 접속할 수 있도록 지원하는 무선 ap 장비 접속 서비스 서버 및 그 동작 방법
KR20220125147A (ko) 전자 제품에 인쇄된 2차원 코드를 기반으로, 사용자에게 전자 제품 정보를 제공할 수 있는 전자 제품 정보 제공 서버 및 그 동작 방법
JP2017130101A (ja) 入力支援方法、入力支援装置および入力支援プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18772591

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019507619

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18772591

Country of ref document: EP

Kind code of ref document: A1