WO2023281743A1 - 認証システム、認証装置、認証方法、及び記録媒体 - Google Patents

認証システム、認証装置、認証方法、及び記録媒体 Download PDF

Info

Publication number
WO2023281743A1
WO2023281743A1 PCT/JP2021/025990 JP2021025990W WO2023281743A1 WO 2023281743 A1 WO2023281743 A1 WO 2023281743A1 JP 2021025990 W JP2021025990 W JP 2021025990W WO 2023281743 A1 WO2023281743 A1 WO 2023281743A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
authentication
image
imaging angle
face
Prior art date
Application number
PCT/JP2021/025990
Other languages
English (en)
French (fr)
Inventor
昭裕 早坂
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2021/025990 priority Critical patent/WO2023281743A1/ja
Publication of WO2023281743A1 publication Critical patent/WO2023281743A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • This disclosure relates to the technical field of authentication systems, authentication devices, authentication methods, and recording media for authenticating objects.
  • Patent Literature 1 discloses a technique that uses a background image when a user is imaged.
  • Patent Literature 2 discloses a technique for preventing spoofing by using a background image.
  • Japanese Patent Laid-Open No. 2002-200002 discloses a technique for matching feature amounts of objects located around a face.
  • the purpose of this disclosure is to improve the technology disclosed in prior art documents.
  • One aspect of the authentication system of this disclosure includes a first acquisition unit that acquires face information and environment information of the target from an image including the target, and imaging angle information that is information indicating the angle at which the image was captured.
  • One aspect of the authentication device disclosed in this disclosure includes first acquisition means for acquiring face information and environment information of the target from an image including the target, and imaging angle information, which is information indicating the angle at which the image was captured.
  • An authentication apparatus comprising: second acquiring means for acquiring; and authentication executing means for executing authentication processing of the target based on the acquired face information, the environment information, and the imaging angle information.
  • One aspect of the authentication method of this disclosure acquires face information and environment information of the target from an image including the target, acquires imaging angle information that is information indicating the angle at which the image was captured, and acquires Authentication processing of the target is performed based on the face information, the environment information, and the imaging angle information.
  • a computer acquires face information and environment information of a target from an image including the target, and acquires imaging angle information, which is information indicating the angle at which the image was captured.
  • imaging angle information which is information indicating the angle at which the image was captured.
  • a computer program for executing an authentication method for performing authentication processing of the target based on the obtained face information, the environment information, and the imaging angle information.
  • FIG. 2 is a block diagram showing the hardware configuration of the authentication system according to the first embodiment
  • FIG. 1 is a block diagram showing a functional configuration of an authentication system according to a first embodiment
  • FIG. It is a block diagram which shows the functional structure of the modification of the authentication system based on 1st Embodiment.
  • 4 is a flow chart showing the flow of operations of the authentication system according to the first embodiment
  • 9 is a flow chart showing the flow of operations when recording registration information in the authentication system according to the second embodiment
  • FIG. 10 is a diagram showing an example of a plurality of images recorded by the authentication system according to the second embodiment
  • FIG. FIG. 10 is a diagram showing a display example when capturing an image in the authentication system according to the second embodiment
  • FIG. 11 is a block diagram showing the functional configuration of an authentication system according to a third embodiment; FIG. It is a flow chart which shows a flow of operation of an authentication system concerning a 3rd embodiment.
  • FIG. 16 is a flow chart showing the flow of operations of an authentication system according to the sixth embodiment
  • FIG. FIG. 21 is a block diagram showing the functional configuration of an authentication system according to a seventh embodiment
  • FIG. FIG. 14 is a flow chart showing the flow of operations of an authentication system according to the seventh embodiment
  • FIG. FIG. 22 is a block diagram showing the functional configuration of an authentication system according to an eighth embodiment
  • FIG. 21 is a flow chart showing the flow of operations of an authentication system according to the eighth embodiment
  • FIG. FIG. 22 is a block diagram showing a functional configuration of an authentication system according to a ninth embodiment
  • FIG. FIG. 21 is a diagram (Part 1) showing a display example in the authentication system according to the ninth embodiment
  • FIG. 22 is a diagram (part 2) showing a display example in the authentication system according to the ninth embodiment;
  • FIG. 22 is a diagram (part 3) showing a display example in the authentication system according to the ninth embodiment;
  • FIG. 22 is a block diagram showing the functional configuration of an authentication system according to the tenth embodiment;
  • FIG. 16 is a flow chart showing the flow of a stereoscopic determination operation in the authentication system according to the tenth embodiment;
  • FIG. 1 An authentication system according to the first embodiment will be described with reference to FIGS. 1 to 4.
  • FIG. 1 An authentication system according to the first embodiment will be described with reference to FIGS. 1 to 4.
  • FIG. 1 An authentication system according to the first embodiment will be described with reference to FIGS. 1 to 4.
  • FIG. 1 is a block diagram showing the hardware configuration of an authentication system according to the first embodiment.
  • the authentication system 10 includes a processor 11, a RAM (Random Access Memory) 12, a ROM (Read Only Memory) 13, and a storage device 14.
  • Authentication system 10 may further comprise input device 15 , output device 16 , camera 20 and sensor 21 .
  • Processor 11 , RAM 12 , ROM 13 , storage device 14 , input device 15 , output device 16 , camera 20 and sensor 21 are connected via data bus 17 .
  • the processor 11 reads a computer program.
  • processor 11 is configured to read a computer program stored in at least one of RAM 12, ROM 13 and storage device .
  • the processor 11 may read a computer program stored in a computer-readable recording medium using a recording medium reader (not shown).
  • the processor 11 may acquire (that is, read) a computer program from a device (not shown) arranged outside the authentication system 10 via the network interface.
  • the processor 11 controls the RAM 12, the storage device 14, the input device 15 and the output device 16 by executing the read computer program.
  • the processor 11 implements functional blocks for executing the target authentication process.
  • the processor 11 may be configured as, for example, a CPU (Central Processing Unit), GPU (Graphics Processing Unit), FPGA (Field-Programmable Gate Array), DSP (Demand-Side Platform), and ASIC (Application Specific Integrate).
  • the processor 11 may be configured with one of these, or may be configured to use a plurality of them in parallel.
  • the RAM 12 temporarily stores computer programs executed by the processor 11.
  • the RAM 12 temporarily stores data temporarily used by the processor 11 while the processor 11 is executing the computer program.
  • the RAM 12 may be, for example, a D-RAM (Dynamic RAM).
  • the ROM 13 stores computer programs executed by the processor 11 .
  • the ROM 13 may also store other fixed data.
  • the ROM 13 may be, for example, a P-ROM (Programmable ROM).
  • the storage device 14 stores data that the authentication system 10 saves for a long time.
  • Storage device 14 may act as a temporary storage device for processor 11 .
  • the storage device 14 may include, for example, at least one of a hard disk device, a magneto-optical disk device, an SSD (Solid State Drive), and a disk array device.
  • the input device 15 is a device that receives input instructions from the user of the authentication system 10 .
  • Input device 15 may include, for example, at least one of a keyboard, mouse, and touch panel.
  • the output device 16 is a device that outputs information about the authentication system 10 to the outside.
  • output device 16 may be a display device (eg, display) capable of displaying information about authentication system 10 .
  • the output device 16 may be a speaker capable of outputting information about the authentication system 10 by voice.
  • the camera 20 is a camera installed at a location where an image of the user (for example, an image including the user's face) can be captured.
  • the user here is not limited to humans, and may include animals such as dogs and snakes, robots, and the like.
  • the camera 20 may be a camera that captures still images, or may be a camera that captures moving images.
  • the camera 20 may be configured as a visible light camera or as a near-infrared camera.
  • the camera 20 may be provided in, for example, a mobile terminal or the like.
  • the sensor 21 is a sensor capable of detecting various information used in the system.
  • a plurality of sensors 21 may be provided.
  • a plurality of types of sensors 21 may be provided.
  • the sensor 21 according to this embodiment is particularly configured to include a sensor that detects the imaging angle of the camera 20 .
  • This sensor may be, for example, a gyro sensor or an acceleration sensor.
  • FIG. 1 exemplifies the authentication system 10 including a plurality of devices, all or part of these functions may be realized by one device (authentication device).
  • This authentication device is configured, for example, with only the above-described processor 11, RAM 12, and ROM 13, and other components (that is, storage device 14, input device 15, output device 16, camera 20, and sensor 21) , for example, an external component connected to the authentication device.
  • FIG. 2 is a block diagram showing the functional configuration of the authentication system according to the first embodiment
  • FIG. 3 is a block diagram showing a functional configuration of a modification of the authentication system according to the first embodiment
  • the authentication system 10 includes a face/environment acquisition unit 110, an imaging angle acquisition unit 120, and a registration information storage unit 130 as processing blocks for realizing its functions. , and an authentication execution unit 140 .
  • the face/environment acquisition unit 110, the imaging angle acquisition unit 120, and the authentication execution unit 140 may be implemented by, for example, the above-described processor 11 (see FIG. 1).
  • the registration information storage unit 130 may include, for example, the storage device 14 (see FIG. 1) described above.
  • the face/environment acquisition unit 110 acquires information about the face of the target (hereinafter referred to as “face information” as appropriate) and information about the environment when the image was captured (hereinafter referred to as appropriately referred to as “environmental information”).
  • the environment information is information about things other than the object included in the image (for example, background, scenery, etc.).
  • the image of the object here may be obtained by the camera 20 (see FIG. 1).
  • the face information and environment information may be acquired as face images and environment images (for example, background images and landscape images) themselves, or may be acquired as feature amounts indicating faces and environments. It should be noted that existing techniques can be appropriately employed for a specific method of acquiring face information and environment information from an image, so detailed description thereof will be omitted here.
  • the face information and environment information acquired by the face/environment acquisition unit 110 are configured to be output to the authentication execution unit 140 .
  • the imaging angle acquisition unit 120 is configured to be able to acquire information indicating the angle at which the target image (that is, the image obtained by acquiring the face information and the environment information) (hereinafter referred to as “imaging angle information” as appropriate). It is
  • the imaging angle information may be, for example, information indicating the angle of the terminal that captured the image.
  • the imaging angle may be an angle indicating one value such as "90 degrees", or may be information having a range such as "80 to 90 degrees”.
  • the imaging angle information may be obtained, for example, from a sensor 21 (for example, a gyro sensor) provided in the terminal.
  • the imaging angle information is two-dimensional angle information (for example, information indicating angles on a plane defined by the X-axis and Y-axis: specifically, information indicating angles in the vertical direction and the horizontal direction).
  • three-dimensional angle information for example, information indicating an angle in a three-dimensional space defined by the X-axis, Y-axis, and Z-axis: specifically, vertical direction, horizontal direction, depth direction information indicating the angle of ).
  • the imaging angle information acquired by the imaging angle acquisition unit 120 is configured to be output to the authentication execution unit 140 .
  • the registration information storage unit 130 stores face information, environment information, and imaging angle information in advance as registration information.
  • the registration information may be information acquired by the face/environment acquisition unit 110 and the imaging angle acquisition unit 120 described above. In other words, the registration information may be information acquired from an image of the target captured in advance.
  • the registration information storage unit 130 may store registration information for a plurality of registered users.
  • the registration information storage unit 130 may be configured to update, add, and delete registration information as appropriate.
  • the registration information stored in the registration information storage unit 130 can be read by the authentication execution unit 140 as needed.
  • Authentication execution unit 140 performs authentication based on face information, environment information, and imaging angle information acquired by face/environment acquisition unit 110 and imaging angle acquisition unit 120, and registration information stored in registration information storage unit 130. , is configured to be able to execute target authentication processing.
  • the authentication executing unit 140 may be configured to execute matching processing (for example, processing for determining the degree of matching between acquired information and registered information) using face information, environment information, and imaging angle information. It should be noted that the specific contents of the authentication process will be described in detail in other embodiments that will be described later.
  • the authentication execution unit 140 may be configured to output the result of authentication processing.
  • the authentication system 10 includes a face/environment acquisition unit 110, an imaging angle acquisition unit 120, an authentication execution unit 140, and may be configured with That is, the authentication system 10 may be configured without the registration information storage section 130 described above.
  • the authentication execution unit 140 is configured to be able to execute the target authentication process based only on the face information, the environment information, and the imaging angle information acquired by the face/environment acquisition unit 110 and the imaging angle acquisition unit 120.
  • the authentication execution unit 140 can determine that the environment information or the imaging angle information is abnormal (for example, when the sky or clock is captured while the camera is facing downward, or when the camera is facing upward and The configuration may be such that the authentication process is not executed when the ground is shown in the image even though the user is on the ground.
  • Such an abnormality can be detected by, for example, registering backgrounds (NG backgrounds) that would be strange if captured for each imaging angle, and determining whether or not the acquired environmental information is the NG backgrounds.
  • FIG. 4 is a flow chart showing the operation flow of the authentication system according to the first embodiment.
  • the face/environment obtaining unit 110 first obtains target face information from a target image (step S101).
  • the face/environment acquisition unit 110 also acquires environment information from the target image (step S102).
  • the imaging angle acquisition unit 120 acquires imaging angle information when the image was captured (step S103). It should be noted that the above-described processes for acquiring each piece of information (that is, steps S101 to S103) may be executed in tandem with each other, or may be executed in parallel.
  • the authentication execution unit 140 executes authentication processing based on the acquired face information, environment information, and imaging angle information (step S104). As shown in FIG. 2, when the registration information storage unit 130 is provided, the authentication execution unit 140 may perform authentication processing based on face information, environment information, imaging angle information, and registration information. . On the other hand, as shown in FIG. 3, when the registration information storage unit 130 is provided, the authentication execution unit 140 may perform authentication processing based on face information, environment information, and imaging angle information. The authentication executing unit 140 then outputs the result of the authentication process (for example, information such as "authentication success" or "authentication failure") (step S105). The authentication execution unit 140 may output the authentication result using, for example, a display or a speaker included in the output device 16 (see FIG. 1).
  • target authentication processing is executed based on face information, environment information, and imaging angle information.
  • face information not only the information about the face of the target but also the information about the environment and the imaging angle are used, so that the authentication process can be executed more appropriately.
  • the authentication process can be executed more appropriately.
  • it is possible to detect fraudulent acts such as impersonation.
  • a face image and an environment image for example, a background image
  • fraud such as spoofing by falsifying the face image and the environment image may occur.
  • the authentication system according to the first embodiment in addition to the face image and the environmental image, information about the imaging angle when these images were captured is used, so fraud can be prevented more effectively. can do.
  • FIG. 5 to 7 An authentication system 10 according to the second embodiment will be described with reference to FIGS. 5 to 7.
  • FIG. It should be noted that the second embodiment differs from the above-described first embodiment only in part of the operation, and other parts may be the same as those of the first embodiment. Therefore, in the following, portions different from the already described first embodiment will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 5 is a flow chart showing the flow of operations when recording registration information in the authentication system according to the second embodiment.
  • step S201 when the authentication system 10 according to the second embodiment stores registration information, first an image to be registered is obtained (step S201). Then, the face/environment obtaining unit 110 obtains target face information from the image (step S202). The face/environment acquisition unit 110 also acquires environment information from the target image (step S203). Then, the imaging angle acquisition unit 120 acquires imaging angle information when the image was captured (step S204).
  • the registration information storage unit 130 stores the acquired face information, environment information, and imaging angle information as registration information (step S205).
  • the registration information storage unit 130 determines whether or not all registrations have been completed (step S206). Note that the determination here may be made by determining whether or not the registration of a predetermined number of images has been completed. In other words, it may be determined whether or not the number of registrations has reached a preset number.
  • step S206 If it is determined that all registrations have not been completed (step S206: NO), the process is repeated from step S201. However, in step S201 from the second time onward, an image captured at a different imaging angle from the images captured so far is acquired. That is, the target to be registered is imaged a plurality of times while changing the imaging angle. By repeating such processing, the registration information storage unit 130 stores a plurality of pieces of face information, environment information, and imaging angle information for one subject. Then, if it is determined that all registrations have been completed (step S206: YES), the series of processing ends.
  • FIG. 6 is a diagram showing an example of a plurality of images recorded by the authentication system according to the second embodiment.
  • the example shown in FIG. 6(a) is, for example, the first image of the target.
  • This image contains the subject's face and the surroundings of the clock and calendar.
  • FIG.6(b) is an image of the object imaged for the second time.
  • the imaging angle is shifted to the left (specifically, to the left when viewed from the camera 20) as compared with FIG. 6(a). Therefore, the positions of the clock and calendar, which are the environment, are shifted to the right side of FIG. 6(a).
  • FIG. 6C is an image of the target that is captured for the third time.
  • the imaging angle of this image is shifted to the right (to the right when viewed from the camera 20) as compared with FIG. 6(a). Therefore, the positions of the clock and calendar, which are the environment, are shifted to the left side of FIG. 6(a).
  • a plurality of images with different imaging angles are captured, and face information, environment information, and imaging angle information acquired from these images are registered as registration information. It is stored in the information storage unit 130 .
  • a plurality of images may be captured by shifting the camera 20 in the vertical direction or in an oblique direction, for example. Registration information may also be stored using more than three images.
  • FIG. 7 is a diagram showing a display example when capturing an image in the authentication system according to the second embodiment.
  • an image acquired from the camera 20 may be displayed to the user so that the user can understand what kind of image is captured. good.
  • the current imaging angle (in other words, the value acquired as the imaging angle information) may be displayed superimposed on the captured image.
  • the user can easily know at what angle the image is captured. Therefore, for example, when a specific value of the imaging angle is set as an execution condition of the authentication process (for example, when the authentication process is executed when the imaging angle is 30 degrees), the user can set the current imaging angle An image can be captured while confirming the
  • the numerical value of the imaging angle is displayed, but for example, an indicator or a spirit level indicating the imaging angle may be displayed.
  • registration information is stored using a plurality of images captured while changing the imaging angle.
  • appropriate authentication processing can be executed according to the imaging angle at the time of authentication. Further, in the authentication, if the user can match any one of the registered information, the authentication is completed. Therefore, the user can easily perform the authentication.
  • FIG. 8 An authentication system 10 according to the third embodiment will be described with reference to FIGS. 8 and 9.
  • FIG. 8 It should be noted that the third embodiment may differ from the above-described first and second embodiments only in a part of configuration and operation, and other parts may be the same as those of the first embodiment. Therefore, in the following, portions different from the already described embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 8 is a block diagram showing the functional configuration of an authentication system according to the third embodiment.
  • symbol is attached
  • the authentication system 10 includes a face/environment acquisition unit 110, an imaging angle acquisition unit 120, and a registration information storage unit 130 as processing blocks for realizing its functions. , and an authentication execution unit 140 .
  • the authentication executing section 140 includes a face matching section 141 , an environment selecting section 142 and an environment matching section 143 .
  • the functions of the face matching unit 141, the environment selecting unit 142, and the environment matching unit 143 described above may be implemented by separate devices.
  • the function of the face matching unit 141 may be implemented by an edge terminal (for example, a smartphone), and the functions of the environment selecting unit 142 and the environment matching unit 143 may be implemented by the cloud (cloud server).
  • the face matching unit 141 performs matching processing between face information acquired from a target image (that is, a target face to be authenticated) and face information stored as registration information (that is, a pre-registered face). is configured to be executable. For example, the face matching unit 141 may be configured to determine that the face information matches when the degree of matching between the acquired face information and the stored face information is equal to or greater than a predetermined threshold. .
  • the environment selection unit 142 is configured to be able to select environment information corresponding to the imaging angle information from the registered information according to the imaging angle information when the target image was captured.
  • the registration information storage unit 130 stores the environment information and the imaging angle information in a linked state. Therefore, the environment selection unit 142 can use the acquired imaging angle information to select environment information corresponding to the imaging angle.
  • the environment selection unit 142 may select environment information associated with imaging angle information closest to the acquired imaging angle information. Note that the environment selection unit 142 typically selects one piece of environment information according to the imaging angle, but if there are multiple pieces of environment information with close imaging angles, it selects all of the pieces of environment information. may
  • the environment image and the position information may be stored in advance in a state of being associated with each other.
  • selecting environmental information for example, according to the position information acquired by the GPS function of the smartphone, narrow down the environmental information corresponding to the position information from among a plurality of environmental information, and further use the imaging angle information to select the environment information. Information may be narrowed down.
  • the target identified by face authentication is linked.
  • the obtained environmental images may be narrowed down, and then the environmental information may be further narrowed down using the imaging angle information.
  • the environment matching unit 143 selects the environment information acquired from the target image (i.e., the environment of the target to be authenticated) and the environment information selected by the environment selection unit 142 (i.e., among the pre-registered environment information, It is configured to be able to execute matching processing with (environmental information of an image captured at an imaging angle close to the current imaging angle). For example, the environment matching unit 143 may be configured to determine that the environment information matches when the degree of matching between the acquired environment information and the selected environment information is equal to or greater than a predetermined threshold.
  • FIG. 9 is a flow chart showing the operation flow of the authentication system according to the third embodiment.
  • the same reference numerals are assigned to the same processes as those shown in FIG.
  • the face/environment acquiring unit 110 first acquires target face information from a target image (step S101).
  • the face/environment acquisition unit 110 also acquires environment information from the target image (step S102).
  • the imaging angle acquisition unit 120 acquires imaging angle information when the image was captured (step S103). It should be noted that the above-described processes for acquiring each piece of information (that is, steps S101 to S103) may be executed in tandem with each other, or may be executed in parallel.
  • the face matching unit 141 performs matching processing between the acquired face information and the registered face information (step S301). If the face information does not match, the processing of steps S302 and S303 may be omitted, and the result of authentication failure may be output.
  • the environment selection unit 142 selects environment information corresponding to the acquired imaging angle information (step S302). Then, the environment matching unit 143 performs matching processing between the acquired environment information and the selected environment information (step S303). Note that the processes of steps S301 to S303 described above may be executed one behind the other, or may be executed in parallel.
  • the authentication execution unit 140 outputs the result of the authentication process (step S304). Specifically, when the face information matching process by the face matching part 141 and the environment information matching process by the environment matching part 143 are both successful (that is, match), the authentication execution unit 140 performs the authentication process. It may output a result indicating success. On the other hand, the authentication executing unit 140 determines that the authentication processing fails when either the face information matching processing by the face matching unit 141 or the environment information matching processing by the environment matching unit 143 fails (that is, they do not match). You may output a result indicating that
  • an environment corresponding to the imaging angle is first selected, and authentication processing using that environment is executed. By doing so, it is possible to perform appropriate authentication processing in consideration of environmental changes due to differences in imaging angles.
  • the authentication execution unit 140 may be configured without the environment selection unit 142 (that is, may be configured with only the face matching unit 141 and the environment matching unit 143).
  • the environment matching unit 143 may perform matching processing with all registered environment information.
  • the authentication system 10 according to the third embodiment described above may be implemented in combination with the authentication system 10 according to the second embodiment (that is, a configuration for capturing images from a plurality of angles).
  • FIG. 10 An authentication system 10 according to the fourth embodiment will be described with reference to FIGS. 10 and 11.
  • FIG. 10 It should be noted that the fourth embodiment may differ from the above-described first to third embodiments only in a part of configuration and operation, and other parts may be the same as those of the first to third embodiments. Therefore, in the following, portions different from the already described embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 10 is a block diagram showing a functional configuration of an authentication system according to the fourth embodiment.
  • symbol is attached
  • the authentication system 10 includes a face/environment acquisition unit 110, an imaging angle acquisition unit 120, and a registration information storage unit 130 as processing blocks for realizing the functions thereof. , and an authentication execution unit 140 .
  • the authentication execution unit 140 includes a face matching unit 141, an environment matching unit 143, and an imaging angle matching unit 144.
  • An authentication execution unit 140 according to the fourth embodiment does not include the environment selection unit 142 (see FIG. 8) described in the third embodiment, but includes an imaging angle matching unit 144 .
  • the imaging angle matching unit 144 collates the acquired imaging angle information (that is, the imaging angle when the image for authentication was captured) with the registered imaging angle information (preliminarily stored imaging angle). It is configured to be able to execute processing.
  • the imaging angle matching unit 144 is configured to determine that the imaging angle information matches when the difference between the acquired imaging angle information and the stored imaging angle information is equal to or less than a predetermined threshold value, for example. may be
  • FIG. 11 is a flow chart showing the operation flow of the authentication system according to the fourth embodiment.
  • the same reference numerals are given to the same processes as those shown in FIG.
  • the face/environment obtaining unit 110 first obtains target face information from a target image (step S101).
  • the face/environment acquisition unit 110 also acquires environment information from the target image (step S102).
  • the imaging angle acquisition unit 120 acquires imaging angle information when the image was captured (step S103). It should be noted that the above-described processes for acquiring each piece of information (that is, steps S101 to S103) may be executed in tandem with each other, or may be executed in parallel.
  • the face matching unit 141 performs matching processing between the acquired face information and the registered face information (step S401).
  • the environment matching unit 143 performs matching processing between the acquired environment information and the registered environment information (step S402).
  • the environment information corresponding to the imaging angle is not selected. .
  • the imaging angle matching unit 144 performs matching processing between the acquired imaging angle information and the registered imaging angle information (step S403).
  • the imaging angle matching unit 144 may determine, for example, whether or not the acquired imaging angle matches the imaging angle information associated with the face information or the environment information that matches in the above-described matching process. Note that the processes of steps S401 to S403 described above may be executed one behind the other, or may be executed in parallel.
  • the authentication execution unit 140 outputs the result of the authentication process (step S404). Specifically, the authentication executing unit 140 succeeds in matching processing of face information by the face matching unit 141, matching processing of environment information by the environment matching unit 143, and matching processing of imaging angle information by the imaging angle matching unit 144. If yes (ie match), a result may be output indicating that the authentication process was successful. On the other hand, the authentication executing unit 140 determines that any of the face information matching processing by the face matching unit 141, the environment information matching processing by the environment matching unit 143, and the imaging angle information matching processing by the imaging angle matching unit 144 has failed ( ie, they do not match), a result indicating that the authentication process has failed may be output.
  • matching processing is performed on each of face information, environment information, and imaging angle information. By doing so, it is possible to increase the security strength of the authentication process and appropriately prevent fraud due to impersonation or the like.
  • FIG. 12 An authentication system 10 according to the fifth embodiment will be described with reference to FIGS. 12 and 13.
  • FIG. 12 It should be noted that the fifth embodiment may differ from the first to fourth embodiments described above only in a part of the configuration and operation, and the other parts may be the same as those of the first to fourth embodiments. Therefore, in the following, portions different from the already described embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 12 is a block diagram showing the functional configuration of an authentication system according to the fifth embodiment.
  • symbol is attached
  • the authentication system 10 includes a face/environment acquisition unit 110, an imaging angle acquisition unit 120, and a registration information storage unit 130 as processing blocks for realizing its functions. , and an authentication execution unit 140 .
  • the face/environment acquisition unit 110 and the imaging angle acquisition unit 120 obtain face information, environment information, and imaging from the first imaging unit 210 and the second imaging unit 220, respectively. It is configured to be able to acquire angle information.
  • the first imaging section 210 and the second imaging section 220 are configured as imaging sections having mutually different imaging ranges. Specifically, the first imaging section 210 has a first imaging range. The second imaging section 220 has a second imaging range different from the first imaging range. The first imaging unit 210 and the second imaging unit 220 can, for example, simultaneously perform imaging to capture two images with different imaging ranges. The first imaging unit 210 and the second imaging unit 220 may be configured as an in-camera and an out-camera included in a common terminal (eg, smart phone), for example. Note that the target may be included in at least one of the image captured by the first imaging unit 210 and the image captured by the second imaging unit 220 . That is, one of the image captured by the first imaging unit 210 and the image captured by the second imaging unit 220 may be an image including only the environment portion.
  • FIG. 13 is a flow chart showing the operation flow of the authentication system according to the fifth embodiment.
  • the same reference numerals are given to the same processes as those shown in FIG.
  • images are first acquired from each of the first imaging unit 210 and the second imaging unit 220 (step S501).
  • first image the image captured by the first imaging section 210
  • second image the image captured by the second imaging section 220
  • the face/environment acquiring unit 110 acquires target face information from at least one of the first image and the second image (step S502).
  • the face/environment acquisition unit 110 also acquires environment information from each of the first image and the second image (step S503).
  • the face/environment acquiring unit 110 may acquire only the target face information from the first image and acquire only the environment information from the second image.
  • the imaging angle acquisition unit 120 acquires imaging angle information when the first image and the second image are captured (step S504). Note that when the relative angle between the first imaging unit 210 and the second imaging unit 220 is fixed, the imaging angle acquisition unit 120 acquires one imaging angle common to the first image and the second image. can be
  • the authentication execution unit 140 executes authentication processing based on the face information, the environment information, and the imaging angle information acquired from the first and second images, and the registration information (step S505). Then, the authentication executing unit 140 determines whether or not the authentication has succeeded with both the first image and the second image (step S506). That is, the results of the authentication processing of the face information, environment information, and imaging angle information acquired from the first image and the authentication processing of the face information, environment information, and imaging angle information acquired from the second image are all successful. determine whether or not
  • step S506 If the authentication has succeeded in both the first image and the second image (step S506: YES), the authentication execution unit 140 outputs information indicating that the authentication process has succeeded (step S507). On the other hand, if the authentication fails for at least one of the first image and the second image (step S506: NO), the authentication execution unit 140 outputs information indicating that the authentication processing has failed (step S508).
  • images may be acquired from three or more imaging units, for example.
  • similar authentication processing may be performed using a plurality of images captured by the respective imaging units.
  • authentication processing is executed using a plurality of images captured by different imaging units. In this way, since it is required that the authentication processing is successful for a plurality of images, it is possible to increase the security strength as compared with the case where the authentication processing is executed with only one image.
  • FIG. 14 and 15 An authentication system 10 according to the sixth embodiment will be described with reference to FIGS. 14 and 15.
  • FIG. It should be noted that the sixth embodiment may differ from the first to fifth embodiments described above only in part of the operation, and the other parts may be the same as those of the first to fifth embodiments. Therefore, in the following, portions different from the already described embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 14 is a block diagram showing the functional configuration of an authentication system according to the sixth embodiment.
  • symbol is attached
  • the authentication system 10 includes a face/environment acquisition unit 110, an imaging angle acquisition unit 120, and a registration information storage unit 130 as processing blocks for realizing its functions. , and an authentication execution unit 140 .
  • the authentication executing section 140 includes the imaging angle difference calculating section 145 .
  • the imaging angle difference calculation unit 145 is configured to be able to calculate differences in imaging angle information corresponding to a plurality of images captured at different timings. Specifically, the imaging angle difference calculation unit 145 can calculate the difference between the imaging angle information of the first image captured at the first timing and the imaging angle information of the second image captured at the second timing. is configured to The difference in the imaging angle information calculated here is information indicating how the user moved the camera 20 when capturing a plurality of images. For example, when the first image is captured at 90 degrees in the vertical direction and 0 degrees in the horizontal direction, and the second image is captured at 80 degrees in the vertical direction and 0 degrees in the horizontal direction, the imaging angle information The difference is calculated as 10 degrees vertically.
  • the authentication execution unit 140 can execute authentication processing using the difference in the imaging angle information calculated as described above.
  • the authentication execution unit 140 may determine, for example, whether the difference in the imaging angle information matches the registration information. For example, the authentication execution unit 140 may determine whether or not the user moved the camera 20 as registered when capturing the first image and the second image. In this case, the authentication execution unit 140 determines that the authentication is successful when the user moves the camera as registered (that is, when the difference in the imaging angle information matches the registered information), and It may be determined that authentication has failed when the camera is not moved to the right position (that is, when the difference in the imaging angle information is different from the registered information). Note that the authentication execution unit 140 may perform authentication processing using the imaging angle information itself in addition to the imaging angle information.
  • FIG. 15 is a flow chart showing the operation flow of the authentication system according to the sixth embodiment.
  • step S601 the first image of the object captured at the first timing is obtained (step S601). After that, a second image of the object captured at a second timing different from the first timing is obtained (step S602).
  • the face/environment acquisition unit 110 acquires the target's face information from the acquired first and second images of the target (step S603).
  • the face/environment obtaining unit 110 also obtains environment information from the obtained first and second images of the target (step S604).
  • the imaging angle acquisition unit 120 acquires imaging angle information when the first image and the second image of the object are captured (step S605). Note that the processes of steps S603 to S605 described above may be executed one behind the other, or may be executed in parallel.
  • the imaging angle difference calculation unit 145 calculates the difference between the imaging angle information of the first image and the imaging angle information of the second image (step S606). Then, the authentication executing unit 140 executes authentication processing based on the difference between the face information, environment information, and imaging angle information acquired from the target image, and the registration information (step S607). After that, the authentication executing unit 140 outputs the result of the authentication processing (step S608).
  • authentication is performed based on differences in imaging angles of a plurality of images captured at different timings. Processing is performed. In this way, since how to change the imaging angle is also taken into consideration when capturing a plurality of images, the authentication process can be executed more appropriately.
  • FIG. 16 and 17 An authentication system 10 according to the seventh embodiment will be described with reference to FIGS. 16 and 17.
  • FIG. It should be noted that the seventh embodiment may differ from the first to sixth embodiments described above only in part of the operation, and may be the same as the first to sixth embodiments in other respects. Therefore, in the following, portions different from the already described embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 17 is a block diagram showing the functional configuration of an authentication system according to the seventh embodiment.
  • symbol is attached
  • the authentication system 10 includes a face/environment acquisition unit 110, an imaging angle acquisition unit 120, and a registration information storage unit 130 as processing blocks for realizing the functions thereof. , and an authentication execution unit 140 .
  • the authentication executing section 140 includes a time-series change calculating section 146 .
  • the time-series change calculation unit 146 can calculate changes in environmental information and changes in imaging angle information for a plurality of time-series images captured in time series (typically, images of each frame of a moving image). It is configured. Specifically, the time-series change calculation unit 146 may calculate how the environmental information in the time-series images has changed (for example, how the background information has changed over time). . In addition, the time-series change calculation unit 146 calculates how the imaging angle information in the time-series images has changed (for example, how the angle of the camera 20 has changed over time). good.
  • the authentication execution unit 140 executes authentication processing using changes in the environment information and changes in the imaging angle information described above. For example, the authentication execution unit 140 may determine whether or not the background of the image correctly changes according to the movement of the camera 20 . More specifically, when the camera is moved in the right direction, it may be determined whether an object that was present on the right side is reflected in the image. Further, the authentication execution unit 140 may determine whether or not the imaging angle has the expected value when the background changes. More specifically, when the background changes little by little, it is determined whether the imaging angle information correctly changes to 88 degrees, 89 degrees, and 90 degrees (in other words, the angle becomes an abnormal value). or whether there is a sudden change).
  • FIG. 17 is a flow chart showing the operation flow of the authentication system according to the seventh embodiment.
  • time-series images are acquired (step S701).
  • the time-series images may be acquired collectively after capturing all the time-series images, or may be acquired sequentially during the image capturing.
  • the face/environment acquisition unit 110 acquires target face information from the acquired time-series images (step S702).
  • the face/environment acquisition unit 110 also acquires environment information from the acquired time-series images (step S704).
  • the imaging angle acquisition unit 120 acquires imaging angle information when the time-series images were captured (step S705). Note that the processes of steps S702 to S705 described above may be executed one behind the other, or may be executed in parallel.
  • the time series change calculation unit 146 calculates changes in time series of the time series images (specifically, changes in environmental information and changes in imaging angle information) (step S705). Then, the authentication executing unit 140 executes authentication processing based on the face information, the change in the environment information, the change in the imaging angle information, and the registration information acquired from the target image (step S706). After that, the authentication executing unit 140 outputs the result of the authentication processing (step S707).
  • the authentication process in addition to face information, based on time-series changes in environment information and time-series changes in imaging angle information, Authentication processing is performed. In this way, since how the environmental information has changed and how the imaging angle has changed are also taken into consideration when capturing the time-series images, the authentication process can be performed more appropriately. can do.
  • FIG. 18 An authentication system 10 according to the eighth embodiment will be described with reference to FIGS. 18 and 19.
  • FIG. It should be noted that the eighth embodiment may differ from the above-described first to seventh embodiments only in a part of the configuration and operation, and the other parts may be the same as those of the first to seventh embodiments. . Therefore, in the following, portions different from the already described embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 18 is a block diagram showing the functional configuration of an authentication system according to the eighth embodiment.
  • the same reference numerals are given to the same elements as those shown in FIG.
  • the authentication system 10 according to the eighth embodiment includes a face/environment acquisition unit 110, an imaging angle acquisition unit 120, and a registration information storage unit 130 as processing blocks for realizing its functions. , an authentication execution unit 140, and a position acquisition unit 150. That is, the authentication system 10 according to the eighth embodiment further includes a position acquisition unit 150 in addition to the configuration of the first embodiment (see FIG. 2).
  • the position acquisition unit 150 is configured to be able to acquire information about the position at which the target image was captured (hereinafter referred to as "position information" as appropriate).
  • the position acquisition unit 150 may be configured to acquire position information of a terminal that captures an image, for example.
  • the position acquisition unit 150 may be configured to acquire position information using, for example, GPS (Global Positioning System).
  • the position information acquired by the position acquisition unit 150 is configured to be output to the authentication execution unit 140 .
  • FIG. 19 is a flow chart showing the operation flow of the authentication system according to the eighth embodiment.
  • the same reference numerals are given to the same processes as those shown in FIG.
  • the face/environment obtaining unit 110 first obtains target face information from a target image (step S101).
  • the face/environment acquisition unit 110 also acquires environment information from the target image (step S102).
  • the imaging angle acquisition unit 120 acquires imaging angle information when the image was captured (step S103). It should be noted that the above-described processes for acquiring each piece of information (that is, steps S101 to S103) may be executed in tandem with each other, or may be executed in parallel.
  • the position acquisition unit 150 acquires position information when the target image is captured (step S701).
  • the process of acquiring position information may be executed before or after the process of acquiring other information (that is, steps S101 to S103), or may be executed in parallel.
  • the authentication execution unit 140 executes authentication processing based on the acquired face information, environment information, imaging angle information, position information, and registration information (step S702).
  • the authentication executing unit 140 then outputs the result of the authentication process (step S703).
  • the registration information according to this embodiment includes position information in addition to face information, environment information, and imaging angle information. Therefore, in the authentication process, matching processing between the acquired position information and the registered position information may be executed.
  • the position information is information for narrowing down other information (that is, face information, environment information, and imaging angle information) (for example, for selecting information to be used for matching, such as the imaging angle information in the third embodiment). information).
  • the authentication system 10 executes authentication processing using position information in addition to face information, environment information, and imaging angle information. In this way, authentication processing can be executed more appropriately than when position information is not used (that is, when only face information, environment information, and imaging angle information are used).
  • FIG. 10 An authentication system 10 according to the ninth embodiment will be described with reference to FIGS. 20 to 23.
  • FIG. 20 is a block diagram showing the functional configuration of an authentication system according to the ninth embodiment.
  • symbol is attached
  • the authentication system 10 according to the ninth embodiment includes a face/environment acquisition unit 110, an imaging angle acquisition unit 120, and a registration information storage unit 130 as processing blocks for realizing its functions. , an authentication execution unit 140, and a notification unit 160. That is, the authentication system 10 according to the ninth embodiment further includes a notification unit 160 in addition to the configuration of the first embodiment (see FIG. 2).
  • the notification unit 160 is configured to be able to notify the subject to be authenticated to change the conditions for capturing an image. More specifically, the notification unit 160 causes the authentication execution unit 140 to detect that the acquired face information and the registered face information match (that is, the face matching is successful), while the acquired environment information or image It is configured to notify when the angle information does not match the registered environment information or imaging angle information (that is, when the environment collation or imaging angle collation is unsuccessful).
  • the notification unit 160 may perform notification using, for example, a display or a speaker included in the output device 16 (see FIG. 1). Also, the notification unit 160 may notify the user together with the result of the authentication process.
  • FIG. 21 is a diagram (Part 1) showing a display example in the authentication system according to the ninth embodiment.
  • FIG. 22 is a diagram (part 2) showing a display example in the authentication system according to the ninth embodiment.
  • FIG. 22 is a diagram (part 3) showing a display example in the authentication system according to the ninth embodiment.
  • authentication processing fails because the environment and imaging angle are different from those at the time of registration. In this case, if the subject is the person himself/herself, there is a high possibility that the authentication will be successful by changing the imaging angle and retaking the photographing. Therefore, it is possible to avoid a situation in which the person himself/herself is rejected.
  • the message "Please turn the camera slightly to the left so that the clock can be seen.” is displayed. ing.
  • Such a notification is made in a situation where matching of the target's face is successful, but matching of the environment and imaging angle is unsuccessful.
  • the target is likely to be a registered user, authentication processing fails due to a slight deviation in the environment or imaging angle.
  • the subject is the person himself/herself, there is a high possibility that the authentication will be successful by changing the angle of the camera according to the message and retaking the image. Therefore, it is possible to avoid a situation in which the person himself/herself is rejected.
  • a message "The environment is different from the one registered. Please move to another location and shoot.” It is Such notification occurs in situations where the subject's face match is successful, but the environment match is unsuccessful. In other words, the target is likely to be a registered user, but the authentication process fails due to a different environment. In this case, if the subject is the person himself/herself, there is a high possibility that the authentication will be successful by moving the camera according to the message and retaking the image. Therefore, it is possible to avoid a situation in which the person himself/herself is rejected.
  • the subject is notified of the imaging method (output of guidance information). ) is performed. In this way, even if authentication failure occurs due to a difference in imaging conditions, guidance can be given to the subject and appropriate imaging can be performed. Therefore, it is possible to avoid a situation in which authentication fails even though the target is a registered user.
  • FIG. 10 An authentication system 10 according to the tenth embodiment will be described with reference to FIGS. 24 and 25.
  • FIG. The authentication system 10 according to the tenth embodiment differs from the above-described ninth embodiment only in a part of configuration and operation, and other parts are the same as those in the first to ninth embodiments. you can Therefore, in the following, portions different from the already described embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 24 is a block diagram showing a functional configuration of an authentication system according to the tenth embodiment.
  • symbol is attached
  • the authentication system 10 includes a face/environment acquisition unit 110, an imaging angle acquisition unit 120, and a registration information storage unit 130 as processing blocks for realizing its functions. , an authentication execution unit 140 , a notification unit 160 , and a stereoscopic determination unit 170 . That is, the authentication system 10 according to the tenth embodiment further includes a stereoscopic determination unit 170 in addition to the configuration of the ninth embodiment (see FIG. 20).
  • the 3D determination unit 170 is configured to be able to determine whether or not the target face is 3D (for example, whether or not the face is on a plane such as a piece of paper or a display). Specifically, the stereoscopic determination unit 170 determines the face information acquired before the notification by the notification unit 160 (in other words, the face information acquired from the image captured before the notification by the notification unit 160). ) and the face information acquired after the notification by the notification unit 160 (in other words, the face information acquired from the image captured after the notification by the notification unit 160) is used to determine the target face is configured to be able to determine whether or not is three-dimensional.
  • an image captured before notification (hereinafter referred to as a “pre-notification image” as appropriate) and an image captured after notification (hereinafter referred to as a “post-notification image” as appropriate) are As a result, images are taken at different angles.
  • the stereoscopic determination unit 170 determines whether or not the target face is stereoscopic using the pre-notification image and the post-notification image having different imaging angles.
  • the 3D determination unit 170 is configured to be able to determine whether or not the target face is 3D using a plurality of images taken from different angles, instead of the pre-notification image and the post-notification image. good too.
  • FIG. 25 is a flow chart showing the flow of the stereoscopic determination operation in the authentication system according to the tenth embodiment.
  • the stereoscopic determination unit 170 in the authentication system 10 first acquires the face information of the pre-notification image (step S901).
  • the face information of the pre-notification image may be acquired before the notification by the notification unit 160 is performed, or may be acquired after the notification is performed.
  • the stereoscopic determination unit 170 also acquires the face information of the post-notification image (step S902).
  • the 3D determination unit 170 determines whether or not the target face is 3D based on the face information of the pre-notification image and the face information of the post-notification image (step S903). Then, the stereoscopic determination unit 170 outputs the determination result (that is, information indicating whether or not the target face is stereoscopic) (step S904).
  • the determination result by the stereoscopic determination unit 170 may be output to the authentication execution unit 140, for example.
  • the authentication executing section 140 may execute authentication processing based on the determination result of the stereoscopic determining section 170 .
  • the determination result by the stereoscopic determination unit 170 may be output as information different from the authentication result of the authentication execution unit 140 .
  • the determination result by the stereoscopic determination unit 170 may be output from the output device 16 (for example, display, speaker, etc.).
  • the authentication system 10 uses the pre-notification image and the post-notification image to determine whether or not the target face is three-dimensional. In this way, it is possible to determine whether or not the face of the target is three-dimensional (in other words, whether or not the target is genuine). It is possible to
  • a processing method of recording a program for operating the configuration of each embodiment so as to realize the functions of each embodiment described above on a recording medium, reading the program recorded on the recording medium as a code, and executing it on a computer is also implemented. Included in the category of form. That is, a computer-readable recording medium is also included in the scope of each embodiment. In addition to the recording medium on which the above program is recorded, the program itself is also included in each embodiment.
  • a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, CD-ROM, magnetic tape, non-volatile memory card, and ROM can be used as recording media.
  • the program recorded on the recording medium alone executes the process, but also the one that operates on the OS and executes the process in cooperation with other software and functions of the expansion board. included in the category of
  • the authentication system includes a first acquisition unit that acquires face information and environment information of the target from an image including the target, and acquires imaging angle information that is information indicating the angle at which the image was captured.
  • the authentication system includes a second acquisition unit, and an authentication execution unit that executes authentication processing of the target based on the acquired face information, environment information, and imaging angle information.
  • the authentication system includes storage means for pre-storing the face information, the environment information, and the imaging angle information obtained by performing imaging a plurality of times with different imaging angles as registration information. Further, the storage means stores a plurality of the environment information and the imaging angle information in a linked state, and the authentication execution means registers the environment information according to the acquired imaging angle information. The authentication process is successful when the acquired environment information matches the selected environment information and the acquired face information matches the registered face information. It is an authentication system according to Supplementary Note 1 that determines that
  • the first acquisition means acquires a plurality of pieces of the face information from a first imaging unit having a first imaging range, and obtains a second imaging range different from the first imaging range.
  • the second acquisition means acquires the imaging angle information when the first imaging unit and the second imaging unit capture the image, and the Authentication according to Supplementary Note 1 or 2, wherein authentication execution means executes the authentication process based on the face information, the environment information, and the imaging angle information acquired from the first acquisition means and the second acquisition means.
  • the first acquisition means obtains the face information and the environment information from a first image captured at a first timing and a second image captured at a second timing.
  • the second acquisition means acquires the imaging angle information when the first image and the second image are taken, and the authentication execution means acquires from the first image and the second image any one of Supplements 1 to 3, wherein the authentication process is performed based on the acquired face information, the environment information, and the difference between the imaging angle information of the first image and the imaging angle information of the second image.
  • the first acquisition means acquires the face information and the environment information from a plurality of time-series images taken in time series
  • the second acquisition means acquires the time-series Acquiring the imaging angle information when each of the images is captured
  • the authentication execution means based on the time-series changes in the face information and the environment information, and the time-series changes in the imaging angle information, 4.
  • the authentication system according to any one of appendices 1 to 3, which performs the authentication process.
  • the authentication system further includes third acquisition means for acquiring position information when the image is captured, and the storage means stores the face information, the environment information, and the imaging angle information in addition to the , the position information is stored as the registration information, and the authentication executing means, based on the obtained face information, the environment information, the imaging angle information, the position information, and the registration information, 6.
  • the authentication system according to any one of appendices 2 to 5, which performs authentication processing.
  • appendix 7 In the authentication system according to appendix 7, in the authentication process, the acquired face information matches the registered face information, while the acquired environment information or the imaging angle information and the registered environment information 7.
  • the authentication system according to Supplementary Note 8 uses the face information acquired before the notification by the notification means and the face information acquired after the notification by the notification means to identify the face of the target in three dimensions.
  • the authentication device includes a first acquisition unit that acquires face information and environment information of the target from an image including the target, and acquires imaging angle information that is information indicating the angle at which the image was captured.
  • the authentication apparatus includes a second acquisition unit, and an authentication execution unit that executes authentication processing of the target based on the acquired face information, environment information, and imaging angle information.
  • the authentication method according to appendix 10 acquires face information and environment information of the target from an image including the target, acquires imaging angle information when the image is captured, acquires the acquired face information, the environment information, and an authentication method for executing authentication processing of the object based on the imaging angle information.
  • the computer acquires face information and environment information of the target from an image including the target, acquires imaging angle information that is information indicating the angle at which the image was captured, and acquires and a recording medium recording a computer program for executing an authentication method for executing authentication processing of the target based on the face information, the environment information, and the imaging angle information.
  • appendix 12 The computer program according to appendix 12 causes the computer to acquire face information and environment information of the target from an image including the target, acquire imaging angle information that is information indicating the angle at which the image was captured, and acquire a computer program for executing an authentication method for executing authentication processing of the target based on the face information, the environment information, and the imaging angle information obtained by the method;

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)

Abstract

認証システム(10)は、対象を含む画像から対象の顔情報及び環境情報を取得する第1取得手段(110)と、画像を撮像した際の撮像角度情報を取得する第2取得手段(120)と、取得した顔情報、環境情報、及び撮像角度情報に基づいて、対象の認証処理を実行する認証実行手段(140)と、を備える。このような認証システムによれば、対象の認証処理を適切に実行することが可能である。

Description

認証システム、認証装置、認証方法、及び記録媒体
 この開示は、対象の認証を行う認証システム、認証装置、認証方法、及び記録媒体の技術分野に関する。
 この種のシステムとして、顔認証において顔以外の情報を用いるものが知られている。例えば特許文献1では、利用者を撮像した際の背景画像を用いる技術が開示されている。特許文献2では、背景画像を用いることでなりすましを防止する技術が開示されている。特許文献3では、顔周辺に位置する物体の特徴量を照合する技術が開示されている。
特開2004-362079号公報 特開2007-011456号公報 特開2013-191066号公報
 この開示は、先行技術文献に開示された技術を改善することを目的とする。
 この開示の認証システムの一の態様は、対象を含む画像から前記対象の顔情報及び環境情報を取得する第1取得手段と、前記画像を撮像した際の角度を示す情報である撮像角度情報を取得する第2取得手段と、取得した前記顔情報、前記環境情報、及び前記撮像角度情報に基づいて、前記対象の認証処理を実行する認証実行手段と、を備える。
 この開示の認証装置の一の態様は、対象を含む画像から前記対象の顔情報及び環境情報を取得する第1取得手段と、前記画像を撮像した際の角度を示す情報である撮像角度情報を取得する第2取得手段と、取得した前記顔情報、前記環境情報、及び前記撮像角度情報に基づいて、前記対象の認証処理を実行する認証実行手段と、を備える認証装置。
 この開示の認証方法の一の態様は、対象を含む画像から前記対象の顔情報及び環境情報を取得し、前記画像を撮像した際の角度を示す情報である撮像角度情報を取得し、取得した前記顔情報、前記環境情報、及び前記撮像角度情報に基づいて、前記対象の認証処理を実行する。
 この開示の記録媒体の一の態様は、コンピュータに、対象を含む画像から前記対象の顔情報及び環境情報を取得し、前記画像を撮像した際の角度を示す情報である撮像角度情報を取得し、取得した前記顔情報、前記環境情報、及び前記撮像角度情報に基づいて、前記対象の認証処理を実行する認証方法を実行させるコンピュータプログラムが記録されている。
第1実施形態に係る認証システムのハードウェア構成を示すブロック図である。 第1実施形態に係る認証システムの機能的構成を示すブロック図である。 第1実施形態に係る認証システムの変形例の機能的構成を示すブロック図である。 第1実施形態に係る認証システムの動作の流れを示すフローチャートである。 第2実施形態に係る認証システムにおける登録情報を記録する際の動作の流れを示すフローチャートである。 第2実施形態に係る認証システムで記録される複数の画像の一例を示す図である。 第2実施形態に係る認証システムにおける画像を撮像する際の表示例を示す図である。 第3実施形態に係る認証システムの機能的構成を示すブロック図である。 第3実施形態に係る認証システムの動作の流れを示すフローチャートである。 第4実施形態に係る認証システムの機能的構成を示すブロック図である。 第4実施形態に係る認証システムの動作の流れを示すフローチャートである。 第5実施形態に係る認証システムの機能的構成を示すブロック図である。 第5実施形態に係る認証システムの動作の流れを示すフローチャートである。 第6実施形態に係る認証システムの機能的構成を示すブロック図である。 第6実施形態に係る認証システムの動作の流れを示すフローチャートである。 第7実施形態に係る認証システムの機能的構成を示すブロック図である。 第7実施形態に係る認証システムの動作の流れを示すフローチャートである。 第8実施形態に係る認証システムの機能的構成を示すブロック図である。 第8実施形態に係る認証システムの動作の流れを示すフローチャートである。 第9実施形態に係る認証システムの機能的構成を示すブロック図である。 第9実施形態に係る認証システムにおける表示例を示す図(その1)である。 第9実施形態に係る認証システムにおける表示例を示す図(その2)である。 第9実施形態に係る認証システムにおける表示例を示す図(その3)である。 第10実施形態に係る認証システムの機能的構成を示すブロック図である。 第10実施形態に係る認証システムにおける立体判定動作の流れを示すフローチャートである。
 以下、図面を参照しながら、認証システム、認証装置、認証方法、及び記録媒体の実施形態について説明する。
 <第1実施形態>
 第1実施形態に係る認証システムについて、図1から図4を参照して説明する。
 (ハードウェア構成)
 まず、図1を参照しながら、第1実施形態に係る認証システム10のハードウェア構成について説明する。図1は、第1実施形態に係る認証システムのハードウェア構成を示すブロック図である。
 図1に示すように、第1実施形態に係る認証システム10は、プロセッサ11と、RAM(Random Access Memory)12と、ROM(Read Only Memory)13と、記憶装置14とを備えている。認証システム10は更に、入力装置15と、出力装置16と、カメラ20と、センサ21と、を備えていてもよい。プロセッサ11と、RAM12と、ROM13と、記憶装置14と、入力装置15と、出力装置16と、カメラ20と、センサ21とは、データバス17を介して接続されている。
 プロセッサ11は、コンピュータプログラムを読み込む。例えば、プロセッサ11は、RAM12、ROM13及び記憶装置14のうちの少なくとも一つが記憶しているコンピュータプログラムを読み込むように構成されている。或いは、プロセッサ11は、コンピュータで読み取り可能な記録媒体が記憶しているコンピュータプログラムを、図示しない記録媒体読み取り装置を用いて読み込んでもよい。プロセッサ11は、ネットワークインタフェースを介して、認証システム10の外部に配置される不図示の装置からコンピュータプログラムを取得してもよい(つまり、読み込んでもよい)。プロセッサ11は、読み込んだコンピュータプログラムを実行することで、RAM12、記憶装置14、入力装置15及び出力装置16を制御する。本実施形態では特に、プロセッサ11が読み込んだコンピュータプログラムを実行すると、プロセッサ11内には、対象の認証処理を実行するための機能ブロックが実現される。
 プロセッサ11は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(field-programmable gate array)、DSP(Demand-Side Platform)、ASIC(Application Specific Integrated Circuit)として構成されてよい。プロセッサ11は、これらのうち一つで構成されてもよいし、複数を並列で用いるように構成されてもよい。
 RAM12は、プロセッサ11が実行するコンピュータプログラムを一時的に記憶する。RAM12は、プロセッサ11がコンピュータプログラムを実行している際にプロセッサ11が一時的に使用するデータを一時的に記憶する。RAM12は、例えば、D-RAM(Dynamic RAM)であってもよい。
 ROM13は、プロセッサ11が実行するコンピュータプログラムを記憶する。ROM13は、その他に固定的なデータを記憶していてもよい。ROM13は、例えば、P-ROM(Programmable ROM)であってもよい。
 記憶装置14は、認証システム10が長期的に保存するデータを記憶する。記憶装置14は、プロセッサ11の一時記憶装置として動作してもよい。記憶装置14は、例えば、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)及びディスクアレイ装置のうちの少なくとも一つを含んでいてもよい。
 入力装置15は、認証システム10のユーザからの入力指示を受け取る装置である。入力装置15は、例えば、キーボード、マウス及びタッチパネルのうちの少なくとも一つを含んでいてもよい。
 出力装置16は、認証システム10に関する情報を外部に対して出力する装置である。例えば、出力装置16は、認証システム10に関する情報を表示可能な表示装置(例えば、ディスプレイ)であってもよい。また、出力装置16は、認証システム10に関する情報を音声出力可能なスピーカであってもよい。
 カメラ20は、ユーザの画像(例えば、ユーザの顔を含む画像)を撮像可能な箇所に設置されたカメラである。なお、ここでのユーザは、人間だけに限られず、犬や蛇等の動物、ロボット等を含むものであってよい。カメラ20は、静止画を撮像するカメラであってもよいし、動画を撮像するカメラであってもよい。カメラ20は、可視光カメラとして構成されてもよいし、近赤外線カメラとして構成されてよい。カメラ20は、例えば携帯端末等に備えられるものであってもよい。
 センサ21は、システムで利用する各種情報を検出可能なセンサである。センサ21は、複数設けられてよい。センサ21は、複数種類のものが設けられてよい。本実施形態に係るセンサ21は特に、カメラ20の撮像角度を検出するセンサを備えて構成されている。このセンサは、例えばジャイロセンサや加速度センサであってよい。
 なお、図1では、複数の装置を含んで構成される認証システム10の例を挙げたが、これらの全部又は一部の機能を1つの装置(認証装置)で実現してもよい。この認証装置は、例えば、上述したプロセッサ11、RAM12、ROM13のみを備えて構成され、その他の構成要素(即ち、記憶装置14、入力装置15、出力装置16、カメラ20、及びセンサ21)については、例えば認証装置に接続される外部の構成要素であってもよい。
 (機能的構成)
 次に、図2及び図3を参照しながら、第1実施形態に係る認証システム10の機能的構成について説明する。図2は、第1実施形態に係る認証システムの機能的構成を示すブロック図である。図3は、第1実施形態に係る認証システムの変形例の機能的構成を示すブロック図である。
 図2に示すように、第1実施形態に係る認証システム10は、その機能を実現するための処理ブロックとして、顔・環境取得部110と、撮像角度取得部120と、登録情報記憶部130と、認証実行部140と、を備えて構成されている。顔・環境取得部110、撮像角度取得部120、認証実行部140は、例えば上述したプロセッサ11(図1参照)によって実現されてもよい。登録情報記憶部130は、例えば上述した記憶装置14(図1参照)を含んで構成されてよい。
 顔・環境取得部110は、認証処理の対象である対象の画像から、対象の顔に関する情報(以下、適宜「顔情報」と称する)と、画像が撮像された際の環境に関する情報(以下、適宜「環境情報」と称する)と、を取得可能に構成されている。環境情報は、画像に含まれる対象以外のもの(例えば、背景や風景等)に関する情報である。ここでの対象の画像は、カメラ20(図1参照)で取得されたものであってよい。顔情報及び環境情報は、顔画像、環境画像(例えば、背景画像、風景画像)そのものとして取得されてもよいし、顔及び環境を示す特徴量として取得されてもよい。なお、画像から顔情報及び環境情報を取得する具体的な手法については、既存の技術を適宜採用することができるため、ここでの詳細な説明は省略するものとする。顔・環境取得部110で取得された顔情報及び環境情報は、認証実行部140に出力される構成となっている。
 撮像角度取得部120は、対象の画像(即ち、顔情報及び環境情報を取得した画像)が撮像された際の角度を示す情報(以下、適宜「撮像角度情報」と称する)を取得可能に構成されている。撮像角度情報は、例えば画像を撮像した端末の角度を示す情報であってよい。撮像角度は、例えば「90度」のように1つの値を示す角度であってもよいし、「80~90度」のように幅を有する情報であってもよい。撮像角度情報は、例えば端末に備えられるセンサ21(例えば、ジャイロセンサ)から取得されてもよい。撮像角度情報は、2次元的な角度情報(例えば、X軸及びY軸で規定される平面上での角度を示す情報:具体的には、上下方向、左右方向の角度を示す情報)であってもよいし、3次元的な角度情報(例えば、X軸、Y軸及びZ軸で規定される3次元空間上での角度を示す情報:具体的には、上下方向、左右方向、奥行方向の角度を示す情報)であってもよい。撮像角度取得部120で取得された撮像角度情報は、認証実行部140に出力される構成となっている。
 登録情報記憶部130は、顔情報、環境情報、及び撮像角度情報を予め登録情報として記憶している。登録情報は、上述した顔・環境取得部110及び撮像角度取得部120で取得された情報であってもよい。即ち、登録情報は、予め撮像された対象の画像から取得された情報であってよい。登録情報記憶部130は、複数の登録ユーザについて登録情報を記憶していてもよい。登録情報記憶部130は、登録情報を適宜更新、追加、削除可能に構成されてよい。登録情報記憶部130に記憶されている登録情報は、認証実行部140によって適宜読み出し可能に構成されている。
 認証実行部140は、顔・環境取得部110及び撮像角度取得部120で取得された、顔情報、環境情報、撮像角度情報と、登録情報記憶部130に記憶された登録情報と、に基づいて、対象の認証処理を実行可能に構成されている。認証実行部140は、顔情報、環境情報、及び撮像角度情報を用いた照合処理(例えば、取得した情報と、登録情報との一致度を判定する処理)を実行するように構成されてよい。なお、認証処理の具体的な内容については、後述する他の実施形態において詳しく説明する。認証実行部140は、認証処理の結果を出力可能に構成されてよい。
 図3に示すように、第1実施形態に係る認証システム10は、その機能を実現するための処理ブロックとして、顔・環境取得部110と、撮像角度取得部120と、認証実行部140と、を備えて構成されてもよい。即ち、認証システム10は、上述した登録情報記憶部130を備えずに構成されてもよい。この場合、認証実行部140は、顔・環境取得部110及び撮像角度取得部120で取得された、顔情報、環境情報、及び撮像角度情報のみに基づいて、対象の認証処理を実行可能に構成されてよい。例えば、認証実行部140は、環境情報や撮像角度情報が異常であると判定できる場合(例えば、カメラが下を向いているのに空や時計が写っている場合や、カメラが上を向いているのに地面が写っている場合等)に、認証処理を実行しないように構成されてよい。このような異常は、例えば、撮像角度ごとに写っていたらおかしい背景(NG背景)を登録しておき、取得された環境情報がNG背景であるか否かを判定することで検出できる。
 (動作の流れ)
 次に、図4を参照しながら、第1実施形態に係る認証システム10の動作の流れについて説明する。図4は、第1実施形態に係る認証システムの動作の流れを示すフローチャートである。
 図4に示すように、第1実施形態に係る認証システム10が動作する際には、まず顔・環境取得部110が、対象の画像から対象の顔情報を取得する(ステップS101)。また、顔・環境取得部110は、対象の画像から環境情報を取得する(ステップS102)。そして、撮像角度取得部120が、画像を撮像した際の撮像角度情報を取得する(ステップS103)。なお、上述した各情報を取得する処理(即ち、ステップS101~S103)は、互いに前後して実行されてもよいし、同時に並行して実行されてもよい。
 続いて、認証実行部140が、取得した顔情報、環境情報、及び撮像角度情報に基づいて認証処理を実行する(ステップS104)。図2に示したように、登録情報記憶部130を備えている場合、認証実行部140は、顔情報、環境情報、及び撮像角度情報と、登録情報とに基づいて認証処理を実行すればよい。一方、図3に示したように、登録情報記憶部130を備えている場合、認証実行部140は、顔情報、環境情報、及び撮像角度情報に基づいて認証処理を実行すればよい。そして、認証実行部140は、認証処理の結果(例えば、「認証成功」又は「認証失敗」等の情報)を出力する(ステップS105)。認証実行部140は、例えば出力装置16(図1参照)が備えるディスプレイやスピーカ等を用いて認証結果を出力してもよい。
 (技術的効果)
 次に、第1実施形態に係る認証システム10によって得られる技術的効果について説明する。
 図1から図4で説明したように、第1実施形態に係る認証システム10では、顔情報、環境情報、及び撮像角度情報に基づいて対象の認証処理が実行される。このようにすれば、対象の顔に関する情報だけでなく、その環境及び撮像角度に関する情報が用いられるため、より適切に認証処理を実行することができる。その結果、例えばなりすまし等による不正な行為を検出することが可能となる。具体的には、顔画像及び環境画像(例えば、背景画像)のみを用いて認証を行う場合、顔画像や環境画像の偽造によるなりすまし等の不正が行われてしまうおそれがある。これに対し、第1実施形態に係る認証システムによれば、顔画像や環境画像に加えて、これらの画像が撮像された際の撮像角度に関する情報が用いられるため、より効果的に不正を防止することができる。
 <第2実施形態>
 第2実施形態に係る認証システム10について、図5から図7を参照して説明する。なお、第2実施形態は、上述した第1実施形態と一部の動作が異なるのみであり、その他の部分については第1実施形態と同一であってよい。このため、以下では、すでに説明した第1実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (動作の流れ)
 まず、図5を参照しながら、第2実施形態に係る認証システム10の動作の流れ(具体的には、登録情報を記録する際の動作の流れ)について説明する。図5は、第2実施形態に係る認証システムにおける登録情報を記録する際の動作の流れを示すフローチャートである。
 図5に示すように、第2実施形態に係る認証システム10が登録情報を記憶する際には、まず登録する対象の画像が取得される(ステップS201)。そして、その画像から、顔・環境取得部110が、対象の顔情報を取得する(ステップS202)。また、顔・環境取得部110は、対象の画像から環境情報を取得する(ステップS203)。そして、撮像角度取得部120が、画像を撮像した際の撮像角度情報を取得する(ステップS204)。
 続いて、登録情報記憶部130が、取得した顔情報、環境情報、及び撮像角度情報を登録情報として記憶する(ステップS205)。そして、登録情報記憶部130は、すべての登録が終了したか否かを判定する(ステップS206)。なお、ここでの判定は、所定枚数の画像について登録が終了したか否かを判定してよい。言い換えれば、登録回数が予め設定した回数に到達したか否かを判定してよい。
 すべての登録が終了していないと判定された場合(ステップS206:NO)、再びステップS201から処理が繰り返される。ただし、2回目以降のステップS201では、それまでに取得された画像とは異なる撮像角度で撮像された画像が取得される。即ち、登録する対象は、撮像角度を変えて複数回の撮像を行うことになる。このような処理が繰り返されることで、登録情報記憶部130は、1人の対象について、複数の顔情報、環境情報、及び撮像角度情報を記憶することになる。そして、すべての登録が終了したと判定された場合(ステップS206:YES)、一連の処理は終了する。
 (画像の具体例)
 次に、図6を参照しながら、登録情報を記録する際に撮像される画像について具体的に説明する。図6は、第2実施形態に係る認証システムで記録される複数の画像の一例を示す図である。
 図6(a)に示す例は、例えば1回目に撮像される対象の画像である。この画像には、対象の顔と、環境である時計及びカレンダーと、が含まれている。そして、図6(b)に示す例は、2回目に撮像される対象の画像である。この画像は、図6(a)と比較すると、撮像角度が左方向(具体的には、カメラ20から見て左方向)にずらされている。よって、環境である時計及びカレンダーの位置が、図6(a)よりも右側にずれている。そして、図6(c)に示す例は、3回目に撮像される対象の画像である。この画像は、図6(a)と比較すると、撮像角度が右方向(カメラ20から見て右方向)にずらされている。よって、環境である時計及びカレンダーの位置が、図6(a)よりも左側にずれている。
 上記のように、第2実施形態に係る認証システム10では、撮像角度の異なる複数の画像が撮像され、それらの画像から取得される顔情報、環境情報、及び撮像角度情報が、登録情報として登録情報記憶部130に記憶される。なお、ここでは、カメラ20を水平方向にずらす例を挙げたが、例えば垂直方向、或いは斜め方向にずらして、複数の画像が撮像されてもよい。また、3枚より多い画像を用いて登録情報が記憶されてもよい。
 (撮像する際の表示例)
 次に、図7を参照しながら、複数の画像を撮像する際の表示例について説明する。図7は、第2実施形態に係る認証システムにおける画像を撮像する際の表示例を示す図である。
 図7に示すように、第2実施形態に係る認証システム10では、ユーザがどのような画像が撮像されるのか分かるように、ユーザに対してカメラ20から取得した画像を表示するようにしてもよい。この場合、撮像される画像に重畳して、現在の撮像角度(言い換えれば、撮像角度情報として取得される値)を表示するようにしてもよい。このようにすれば、どのような角度で画像が撮像されるのかを、ユーザが容易に知ることができる。よって、例えば撮像角度の具体的な値が認証処理の実行条件として設定されている場合(例えば、撮像角度が30度の場合に認証処理が実行される場合)に、ユーザは、現在の撮像角度を確認しながら画像を撮像することができる。なお、図7の例では、撮像角度の数値を表示しているが、例えば撮像角度を示すインジゲータや水準器等が表示されてもよい。
 (技術的効果)
 次に、第2実施形態に係る認証システム10によって得られる技術的効果について説明する。
 図5から図7で説明したように、第2実施形態に係る認証システム10では、撮像角度を変えながら撮像された複数の画像を用いて登録情報が記憶される。このようにすれば、複数の撮像角度に対応する登録情報が記憶されることになるため、認証する際の撮像角度に応じて、適切な認証処理を実行することが可能となる。また、認証の際には、複数の登録情報のうちいずれかと照合できれば認証が完了するため、ユーザが容易に認証を行えるようになる。
 <第3実施形態>
 第3実施形態に係る認証システム10について、図8及び図9を参照して説明する。なお、第3実施形態は、上述した第1及び第2実施形態と一部の構成及び動作が異なるのみであり、その他の部分については第1実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図8を参照しながら、第3実施形態に係る認証システム10の機能的構成について説明する。図8は、第3実施形態に係る認証システムの機能的構成を示すブロック図である。なお、図8では、図2に示した構成要素と同様の要素に同一の符号を付している。
 図8に示すように、第3実施形態に係る認証システム10は、その機能を実現するための処理ブロックとして、顔・環境取得部110と、撮像角度取得部120と、登録情報記憶部130と、認証実行部140と、を備えて構成されている。そして特に、第3実施形態に係る認証システム10は、認証実行部140が、顔照合部141と、環境選択部142と、環境照合部143と、を備えている。なお、上述した顔照合部141、環境選択部142、及び環境照合部143の各々の機能は、それぞれ別々の装置によって実現されるものであってもよい。例えば、顔照合部141の機能は、エッジ端末(例えば、スマートフォン等)で実現され、環境選択部142、及び環境照合部143の機能は、クラウド(クラウドサーバ)で実現されてもよい。
 顔照合部141は、対象の画像から取得した顔情報(即ち、認証しようとしている対象の顔)と、登録情報として記憶されている顔情報(即ち、予め登録されている顔)との照合処理を実行可能に構成されている。顔照合部141は、例えば取得した顔情報と、記憶されている顔情報と、の一致度が所定の閾値以上である場合に、顔情報が一致していると判定するように構成されてよい。
 環境選択部142は、対象の画像が撮像された際の撮像角度情報に応じて、その撮像角度情報に対応する環境情報を登録情報の中から選択可能に構成されている。ここで特に、本実施形態に係る登録情報記憶部130は、環境情報と撮像角度情報とを紐付けた状態で記憶している。よって、環境選択部142は、取得した撮像角度情報を用いて、その撮像角度に応じた環境情報を選択することができる。例えば、環境選択部142は、取得した撮像角度情報と最も近い撮像角度情報に紐付いている環境情報を選択してよい。なお、環境選択部142は、典型的には、撮像角度に応じた1つの環境情報を選択するが、撮像角度の近い環境情報が複数存在する場合には、それら複数の環境情報をすべて選択してもよい。
 また、上述した環境情報を選択する(絞り込む)動作においては、撮像角度情報に加えて、例えばGPSから取得される位置情報を用いてもよい。この場合、予め環境画像と位置情報とを紐付けた状態で記憶しておけばよい。環境情報を選択する際には、例えばスマートフォンのGPS機能で取得される位置情報に応じて、複数の環境情報の中から位置情報に対応するものを絞り込み、そこから更に撮像角度情報を用いて環境情報を絞り込むようにしてもよい。
 また、複数のユーザが登録されている場合(例えば、個人が所有するものではなく、共用のシステムとして構成されている場合)、先に顔認証を行い、顔認証で特定できた対象に紐付けられた環境画像を絞り込んで、そこから更に撮像角度情報を用いて環境情報を絞り込むようにしてもよい。
 環境照合部143は、対象の画像から取得した環境情報(即ち、認証しようとしている対象の環境)と、環境選択部142で選択された環境情報(即ち、予め登録されている環境情報のうち、今回の撮像角度と近い撮像角度で撮像された画像の環境情報)との照合処理を実行可能に構成されている。環境照合部143は、例えば取得した環境情報と、選択された環境情報と、の一致度が所定の閾値以上である場合に、環境情報が一致していると判定するように構成されてよい。
 (動作の流れ)
 次に、図9を参照しながら、第3実施形態に係る認証システム10の動作の流れについて説明する。図9は、第3実施形態に係る認証システムの動作の流れを示すフローチャートである。なお、図9では、図4で示した処理と同様の処理に同一の符号を付している。
 図9に示すように、第3実施形態に係る認証システム10が動作する際には、まず顔・環境取得部110が、対象の画像から対象の顔情報を取得する(ステップS101)。また、顔・環境取得部110は、対象の画像から環境情報を取得する(ステップS102)。そして、撮像角度取得部120が、画像を撮像した際の撮像角度情報を取得する(ステップS103)。なお、上述した各情報を取得する処理(即ち、ステップS101~S103)は、互いに前後して実行されてもよいし、同時に並行して実行されてもよい。
 続いて、顔照合部141が、取得した顔情報と登録されている顔情報との照合処理を実行する(ステップS301)。なお、顔情報が一致しない場合は、以降のステップS302及びS303の処理を省略し、認証失敗の結果を出力するようにしてもよい。
 続いて、環境選択部142が、取得した撮像角度情報に対応する環境情報を選択する(ステップS302)。そして、環境照合部143が、取得した環境情報と選択した環境情報との照合処理を実行する(ステップS303)。なお、上述したステップS301~S303の処理は、互いに前後して実行されてもよいし、同時に並行して実行されてもよい。
 その後、認証実行部140は、認証処理の結果を出力する(ステップS304)。具体的には、認証実行部140は、顔照合部141による顔情報の照合処理、及び環境照合部143による環境情報の照合処理がいずれも成功した(即ち、一致した)場合に、認証処理が成功したことを示す結果を出力してよい。一方、認証実行部140は、顔照合部141による顔情報の照合処理、及び環境照合部143による環境情報の照合処理がいずれかが失敗した(即ち、一致しない)場合に、認証処理が失敗したことを示す結果を出力してよい。
 (技術的効果)
 次に、第3実施形態に係る認証システム10によって得られる技術的効果について説明する。
 図8及び図9で説明したように、第3実施形態に係る認証システム10では、まず撮像角度に応じた環境が選択され、その環境を用いた認証処理が実行される。このようにすれば、撮像角度の違いによる環境の変化を考慮して、適切な認証処理を実行することが可能である。
 なお、第3実施形態に係る認証実行部140は、環境選択部142を備えずに構成されてもよい(即ち、顔照合部141及び環境照合部143のみを備えて構成されてもよい)。この場合、環境照合部143は、登録されているすべての環境情報との照合処理を行ってよい。
 また、上述した第3実施形態に係る認証システム10は、第2実施形態に係る認証システム10(即ち、複数の角度から画像を撮像する構成)と組み合わせて実現されてもよい。
 <第4実施形態>
 第4実施形態に係る認証システム10について、図10及び図11を参照して説明する。なお、第4実施形態は、上述した第1から第3実施形態と一部の構成及び動作が異なるのみであり、その他の部分については第1から第3実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図10を参照しながら、第4実施形態に係る認証システム10の機能的構成について説明する。図10は、第4実施形態に係る認証システムの機能的構成を示すブロック図である。なお、図10では、図2及び図8で示した構成要素と同様の要素に同一の符号を付している。
 図10に示すように、第4実施形態に係る認証システム10は、その機能を実現するための処理ブロックとして、顔・環境取得部110と、撮像角度取得部120と、登録情報記憶部130と、認証実行部140と、を備えて構成されている。そして特に、第4実施形態に係る認証システム10は、認証実行部140が、顔照合部141と、環境照合部143と、撮像角度照合部144と、を備えている。第4実施形態に係る認証実行部140は、第3実施形態で説明した環境選択部142(図8参照)を備えていない一方で、撮像角度照合部144を備えて構成されている。
 撮像角度照合部144は、取得した撮像角度情報(即ち、認証するための画像が撮像された際の撮像角度)と、登録された撮像角度情報(予め記憶されている撮像角度)と、の照合処理を実行可能に構成されている。撮像角度照合部144は、例えば取得した撮像角度情報と、記憶されている撮像角度情報と、の差分が所定の閾値以下である場合に、撮像角度情報が一致していると判定するように構成されてよい。
 (動作の流れ)
 次に、図11を参照しながら、第4実施形態に係る認証システム10の動作の流れについて説明する。図11は、第4実施形態に係る認証システムの動作の流れを示すフローチャートである。なお、図11では、図4で示した処理と同様の処理に同一の符号を付している。
 図11に示すように、第4実施形態に係る認証システム10が動作する際には、まず顔・環境取得部110が、対象の画像から対象の顔情報を取得する(ステップS101)。また、顔・環境取得部110は、対象の画像から環境情報を取得する(ステップS102)。そして、撮像角度取得部120が、画像を撮像した際の撮像角度情報を取得する(ステップS103)。なお、上述した各情報を取得する処理(即ち、ステップS101~S103)は、互いに前後して実行されてもよいし、同時に並行して実行されてもよい。
 続いて、顔照合部141が、取得した顔情報と登録されている顔情報との照合処理を実行する(ステップS401)。そして、環境照合部143が、取得した環境情報と登録されている環境情報との照合処理を実行する(ステップS402)。なお、第4実施形態では、第3実施形態のように撮像角度に応じた環境情報が選択されていないため、環境照合部143は、登録されている複数の環境情報との照合処理を実行する。
 続いて、撮像角度照合部144が、取得した撮像角度情報と登録されている撮像角度情報との照合処理を実行する(ステップS403)。撮像角度照合部144は、例えば取得した撮像角度と、上述した照合処理で一致した顔情報又は環境情報に紐付いている撮像角度情報と、が一致しているか否かを判定してよい。なお、上述したステップS401~S403の処理は、互いに前後して実行されてもよいし、同時に並行して実行されてもよい。
 その後、認証実行部140は、認証処理の結果を出力する(ステップS404)。具体的には、認証実行部140は、顔照合部141による顔情報の照合処理、環境照合部143による環境情報の照合処理、及び撮像角度照合部144による撮像角度情報の照合処理がいずれも成功した(即ち、一致した)場合に、認証処理が成功したことを示す結果を出力してよい。一方、認証実行部140は、顔照合部141による顔情報の照合処理、環境照合部143による環境情報の照合処理、及び撮像角度照合部144による撮像角度情報の照合処理がいずれかが失敗した(即ち、一致しない)場合に、認証処理が失敗したことを示す結果を出力してよい。
 (技術的効果)
 次に、第4実施形態に係る認証システム10によって得られる技術的効果について説明する。
 図10及び図11で説明したように、第4実施形態に係る認証システム10では、顔情報、環境情報、及び撮像角度情報の各々に対して照合処理が行われる。このようにすれば、認証処理のセキュリティ強度を高めることができ、なりすまし等による不正を適切に防止することが可能である。
 <第5実施形態>
 第5実施形態に係る認証システム10について、図12及び図13を参照して説明する。なお、第5実施形態は、上述した第1から第4実施形態と比べて一部の構成及び動作が異なるのみで、その他の部分については第1から第4実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図12を参照しながら、第5実施形態に係る認証システム10の機能的構成について説明する。図12は、第5実施形態に係る認証システムの機能的構成を示すブロック図である。なお、図12では、図2で示した構成要素と同様の要素に同一の符号を付している。
 図12に示すように、第5実施形態に係る認証システム10は、その機能を実現するための処理ブロックとして、顔・環境取得部110と、撮像角度取得部120と、登録情報記憶部130と、認証実行部140と、を備えて構成されている。そして特に、第5実施形態に係る認証システム10では、顔・環境取得部110及び撮像角度取得部120が、第1撮像部210及び第2撮像部220の各々から、顔情報、環境情報及び撮像角度情報を取得可能に構成されている。
 第1撮像部210及び第2撮像部220は、互いに異なる撮像範囲を有する撮像部として構成されている。具体的には、第1撮像部210は、第1の撮像範囲を有している。第2撮像部220は、第1の撮像範囲とは異なる第2の撮像範囲を有している。第1撮像部210及び第2撮像部220は、例えば同時に撮像を行い、撮像範囲の異なる2つの画像を撮像することが可能である。第1撮像部210及び第2撮像部220は、例えば共通する端末(例えば、スマートフォン)が備えるインカメラ及びアウトカメラとして構成されていてよい。なお、対象は、第1撮像部210で撮像された画像、及び第2撮像部220で撮像された画像の少なくとも一方に含まれていればよい。即ち、第1撮像部210で撮像された画像、及び第2撮像部220で撮像された画像の一方は、環境部分だけを含む画像であってよい。
 (動作の流れ)
 次に、図13を参照しながら、第5実施形態に係る認証システム10の動作の流れについて説明する。図13は、第5実施形態に係る認証システムの動作の流れを示すフローチャートである。なお、図13では、図2で示した処理と同様の処理に同一の符号を付している。
 図13に示すように、第5実施形態に係る認証システム10が動作する際には、まず第1撮像部210及び第2撮像部220の各々から画像が取得される(ステップS501)。以下では、第1撮像部210で撮像された画像を「第1画像」、第2撮像部220で撮像された画像を「第2画像」と称する。
 続いて、顔・環境取得部110が、第1画像及び第2画像の少なくとも一方から、対象の顔情報を取得する(ステップS502)。また、顔・環境取得部110は、第1画像及び第2画像の各々から、環境情報を取得する(ステップS503)。なお、顔・環境取得部110は、第1画像から対象の顔情報のみを取得し、第2画像から環境情報のみを取得するようにしてもよい。そして、撮像角度取得部120が、第1画像及び第2画像を撮像した際の撮像角度情報を取得する(ステップS504)。なお、第1撮像部210及び第2撮像部220の相対角度が固定されている場合には、撮像角度取得部120は、第1画像及び第2画像に共通する1つの撮像角度を取得するようにしてもよい。
 続いて、認証実行部140が、第1画像及び第2画像から取得した顔情報、環境情報、及び撮像角度情報と、登録情報とに基づいて認証処理を実行する(ステップS505)。そして、認証実行部140は、第1画像及び第2画像の両方で認証が成功したか否かを判定する(ステップS506)。即ち、第1画像から取得した顔情報、環境情報、及び撮像角度情報の認証処理と、第2画像から取得した顔情報、環境情報、及び撮像角度情報の認証処理の結果と、がいずれも成功したか否かを判定する。
 第1画像及び第2画像の両方で認証が成功した場合(ステップS506:YES)、認証実行部140は、認証処理が成功したことを示す情報を出力する(ステップS507)。一方で、第1画像及び第2画像の少なくとも一方で認証が失敗した場合(ステップS506:NO)、認証実行部140は、認証処理が失敗したことを示す情報を出力する(ステップS508)。
 なお、ここでは、第1撮像部210及び第2撮像部220の2つの撮像部から画像が取得される構成を挙げて説明したが、例えば3つ以上の撮像部から画像が取得されてもよい。この場合、それぞれの撮像部で撮像された複数の画像を用いて、同様の認証処理が実行されればよい。
 (技術的効果)
 次に、第5実施形態に係る認証システム10によって得られる技術的効果について説明する。
 図12及び図13で説明したように、第5実施形態に係る認証システム10では、異なる撮像部で撮像された複数の画像を用いて認証処理が実行される。このようにすれば、複数の画像について認証処理が成功することが要求されるため、1つの画像だけで認証処理を実行する場合と比べて、セキュリティ強度を高めることが可能である。
 <第6実施形態>
 第6実施形態に係る認証システム10について、図14及び図15を参照して説明する。なお、第6実施形態は、上述した第1から第5実施形態と比べて一部の動作が異なるのみで、その他の部分については第1から第5実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図14を参照しながら、第6実施形態に係る認証システム10の機能的構成について説明する。図14は、第6実施形態に係る認証システムの機能的構成を示すブロック図である。なお、図14では、図2で示した構成要素と同様の要素に同一の符号を付している。
 図14に示すように、第6実施形態に係る認証システム10は、その機能を実現するための処理ブロックとして、顔・環境取得部110と、撮像角度取得部120と、登録情報記憶部130と、認証実行部140と、を備えて構成されている。そして特に、第6実施形態に係る認証システム10では、認証実行部140が、撮像角度差異算出部145を備えている。
 撮像角度差異算出部145は、相異なるタイミングで撮像された複数の画像に対応する撮像角度情報の差異を算出可能に構成されている。具体的には、撮像角度差異算出部145は、第1タイミングで撮像された第1画像の撮像角度情報と、第2タイミングで撮像された第2画像の前記撮像角度情報との差異を算出可能に構成されている。ここで算出される撮像角度情報の差異は、複数の画像を撮像する際に、ユーザがカメラ20をどのように動かしたかを示す情報である。例えば、第1画像が垂直方向に90度、左右方向に0度の状態で撮像され、第2画像が垂直方向に80度、左右方向に0度の状態で撮像された場合、撮像角度情報の差異は、垂直方向に10度として算出される。
 第6実施形態に係る認証実行部140は、上述したように算出される撮像角度情報の差異を利用して、認証処理を実行することが可能とされている。認証実行部140は、例えば撮像角度情報の差異が、登録情報と一致するか否かを判定してよい。例えば、認証実行部140は、第1画像及び第2画像の撮像時に、ユーザがカメラ20を登録した通りに動かしたか否かを判定してよい。この場合、認証実行部140は、ユーザがカメラを登録したとおりに動かした場合(即ち、撮像角度情報の差異が登録情報と一致する場合)に認証成功と判定し、ユーザがカメラを登録したとおりに動かしていない場合(即ち、撮像角度情報の差異が登録情報と異なる場合)に認証失敗と判定するようにしてもよい。なお、認証実行部140は、撮像角度情報の際に加えて、撮像角度情報そのものを利用して認証処理を実行してもよい。
 (動作の流れ)
 次に、図15を参照しながら、第6実施形態に係る認証システム10の動作の流れについて説明する。図15は、第6実施形態に係る認証システムの動作の流れを示すフローチャートである。
 図15に示すように、第6実施形態に係る認証システム10が動作する際には、まず第1のタイミングで撮像された対象の第1画像が取得される(ステップS601)。その後、第1タイミングとは異なる第2のタイミングで撮像された対象の第2画像が取得される(ステップS602)。
 続いて、顔・環境取得部110が、取得された対象の第1画像及び第2画像から、対象の顔情報を取得する(ステップS603)。また、顔・環境取得部110は、取得された対象の第1画像及び第2画像から、環境情報を取得する(ステップS604)。そして、撮像角度取得部120が、対象の第1画像及び第2画像を撮像した際の撮像角度情報を取得する(ステップS605)。なお、上述したステップS603~S605の処理は、互いに前後して実行されてもよいし、同時に並行して実行されてもよい。
 続いて、撮像角度差異算出部145が、第1画像の撮像角度情報と、第2画像の撮像角度情報との差異を算出する(ステップS606)。そして、認証実行部140が、対象の画像から取得した顔情報、環境情報、及び撮像角度情報の差異と、登録情報とに基づいて認証処理を実行する(ステップS607)。その後、認証実行部140は、認証処理の結果を出力する(ステップS608)。
 (技術的効果)
 次に、第6実施形態に係る認証システム10によって得られる技術的効果について説明する。
 図14及び図15で説明したように、第6実施形態に係る認証システム10では、顔情報及び環境情報に加えて、異なるタイミングで撮像された複数の画像の撮像角度の差異に基づいて、認証処理が実行される。このようにすれば、複数の画像を撮像する際に、どのように撮像角度を変化させるかについても考慮されるため、より適切に認証処理を実行することができる。
 <第7実施形態>
 第7実施形態に係る認証システム10について、図16及び図17を参照して説明する。なお、第7実施形態は、上述した第1から第6実施形態と比べて一部の動作が異なるのみで、その他の部分については第1から第6実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図16を参照しながら、第7実施形態に係る認証システム10の機能的構成について説明する。図17は、第7実施形態に係る認証システムの機能的構成を示すブロック図である。なお、図17では、図2で示した構成要素と同様の要素に同一の符号を付している。
 図17に示すように、第7実施形態に係る認証システム10は、その機能を実現するための処理ブロックとして、顔・環境取得部110と、撮像角度取得部120と、登録情報記憶部130と、認証実行部140と、を備えて構成されている。そして特に、第7実施形態に係る認証システム10では、認証実行部140が、時系列変化算出部146を備えている。
 時系列変化算出部146は、時系列で撮像される複数の時系列画像(典型的には、動画の各フレームの画像)について、環境情報の変化と、撮像角度情報の変化とを算出可能に構成されている。具体的には、時系列変化算出部146は、時系列画像における環境情報がどのように変化したのか(例えば、背景情報が時間の経過と共にどのように移り変わっていったのか)を算出してよい。また、時系列変化算出部146は、時系列画像における撮像角度情報がどのように変化したのか(例えば、カメラ20の角度が時間の経過と共にどのように変化していったのか)を算出してよい。
 第7実施形態に係る認証実行部140は、上述した環境情報の変化、及び撮像角度情報の変化を用いて認証処理を実行する。例えば、認証実行部140は、画像の背景がカメラ20の動きに合わせて正しく移り変わっているか否かを判定してもよい。より具体的には、カメラ右方向に動かした場合に、右側に存在していたものが画像に映り込むようになったかを判定してもよい。また、認証実行部140は、背景が移り変わっていく際に、撮像角度が想定通りの値となっているか否かを判定してもよい。より具体的には、背景が少しずつ移り変わって行く際に、撮像角度情報が、88度、89度、90度のように正しく変化しているか否か(言い換えれば、角度が異常な値になったり、急激に変化したりしていないか)を判定してもよい。
 (動作の流れ)
 次に、図17を参照しながら、第7実施形態に係る認証システム10の動作の流れについて説明する。図17は、第7実施形態に係る認証システムの動作の流れを示すフローチャートである。
 図17に示すように、第7実施形態に係る認証システム10が動作する際には、まず複数の時系列画像が取得される(ステップS701)。時系列画像は、すべての時系列画像を撮像した後にまとめて取得されてもよいし、撮像中に順次取得されてもよい。
 続いて、顔・環境取得部110が、取得された時系列画像から、対象の顔情報を取得する(ステップS702)。また、顔・環境取得部110は、取得された時系列画像から、環境情報を取得する(ステップS704)。そして、撮像角度取得部120が、時系列画像を撮像した際の撮像角度情報を取得する(ステップS705)。なお、上述したステップS702~S705の処理は、互いに前後して実行されてもよいし、同時に並行して実行されてもよい。
 続いて、時系列変化算出部146が、時系列画像の時系列における変化(具体的には、環境情報の変化、及び撮像角度情報の変化)を算出する(ステップS705)。そして、認証実行部140が、対象の画像から取得した顔情報、環境情報の変化、及び撮像角度情報の変化と、登録情報とに基づいて認証処理を実行する(ステップS706)。その後、認証実行部140は、認証処理の結果を出力する(ステップS707)。
 (技術的効果)
 次に、第7実施形態に係る認証システム10によって得られる技術的効果について説明する。
 図16及び図17で説明したように、第7実施形態に係る認証システム10では、顔情報に加えて、環境情報の時系列における変化と、撮像角度情報の時系列における変化とに基づいて、認証処理が実行される。このようにすれば、時系列画像を撮像する際に、どのように環境情報が変化したか、及びどのように撮像角度が変化したか、についても考慮されるため、より適切に認証処理を実行することができる。
 <第8実施形態>
 第8実施形態に係る認証システム10について、図18及び図19を参照して説明する。なお、第8実施形態は、上述した第1から第7実施形態と比べて一部の構成及び動作が異なるのみであり、その他の部分については第1から第7実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図18を参照しながら、第8実施形態に係る認証システム10の機能的構成について説明する。図18は、第8実施形態に係る認証システムの機能的構成を示すブロック図である。なお、図18では、図2で示した構成要素と同様の要素に同一の符号を付している。
 図18に示すように、第8実施形態に係る認証システム10は、その機能を実現するための処理ブロックとして、顔・環境取得部110と、撮像角度取得部120と、登録情報記憶部130と、認証実行部140と、位置取得部150と、を備えて構成されている。即ち、第8実施形態に係る認証システム10は、第1実施形態の構成(図2参照)に加えて、位置取得部150を更に備えて構成されている。
 位置取得部150は、対象の画像が撮像された位置に関する情報(以下、適宜「位置情報」と称する)を取得可能に構成されている。位置取得部150は、例えば画像を撮像する端末の位置情報を取得するように構成されてよい。位置取得部150は、例えばGPS(Global Positioning System)を用いて位置情報を取得するように構成されていてもよい。位置取得部150で取得された位置情報は、認証実行部140に出力される構成となっている。
 (動作の流れ)
 次に、図19を参照しながら、第8実施形態に係る認証システム10の動作の流れについて説明する。図19は、第8実施形態に係る認証システムの動作の流れを示すフローチャートである。なお、図19では、図4で示した処理と同様の処理に同一の符号を付している。
 図19に示すように、第8実施形態に係る認証システム10が動作する際には、まず顔・環境取得部110が、対象の画像から対象の顔情報を取得する(ステップS101)。また、顔・環境取得部110は、対象の画像から環境情報を取得する(ステップS102)。そして、撮像角度取得部120が、画像を撮像した際の撮像角度情報を取得する(ステップS103)。なお、上述した各情報を取得する処理(即ち、ステップS101~S103)は、互いに前後して実行されてもよいし、同時に並行して実行されてもよい。
 そして、第8実施形態では更に、位置取得部150が、対象の画像を撮像した際の位置情報を取得する(ステップS701)。なお、位置情報を取得する処理は、上述した他の情報を取得する処理(即ち、ステップS101~S103)と、互いに前後して実行されてもよいし、同時に並行して実行されてもよい。
 続いて、認証実行部140が、取得した顔情報、環境情報、撮像角度情報、及び位置情報と、登録情報とに基づいて認証処理を実行する(ステップS702)。そして、認証実行部140は、認証処理の結果を出力する(ステップS703)。
 なお、本実施形態に係る登録情報は、顔情報、環境情報、撮像角度情報に加えて、位置情報を含んでいる。よって、認証処理においては、取得された位置情報と登録されている位置情報との照合処理が実行されてもよい。或いは、位置情報は、その他の情報(即ち、顔情報、環境情報、撮像角度情報)を絞り込むための情報(例えば、第3実施形態における撮像角度情報のように、照合に用いる情報を選択するための情報)として用いられてもよい。
 (技術的効果)
 次に、第8実施形態に係る認証システム10によって得られる技術的効果について説明する。
 図18及び図19で説明したように、第8実施形態に係る認証システム10では、顔情報、環境情報、及び撮像角度情報に加えて、位置情報を用いた認証処理が実行される。このようにすれば、位置情報を利用しない場合(即ち、顔情報、環境情報、及び撮像角度情報のみを用いる場合)と比較して、認証処理をより適切に実行することが可能となる。
 <第9実施形態>
 第9実施形態に係る認証システム10について、図20から図23を参照して説明する。なお、第9実施形態に係る認証システム10は、上述した第1から第8実施形態と比べて一部の構成及び動作が異なるのみであり、その他の部分については第1から第8実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図20を参照しながら、第9実施形態に係る認証システム10の機能的構成について説明する。図20は、第9実施形態に係る認証システムの機能的構成を示すブロック図である。なお、図20では、図2で示した構成要素と同様の要素に同一の符号を付している。
 図20に示すように、第9実施形態に係る認証システム10は、その機能を実現するための処理ブロックとして、顔・環境取得部110と、撮像角度取得部120と、登録情報記憶部130と、認証実行部140と、通知部160と、を備えて構成されている。即ち、第9実施形態に係る認証システム10は、第1実施形態の構成(図2参照)に加えて、通知部160を更に備えて構成されている。
 通知部160は、認証しようとしている対象に対して、画像を撮像する条件を変更するように通知することが可能に構成されている。より具体的には、通知部160は、認証実行部140において、取得した顔情報と登録されている顔情報とが一致する(即ち、顔照合が成功する)一方で、取得した環境情報又は撮像角度情報と登録されている環境情報又は撮像角度情報とが一致しない(即ち、環境照合又は撮像角度照合が成功しなかった)場合に、通知を行うように構成されている。通知部160は、例えば出力装置16(図1参照)が備えるディスプレイやスピーカ等を用いて通知を行ってもよい。また、通知部160は、認証処理の結果と併せて通知を行うようにしてもよい。
 (具体的な表示例)
 次に、図21から図23を参照しながら、第9実施形態に係る認証システム10による通知例(表示例)について具体的に説明する。図21は、第9実施形態に係る認証システムにおける表示例を示す図(その1)である。図22は、第9実施形態に係る認証システムにおける表示例を示す図(その2)である。図22は、第9実施形態に係る認証システムにおける表示例を示す図(その3)である。
 図21に示す例では、認証処理が失敗したことを示す「認証NG」というメッセージに加えて、「撮像角度が登録したものと違います。角度を変えて撮影してください。」というメッセージが表示されている。このような通知は、対象の顔照合が成功している一方で、環境や撮像角度の照合が失敗しているような状況で行われる。即ち、対象は登録されているユーザである可能性が高いものの、環境や撮像角度が登録した際のものとは違うことに起因して、認証処理が失敗しているような状況で行われる。この場合、仮に対象が本人であれば、撮像角度を変更して撮影をやり直すことにより、認証が成功する可能性が高くなる。よって、本人が拒否されてしまうような状況を回避することができる。
 図22に示す例では、認証処理が失敗したことを示す「認証NG」というメッセージに加えて、「時計が写るように、もう少しカメラを左に向けて撮影してください。」というメッセージが表示されている。このような通知は、対象の顔照合が成功している一方で、環境や撮像角度の照合が失敗しているような状況で行われる。即ち、対象は登録されているユーザである可能性が高いものの、環境や撮像角度がわずかにずれていることに起因して、認証処理が失敗しているような状況で行われる。この場合、仮に対象が本人であれば、メッセージに従いカメラの角度を変更して撮影をやり直すことにより、認証が成功する可能性が高くなる。よって、本人が拒否されてしまうような状況を回避することができる。
 図23に示す例では、認証処理が失敗したことを示す「認証NG」というメッセージに加えて、「環境が登録したものと違います。場所を移動して撮影してください。」というメッセージが表示されている。このような通知は、対象の顔照合が成功している一方で、環境の照合が失敗しているような状況で行われる。即ち、対象は登録されているユーザである可能性が高いものの、環境が違うことに起因して、認証処理が失敗しているような状況で行われる。この場合、仮に対象が本人であれば、メッセージに従いカメラの場所を移動して撮影をやり直すことにより、認証が成功する可能性が高くなる。よって、本人が拒否されてしまうような状況を回避することができる。
 (技術的効果)
 次に、第9実施形態に係る認証システム10によって得られる技術的効果について説明する。
 図20から図23で説明したように、第9実施形態に係る認証システム10では、顔情報が一致するが、環境情報が一致しない場合に、対象に対して撮像方法に関する通知(誘導情報の出力)が行われる。このようにすれば、撮像条件の違いによる認証失敗が起きた場合であっても、対象に対して誘導を行い、適切な撮像を実行させることができる。よって、対象が登録されているユーザであるにもかかわらず、認証失敗となってしまうような状況を回避することができる。
 <第10実施形態>
 第10実施形態に係る認証システム10について、図24及び図25を参照して説明する。なお、第10実施形態に係る認証システム10は、上述した第9実施形態と比べて一部の構成及び動作が異なるのみであり、その他の部分については第1から第9実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図24を参照しながら、第10実施形態に係る認証システム10の機能的構成について説明する。図24は、第10実施形態に係る認証システムの機能的構成を示すブロック図である。なお、図24では、図20で示した構成要素と同様の要素に同一の符号を付している。
 図24に示すように、第10実施形態に係る認証システム10は、その機能を実現するための処理ブロックとして、顔・環境取得部110と、撮像角度取得部120と、登録情報記憶部130と、認証実行部140と、通知部160と、立体判定部170とを備えて構成されている。即ち、第10実施形態に係る認証システム10は、第9実施形態の構成(図20参照)に加えて、立体判定部170を更に備えて構成されている。
 立体判定部170は、対象の顔が立体か否か(例えば、紙やディスプレイのような平面上の顔でないか否か)を判定可能に構成されている。具体的には、立体判定部170は、通知部160による通知が行われる前に取得された顔情報(言い換えれば、通知部160による通知が行われる前に撮像された画像から取得された顔情報)と、通知部160による通知が行われた後に取得された顔情報(言い換えれば、通知部160による通知が行われた後に撮像された画像から取得された顔情報)を用いて、対象の顔が立体であるか否かを判定可能に構成されている。
 ここで特に、通知前に撮像された画像(以下、適宜「通知前画像」と称する)と、通知後に撮像された画像(以下、適宜「通知後画像」と称する)とは、通知が行われたことによって、互いに異なる角度で撮像されたものとなる。立体判定部170は、このように撮像角度が異なる通知前画像及び通知後画像を用いて、対象の顔が立体であるか否かを判定する。なお、立体判定部170は、通知前画像及び通知後画像ではなくとも、互いに異なる角度から撮像された複数の画像を用いて、対象の顔が立体であるか否かを判定可能に構成されてもよい。
 (動作の流れ)
 次に、図25を参照しながら、上述した立体判定部170の動作の流れについて説明する。図25は、第10実施形態に係る認証システムにおける立体判定動作の流れを示すフローチャートである。
 図25に示すように、第10実施形態に係る認証システム10における立体判定部170は、まず通知前画像の顔情報を取得する(ステップS901)。なお、通知前画像の顔情報は、通知部160による通知が行われる前に取得されてもよいし、通知が行われた後に取得されてもよい。また、立体判定部170は、通知後画像の顔情報を取得する(ステップS902)。
 続いて、立体判定部170は、通知前画像の顔情報と、通知後画像の顔情報とに基づいて、対象の顔が立体であるか否かを判定する(ステップS903)。そして、立体判定部170は、判定結果(即ち、対象の顔が立体であるか否かを示す情報)を出力する(ステップS904)。
 立体判定部170による判定結果は、例えば、認証実行部140に出力されてよい。この場合、認証実行部140は、立体判定部170による判定結果に基づいて、認証処理を実行してもよい。また、立体判定部170による判定結果は、認証実行部140の認証結果とは別の情報として出力されてもよい。この場合、立体判定部170による判定結果は、出力装置16(例えば、ディスプレイやスピーカ等)から出力されてもよい。
 (技術的効果)
 次に、第10実施形態に係る認証システム10によって得られる技術的効果について説明する。
 図24及び図25で説明したように、第10実施形態に係る認証システム10では、通知前画像及び通知後画像を用いて、対象の顔が立体であるか否かが判定される。このようにすれば、対象の顔が立体であるか否か(言い換えれば、本物の対象であるか否か)を判定することができるため、例えば紙やディスプレイ等を用いたなりすましによる不正を抑制することが可能である。
 上述した各実施形態の機能を実現するように該実施形態の構成を動作させるプログラムを記録媒体に記録させ、該記録媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記録媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記録媒体はもちろん、そのプログラム自体も各実施形態に含まれる。
 記録媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また該記録媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS上で動作して処理を実行するものも各実施形態の範疇に含まれる。
 この開示は、請求の範囲及び明細書全体から読み取ることのできる発明の要旨又は思想に反しない範囲で適宜変更可能であり、そのような変更を伴う認証システム、認証装置、認証方法、及び記録媒体もまたこの開示の技術思想に含まれる。
 <付記>
 以上説明した実施形態に関して、更に以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 付記1に記載の認証システムは、対象を含む画像から前記対象の顔情報及び環境情報を取得する第1取得手段と、前記画像を撮像した際の角度を示す情報である撮像角度情報を取得する第2取得手段と、取得した前記顔情報、前記環境情報、及び前記撮像角度情報に基づいて、前記対象の認証処理を実行する認証実行手段と、を備える認証システムである。
 (付記2)
 付記2に記載の認証システムは、撮像する角度を変えて複数回の撮像を行うことで取得される前記顔情報、前記環境情報、及び前記撮像角度情報を、予め登録情報として記憶する記憶手段を更に備え、前記記憶手段は、前記環境情報と前記撮像角度情報とを紐付けた状態で複数記憶しており、前記認証実行手段は、取得した前記撮像角度情報に応じた前記環境情報を前記登録情報の中から選択し、取得した前記環境情報と選択した前記環境情報とが一致し、且つ、取得した前記顔情報と登録された前記顔情報とが一致した場合に、前記認証処理が成功したと判定する付記1に記載の認証システムである。
 (付記3)
 付記3に記載の認証システムは、前記第1取得手段は、第1の撮像範囲を有する第1撮像部から前記顔情報を複数取得し、前記第1の撮像範囲とは異なる第2の撮像範囲を有する第2撮像部から前記環境情報を複数取得し、前記第2取得手段は、前記第1撮像部及び前記第2撮像部が前記画像を撮像した際の前記撮像角度情報を取得し、前記認証実行手段は、前記第1取得手段及び前記第2取得手段から取得した前記顔情報、前記環境情報、及び前記撮像角度情報に基づいて、前記認証処理を実行する付記1又は2に記載の認証システムである。
 (付記4)
 付記4に記載の認証システムは、前記第1取得手段は、第1のタイミングで撮像された第1画像と、第2のタイミングで撮像された第2画像から、前記顔情報、及び前記環境情報を取得し、前記第2取得手段は、前記第1画像と前記第2画像が撮像された際の前記撮像角度情報を取得し、前記認証実行手段は、前記第1画像及び前記第2画像から取得した前記顔情報、前記環境情報、及び前記第1画像の前記撮像角度情報と前記第2画像の前記撮像角度情報との差異に基づいて、前記認証処理を実行する付記1から3のいずれか一項に記載の認証システムである。
 (付記5)
 付記5に記載の認証システムは、前記第1取得手段は、時系列で撮像された複数の時系列画像から、前記顔情報及び前記環境情報を取得し、前記第2取得手段は、前記時系列画像の各々が撮像された際の前記撮像角度情報を取得し、前記認証実行手段は、前記顔情報、前記環境情報の時系列における変化、及び前記撮像角度情報の時系列における変化に基づいて、前記認証処理を実行する付記1から3のいずれか一項に記載の認証システム。
 (付記6)
 付記6に記載の認証システムは、前記画像を撮像した際の位置情報を取得する第3取得手段を更に備え、前記記憶手段は、前記顔情報、前記環境情報、及び前記撮像角度情報に加えて、前記位置情報を前記登録情報として記憶しており、前記認証実行手段は、取得した前記顔情報、前記環境情報、前記撮像角度情報、及び前記位置情報と、前記登録情報とに基づいて、前記認証処理を実行する付記2から5のいずれか一項に記載の認証システムである。
 (付記7)
 付記7に記載の認証システムは、前記認証処理において、取得した前記顔情報と登録された前記顔情報とが一致する一方で、取得した前記環境情報又は前記撮像角度情報と登録された前記環境情報又は前記撮像角度情報とが一致しない場合に、前記画像を撮像する条件を変更するように前記対象に通知する通知手段を更に備える付記1から6のいずれか一項に記載の認証システムである。
 (付記8)
 付記8に記載の認証システムは、前記通知手段が通知する前に取得された前記顔情報と、前記通知手段が通知した後に取得された前記顔情報とを用いて、前記対象の顔が立体であるか否かを判定する立体判定手段を更に備える付記7に記載の認証システムである。
 (付記9)
 付記9に記載の認証装置は、対象を含む画像から前記対象の顔情報及び環境情報を取得する第1取得手段と、前記画像を撮像した際の角度を示す情報である撮像角度情報を取得する第2取得手段と、取得した前記顔情報、前記環境情報、及び前記撮像角度情報に基づいて、前記対象の認証処理を実行する認証実行手段と、を備える認証装置である。
 (付記10)
 付記10に記載の認証方法は、対象を含む画像から前記対象の顔情報及び環境情報を取得し、前記画像を撮像した際の撮像角度情報を取得し、取得した前記顔情報、前記環境情報、及び前記撮像角度情報に基づいて、前記対象の認証処理を実行する、認証方法である。
 (付記11)
 付記11に記載の記録媒体は、コンピュータに、対象を含む画像から前記対象の顔情報及び環境情報を取得し、前記画像を撮像した際の角度を示す情報である撮像角度情報を取得し、取得した前記顔情報、前記環境情報、及び前記撮像角度情報に基づいて、前記対象の認証処理を実行する、認証方法を実行させるコンピュータプログラムが記録された記録媒体である。
 (付記12)
 付記12に記載のコンピュータプログラムは、コンピュータに、対象を含む画像から前記対象の顔情報及び環境情報を取得し、前記画像を撮像した際の角度を示す情報である撮像角度情報を取得し、取得した前記顔情報、前記環境情報、及び前記撮像角度情報に基づいて、前記対象の認証処理を実行する、認証方法を実行させるコンピュータプログラムである。
 10 認証システム
 11 プロセッサ
 14 記憶装置
 20 カメラ
 21 センサ
 110 顔・環境取得部
 120 撮像角度取得部
 130 登録情報記憶部
 140 認証実行部
 141 顔照合部
 142 環境選択部
 143 環境照合部
 144 撮像角度照合部
 145 撮像角度差異算出部
 146 時系列変化算出部
 150 位置取得部
 160 通知部
 170 立体判定部
 210 第1撮像部
 220 第2撮像部

Claims (11)

  1.  対象を含む画像から前記対象の顔情報及び環境情報を取得する第1取得手段と、
     前記画像を撮像した際の角度を示す情報である撮像角度情報を取得する第2取得手段と、
     取得した前記顔情報、前記環境情報、及び前記撮像角度情報に基づいて、前記対象の認証処理を実行する認証実行手段と、
     を備える認証システム。
  2.  撮像する角度を変えて複数回の撮像を行うことで取得される前記顔情報、前記環境情報、及び前記撮像角度情報を、予め登録情報として記憶する記憶手段を更に備え、
     前記記憶手段は、前記環境情報と前記撮像角度情報とを紐付けた状態で複数記憶しており、
     前記認証実行手段は、
     取得した前記撮像角度情報に応じた前記環境情報を前記登録情報の中から選択し、
     取得した前記環境情報と選択した前記環境情報とが一致し、且つ、取得した前記顔情報と登録された前記顔情報とが一致した場合に、前記認証処理が成功したと判定する
     請求項1に記載の認証システム。
  3.  前記第1取得手段は、第1の撮像範囲を有する第1撮像部から前記顔情報を複数取得し、前記第1の撮像範囲とは異なる第2の撮像範囲を有する第2撮像部から前記環境情報を複数取得し、
     前記第2取得手段は、前記第1撮像部及び前記第2撮像部が前記画像を撮像した際の前記撮像角度情報を取得し、
     前記認証実行手段は、前記第1取得手段及び前記第2取得手段から取得した前記顔情報、前記環境情報、及び前記撮像角度情報に基づいて、前記認証処理を実行する
     請求項1又は2に記載の認証システム。
  4.  前記第1取得手段は、第1のタイミングで撮像された第1画像と、第2のタイミングで撮像された第2画像から、前記顔情報、及び前記環境情報を取得し、
     前記第2取得手段は、前記第1画像と前記第2画像が撮像された際の前記撮像角度情報を取得し、
     前記認証実行手段は、前記第1画像及び前記第2画像から取得した前記顔情報、前記環境情報、及び前記第1画像の前記撮像角度情報と前記第2画像の前記撮像角度情報との差異に基づいて、前記認証処理を実行する
     請求項1から3のいずれか一項に記載の認証システム。
  5.  前記第1取得手段は、時系列で撮像された複数の時系列画像から、前記顔情報及び前記環境情報を取得し、
     前記第2取得手段は、前記時系列画像の各々が撮像された際の前記撮像角度情報を取得し、
     前記認証実行手段は、前記顔情報、前記環境情報の時系列における変化、及び前記撮像角度情報の時系列における変化に基づいて、前記認証処理を実行する
     請求項1から3のいずれか一項に記載の認証システム。
  6.  前記画像を撮像した際の位置情報を取得する第3取得手段を更に備え、
     前記記憶手段は、前記顔情報、前記環境情報、及び前記撮像角度情報に加えて、前記位置情報を前記登録情報として記憶しており、
     前記認証実行手段は、取得した前記顔情報、前記環境情報、前記撮像角度情報、及び前記位置情報と、前記登録情報とに基づいて、前記認証処理を実行する
     請求項2から5のいずれか一項に記載の認証システム。
  7.  前記認証処理において、取得した前記顔情報と登録された前記顔情報とが一致する一方で、取得した前記環境情報又は前記撮像角度情報と登録された前記環境情報又は前記撮像角度情報とが一致しない場合に、前記画像を撮像する条件を変更するように前記対象に通知する通知手段を更に備える請求項1から6のいずれか一項に記載の認証システム。
  8.  前記通知手段が通知する前に取得された前記顔情報と、前記通知手段が通知した後に取得された前記顔情報とを用いて、前記対象の顔が立体であるか否かを判定する立体判定手段を更に備える請求項7に記載の認証システム。
  9.  対象を含む画像から前記対象の顔情報及び環境情報を取得する第1取得手段と、
     前記画像を撮像した際の角度を示す情報である撮像角度情報を取得する第2取得手段と、
     取得した前記顔情報、前記環境情報、及び前記撮像角度情報に基づいて、前記対象の認証処理を実行する認証実行手段と、
     を備える認証装置。
  10.  対象を含む画像から前記対象の顔情報及び環境情報を取得し、
     前記画像を撮像した際の角度を示す情報である撮像角度情報を取得し、
     取得した前記顔情報、前記環境情報、及び前記撮像角度情報に基づいて、前記対象の認証処理を実行する、
     認証方法。
  11.  コンピュータに、
     対象を含む画像から前記対象の顔情報及び環境情報を取得し、
     前記画像を撮像した際の角度を示す情報である撮像角度情報を取得し、
     取得した前記顔情報、前記環境情報、及び前記撮像角度情報に基づいて、前記対象の認証処理を実行する、
     認証方法を実行させるコンピュータプログラムが記録された記録媒体。
PCT/JP2021/025990 2021-07-09 2021-07-09 認証システム、認証装置、認証方法、及び記録媒体 WO2023281743A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/025990 WO2023281743A1 (ja) 2021-07-09 2021-07-09 認証システム、認証装置、認証方法、及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/025990 WO2023281743A1 (ja) 2021-07-09 2021-07-09 認証システム、認証装置、認証方法、及び記録媒体

Publications (1)

Publication Number Publication Date
WO2023281743A1 true WO2023281743A1 (ja) 2023-01-12

Family

ID=84800492

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/025990 WO2023281743A1 (ja) 2021-07-09 2021-07-09 認証システム、認証装置、認証方法、及び記録媒体

Country Status (1)

Country Link
WO (1) WO2023281743A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003022443A (ja) * 2001-07-05 2003-01-24 Fuji Photo Film Co Ltd 画像比較装置、画像比較方法、画像比較用プログラム、撮影装置、及び撮影方法。
JP2005056004A (ja) * 2003-08-07 2005-03-03 Omron Corp 顔照合装置、顔照合方法、および顔照合プログラム
JP2007094637A (ja) * 2005-09-28 2007-04-12 Denso Corp 顔画像認証装置
JP2007304801A (ja) * 2006-05-10 2007-11-22 Nec Corp 立体性認証方法、立体性認証装置および立体性認証プログラム
JP2014010686A (ja) * 2012-06-29 2014-01-20 Secom Co Ltd 顔画像認証装置
JP2016038774A (ja) * 2014-08-08 2016-03-22 シャープ株式会社 人物識別装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003022443A (ja) * 2001-07-05 2003-01-24 Fuji Photo Film Co Ltd 画像比較装置、画像比較方法、画像比較用プログラム、撮影装置、及び撮影方法。
JP2005056004A (ja) * 2003-08-07 2005-03-03 Omron Corp 顔照合装置、顔照合方法、および顔照合プログラム
JP2007094637A (ja) * 2005-09-28 2007-04-12 Denso Corp 顔画像認証装置
JP2007304801A (ja) * 2006-05-10 2007-11-22 Nec Corp 立体性認証方法、立体性認証装置および立体性認証プログラム
JP2014010686A (ja) * 2012-06-29 2014-01-20 Secom Co Ltd 顔画像認証装置
JP2016038774A (ja) * 2014-08-08 2016-03-22 シャープ株式会社 人物識別装置

Similar Documents

Publication Publication Date Title
CN105474622B (zh) 用于产生全对焦图像的方法和设备
US10636168B2 (en) Image processing apparatus, method, and program
JP6197388B2 (ja) 距離測定装置、距離測定方法、およびプログラム
WO2014181725A1 (ja) 画像計測装置
WO2010101227A1 (ja) 物体位置推定用情報作成装置、物体位置推定用情報作成方法およびプログラム
US10726262B2 (en) Imaging support system, device and method, and imaging terminal
CN108510528B (zh) 一种可见光和红外图像配准融合的方法及装置
US20160292888A1 (en) Image measurement device, and recording medium
US10600202B2 (en) Information processing device and method, and program
JP2022164659A (ja) 情報処理装置、情報処理システム、及び、推定方法
CN110008802B (zh) 从多个脸部中选择目标脸部及脸部识别比对方法、装置
JP5937763B2 (ja) 三次元実体の画像取得の認証方法
CN112258647B (zh) 地图重建方法及装置、计算机可读介质和电子设备
WO2023281743A1 (ja) 認証システム、認証装置、認証方法、及び記録媒体
EP2128820A1 (en) Information extracting method, registering device, collating device and program
JP5448952B2 (ja) 同一人判定装置、同一人判定方法および同一人判定プログラム
KR20170093421A (ko) 영상 처리 장치에 의해 수행되는 영상에서 관심 객체를 판별하는 방법, 영상 처리 장치 및 컴퓨팅 장치
JP6218102B2 (ja) 情報処理システム、情報処理方法及びプログラム
WO2023007730A1 (ja) 情報処理システム、情報処理装置、情報処理方法、及び記録媒体
CN117437288B (zh) 摄影测量方法、装置、设备及存储介质
JP7075090B1 (ja) 情報処理システム、及び、情報処理方法
CN113673503B (zh) 一种图像检测的方法及装置
JP5636966B2 (ja) 誤差検出装置及び誤差検出プログラム
CN112614181B (zh) 一种基于高亮目标的机器人定位方法及装置
WO2022230117A1 (ja) 情報処理システム、情報処理方法、及び記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21949375

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18271653

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE