WO2023175783A1 - 情報処理装置、情報処理方法、及び記録媒体 - Google Patents

情報処理装置、情報処理方法、及び記録媒体 Download PDF

Info

Publication number
WO2023175783A1
WO2023175783A1 PCT/JP2022/011958 JP2022011958W WO2023175783A1 WO 2023175783 A1 WO2023175783 A1 WO 2023175783A1 JP 2022011958 W JP2022011958 W JP 2022011958W WO 2023175783 A1 WO2023175783 A1 WO 2023175783A1
Authority
WO
WIPO (PCT)
Prior art keywords
score
information processing
class
map
processing device
Prior art date
Application number
PCT/JP2022/011958
Other languages
English (en)
French (fr)
Inventor
博志 橋本
昭裕 早坂
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/011958 priority Critical patent/WO2023175783A1/ja
Publication of WO2023175783A1 publication Critical patent/WO2023175783A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication

Definitions

  • This disclosure relates to the technical field of information processing devices, information processing methods, and recording media.
  • Patent Document 1 discloses that an activation map is generated by Grad-CAM processing from a feature map generated by a convolutional neural network.
  • Patent Document 2 discloses outputting a weight representing the degree of influence on a target category in a feature map for each channel of a convolutional layer and for each output position.
  • Patent Document 3 discloses that when identifying the class of input data, a feature vector extracted from the input data is processed as a weight vector.
  • This disclosure aims to improve the techniques disclosed in prior art documents.
  • One aspect of the information processing device of this disclosure is a feature amount acquisition unit that obtains a query feature amount regarding a target of authentication processing, and a feature amount acquisition unit that indicates a degree of agreement between the query feature amount and a pre-registered target feature amount.
  • a first score calculation means for calculating a first score
  • a second score calculation means for calculating a second score indicating the degree of disagreement between the query feature and the target feature based on the first score.
  • generating a saliency map regarding the authentication process by treating the first score as a first class score corresponding to a first class and treating the second score as a second class score corresponding to a second class. and map generation means.
  • One aspect of the information processing method disclosed herein acquires a query feature related to a target of authentication processing using at least one computer, and determines the degree to which the query feature matches a target feature registered in advance. calculate a first score indicating the degree of disagreement between the query feature amount and the target feature amount based on the first score, and assign the first score to the first class;
  • a saliency map regarding the authentication process is generated by treating the second score as a corresponding first class score and treating the second score as a second class score corresponding to the second class.
  • One aspect of the recording medium of this disclosure is to have at least one computer obtain a query feature related to a target of authentication processing, and indicate the degree to which the query feature matches a pre-registered target feature. calculate a first score, calculate a second score indicating the degree of disagreement between the query feature and the target feature based on the first score, and associate the first score with a first class;
  • a computer program for executing an information processing method that generates a saliency map regarding the authentication process by treating the second score as a first class score corresponding to the second class and treating the second score as a second class score corresponding to the second class is recorded. has been done.
  • FIG. 1 is a block diagram showing a hardware configuration of an information processing device according to a first embodiment.
  • FIG. 1 is a block diagram showing a functional configuration of an information processing device according to a first embodiment.
  • 3 is a flowchart showing the flow of operations of the information processing apparatus according to the first embodiment.
  • FIG. 2 is a block diagram showing the functional configuration of an information processing device according to a second embodiment.
  • 7 is a flowchart showing the flow of operations of the information processing device according to the second embodiment.
  • FIG. 3 is a schematic diagram showing the influence of normalization processing on gradient calculation.
  • FIG. 7 is a block diagram showing a functional configuration of a CAM generation unit in an information processing device according to a third embodiment.
  • FIG. 7 is a flowchart showing the flow of operations of the information processing device according to the third embodiment.
  • FIG. 7 is a conceptual diagram showing an example of a visualization method by an information processing device according to a fourth embodiment.
  • FIG. 7 is a block diagram showing the functional configuration of an information processing device according to a fifth embodiment. It is a flowchart which shows the flow of operation of the information processing device concerning a 5th embodiment.
  • FIG. 7 is a conceptual diagram showing an example of a visualization method by an information processing device according to a sixth embodiment.
  • FIG. 1 is a block diagram showing the hardware configuration of an information processing apparatus according to the first embodiment.
  • the information processing device 10 includes a processor 11, a RAM (Random Access Memory) 12, a ROM (Read Only Memory) 13, and a storage device 14.
  • the information processing device 10 may further include an input device 15 and an output device 16.
  • the above-described processor 11, RAM 12, ROM 13, storage device 14, input device 15, and output device 16 are connected via a data bus 17.
  • the processor 11 reads a computer program.
  • the processor 11 is configured to read a computer program stored in at least one of the RAM 12, ROM 13, and storage device 14.
  • the processor 11 may read a computer program stored in a computer-readable recording medium using a recording medium reading device (not shown).
  • the processor 11 may obtain (that is, read) a computer program from a device (not shown) located outside the information processing device 10 via a network interface.
  • the processor 11 controls the RAM 12, the storage device 14, the input device 15, and the output device 16 by executing the loaded computer program.
  • a functional block for generating a saliency map is implemented within the processor 11.
  • the processor 11 may function as a controller that executes various controls in the information processing device 10.
  • the processor 11 includes, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an FPGA (field-programmable gate array), and a DSP (DSP). It may be configured as an ASIC (Application Specific Integrated Circuit). The processor 11 may be configured with one of these, or may be configured to use a plurality of them in parallel.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • FPGA field-programmable gate array
  • DSP DSP
  • ASIC Application Specific Integrated Circuit
  • the RAM 12 temporarily stores computer programs executed by the processor 11.
  • the RAM 12 temporarily stores data that is temporarily used by the processor 11 while the processor 11 is executing a computer program.
  • the RAM 12 may be, for example, D-RAM (Dynamic Random Access Memory) or SRAM (Static Random Access Memory). Further, instead of the RAM 12, other types of volatile memory may be used.
  • the ROM 13 stores computer programs executed by the processor 11.
  • the ROM 13 may also store other fixed data.
  • the ROM 13 may be, for example, a P-ROM (Programmable Read Only Memory) or an EPROM (Erasable Read Only Memory). Further, in place of the ROM 13, other types of nonvolatile memory may be used.
  • the storage device 14 stores data that the information processing device 10 stores for a long time.
  • Storage device 14 may operate as a temporary storage device for processor 11.
  • the storage device 14 may include, for example, at least one of a hard disk device, a magneto-optical disk device, an SSD (Solid State Drive), and a disk array device.
  • the input device 15 is a device that receives input instructions from the user of the information processing device 10.
  • the input device 15 may include, for example, at least one of a keyboard, a mouse, and a touch panel.
  • the input device 15 may be configured as a mobile terminal such as a smartphone or a tablet.
  • the input device 15 may be a device capable of inputting audio, including a microphone, for example.
  • the output device 16 is a device that outputs information regarding the information processing device 10 to the outside.
  • the output device 16 may be a display device (for example, a display) that can display information regarding the information processing device 10.
  • the output device 16 may be a speaker or the like that can output information regarding the information processing device 10 in audio.
  • the output device 16 may be configured as a mobile terminal such as a smartphone or a tablet.
  • the output device 16 may be a device that outputs information in a format other than images.
  • the output device 16 may be a speaker that outputs information regarding the information processing device 10 in audio form.
  • FIG. 1 shows an example of the information processing device 10 that includes a plurality of devices, all or part of these functions may be implemented as a single device.
  • the information processing device 10 is configured to include only the above-mentioned processor 11, RAM 12, and ROM 13, and the other components (i.e., the storage device 14, the input device 15, and the output device 16) are not included in the information processing device 10.
  • An external device connected to 10 may be provided.
  • the information processing device 10 may realize some of the calculation functions by an external device (for example, an external server, a cloud, etc.).
  • FIG. 2 is a block diagram showing the functional configuration of the information processing device according to the first embodiment.
  • the information processing device 10 is configured to generate a saliency map related to authentication processing.
  • the information processing device 10 is configured to be able to generate a saliency map that visualizes parts that have a high degree of contribution to authentication processing.
  • the type of authentication processing here is not particularly limited, but may be biometric authentication processing using a face image or an iris image, for example.
  • the information processing device 10 may be configured to be able to execute the authentication process itself, or may be configured so that it does not execute the authentication process (for example, the information processing device 10 may be configured so that the authentication process is performed by an external device). ).
  • the information processing device 10 includes a feature acquisition unit 110, a matching unit 120, and a map generation unit 130 as components for realizing its functions. It is composed of
  • Each of the feature amount acquisition unit 110, the matching unit 120, and the map generation unit 130 may be a processing block implemented by, for example, the processor 11 described above (see FIG. 1).
  • each of the feature amount acquisition section 110, the matching section 120, and the map generation section 130 may be configured as a neural network.
  • the feature amount acquisition unit 110 is configured to be able to acquire query feature amounts related to the target of authentication processing.
  • the feature amount acquisition unit 110 may be configured to be able to extract the query feature amount by performing various processes on the target image.
  • the feature amount acquisition unit 110 is configured to be able to output the acquired feature amount to the matching unit 120.
  • the feature amount acquisition section 110 may be configured to be able to output information used for map generation (for example, intermediate feature amounts used for gradient calculation, etc.) to the map generation section 130.
  • the matching unit 120 is configured to be able to perform matching processing using the query feature obtained by the feature obtaining unit 110 and the target feature registered in advance. Specifically, the matching unit 120 calculates a matching score from the query feature amount and the target feature amount. In this case, the matching unit 120 uses the calculated matching score, a determination threshold for determining whether the score is the person in question (i.e., the registered object), and a judgment threshold for determining whether the person is the person (i.e., the registered object). The verification process may be performed by comparing the determination threshold value for determining whether the The matching score may be calculated, for example, as a cosine similarity between the query feature and the target feature.
  • the matching unit 120 includes a first score calculating unit 121 and a second score calculating unit 122 as components that calculate the above-mentioned matching score.
  • the first score calculation unit 121 is configured to be able to calculate a first score (so-called personal score) indicating the degree to which the query feature amount and the target feature amount match. Note that when there are multiple registered targets, the first score may be calculated for each of the multiple targets. That is, a plurality of first scores may be calculated.
  • the second score 122 is configured to be able to calculate a second score (so-called other person's score) indicating the degree to which the query feature amount and the target feature amount do not match.
  • the map generation unit 130 is configured to be able to generate a saliency map using the matching score calculated by the matching unit. Specifically, the map generation unit 130 treats the first score calculated by the first score calculation unit 121 as the first class score corresponding to the first class. For example, the map generation unit 130 may consider the first score yt expressed as in the following equation (1) to be the first class score yc .
  • f (hat) is a query feature
  • f (hat) t is a t-th target feature
  • the map generation unit 130 treats the second score calculated by the second score calculation unit 122 as a second class score corresponding to the second class (that is, a class different from the first class).
  • the second class score x may be defined as shown in equation (3) below from the other person's probability p expressed as shown in equation (2) below.
  • is a determination threshold for determining whether the person is the person in question or a stranger
  • s is a positive number (super parameter).
  • the first score self score
  • the second score other person's score
  • authentication tasks for which classes are not defined in advance can be classified into classes. It can be treated as a task.
  • the second class score is set to a constant (for example, simply a threshold)
  • all gradient calculation results will be zero, and the desired result will not be obtained.
  • this problem can be avoided. becomes possible.
  • FIG. 3 is a flowchart showing the flow of operations of the information processing apparatus according to the first embodiment.
  • the feature amount acquisition unit 110 first obtains the query feature amount regarding the target of authentication processing (step S101).
  • the query feature acquired by the feature acquisition unit 110 is output to the matching unit 120.
  • the intermediate feature amount etc. acquired by the feature amount acquisition section 110 may be output to the map generation section 130.
  • the first score calculation unit 121 in the matching unit 120 calculates a first score indicating the degree of agreement between the query feature amount and the target feature amount (step S102). Further, the second score calculation unit 122 in the matching unit 120 calculates a second score indicating the degree of disagreement between the query feature amount and the target feature amount (step S103). The first score calculated by the first score calculation unit 121 and the second score calculated by the second score calculation unit 122 are each output to the map generation unit 130.
  • the map generation unit 130 treats the first score calculated by the first score calculation unit 121 as a first class score, and treats the second score calculated by the second score calculation unit 122 as a second class score. In this way, a saliency map is generated (step S104). Then, the map generation unit 130 outputs the generated saliency map (step S105).
  • the saliency map may be output by, for example, the above-mentioned output device 16 (see FIG. 1).
  • the science map may be displayed as an image using a display. Note that a specific method for visualizing the saliency map will be described in detail in other embodiments to be described later.
  • a saliency map is generated by treating the matching score in the authentication process as a class score.
  • an authentication task for which a class is not defined in advance can be treated as a class classification task, thereby making it possible to appropriately generate a saliency map.
  • FIG. 4 is a block diagram showing the functional configuration of an information processing device according to the second embodiment.
  • the same reference numerals are given to the same elements as those shown in FIG. 2.
  • the information processing device 10 according to the second embodiment includes a feature generation unit 110, a matching unit 120, and a CAM generation unit 135 as components for realizing the functions. It is composed of That is, the information processing device 10 according to the second embodiment includes a CAM generation section 135 instead of the map generation section 130 (see FIG. 2) in the first embodiment.
  • the CAM generation unit 135 may be a processing block implemented by, for example, the processor 11 described above (see FIG. 1).
  • the CAM generation unit 135 is configured to be able to generate a CAM (Class Activation Map), which is a specific example of a saliency map. Similar to the map generation unit 130 (see FIG. 2) of the first embodiment described above, the CAM generation unit 135 treats the first score calculated by the first score calculation unit 121 as a first class score, and generates a second score. The second score calculated by the calculation unit 122 is treated as a second class score. In this way, the CAM generation unit 135 generates a CAM from the first score and the second score.
  • CAM Class Activation Map
  • the CAM generation unit 135 may use various methods derived from CAM. For example, the CAM generation unit 135 may generate the CAM using a Gradient-weighted Class Activation Map (Gradient-weighted Class Activation Map) method. In this case, for example, by regarding the t-th target feature as the weight W c of Grad-CAM, the matching score can be treated as a class score.
  • Gradient-weighted Class Activation Map Gradient-weighted Class Activation Map
  • FIG. 5 is a flowchart showing the flow of operations of the information processing apparatus according to the second embodiment. Note that in FIG. 5, processes similar to those shown in FIG. 3 are given the same reference numerals.
  • the feature amount acquisition unit 110 first obtains the query feature amount regarding the target of authentication processing (step S101). Then, the first score calculation unit 121 in the matching unit 120 calculates a first score indicating the degree of agreement between the query feature amount and the target feature amount (step S102). Further, the second score calculation unit 122 in the matching unit 120 calculates a second score indicating the degree of disagreement between the query feature amount and the target feature amount (step S103).
  • the CAM generation unit 135 treats the first score calculated by the first score calculation unit 121 as a first class score, and treats the second score calculated by the second score calculation unit 122 as a second class score.
  • a CAM is generated (step S201).
  • the CAM generation unit 135 outputs the generated CAM (step S202).
  • the CAM may be output by, for example, the above-mentioned output device 16 (see FIG. 1).
  • the CAM may display images using a display. Note that a specific method for visualizing CAM will be described in detail in other embodiments to be described later.
  • a CAM is generated by treating the matching score in the authentication process as a class score.
  • an authentication task for which a class is not defined in advance can be treated as a class classification task, thereby making it possible to appropriately generate a CAM.
  • FIGS. 6 to 8 An information processing device 10 according to a third embodiment will be described with reference to FIGS. 6 to 8. Note that the third embodiment differs from the first and second embodiments described above only in part of the configuration and operation, and may be the same as the first and second embodiments in other parts. Therefore, in the following, parts that are different from each of the embodiments already described will be described in detail, and descriptions of other overlapping parts will be omitted as appropriate.
  • FIG. 6 is a schematic diagram showing the influence of normalization processing on gradient calculation.
  • Authentication processing may include normalization processing.
  • the normalization process may include normalizing the query feature and the target feature.
  • a specific example of the normalization process is a process of normalizing the feature map F ij k (where ij is a code indicating an element of the map) as shown in equations (4) and (5) below.
  • the normalization process according to this embodiment is not limited to the following example.
  • the first term of the above equation (6) corresponds to f in FIG. 6 and does not include the influence of the normalization process.
  • the second term corresponds to w in FIG. 6 and includes the influence of the normalization process. In this way, the directions of the vectors are completely different depending on whether the influence of the normalization process is included or not.
  • the first term which does not include the influence of normalization processing
  • the second term which includes the influence of normalization processing
  • the information processing device 10 eliminates the influence of such normalization processing (specifically, performs processing that eliminates the influence of the second term of equation (6) above). ), it is said that it is possible to generate an appropriate saliency map.
  • FIG. 7 is a block diagram showing the functional configuration of a CAM generation unit in an information processing apparatus according to the third embodiment.
  • the CAM generation unit 135 includes a first importance weight calculation unit 1351, a second importance weight calculation unit 1352, as components for realizing its functions. It is configured to include a first CAM calculation section 1353 and a second CAM calculation section 1354.
  • the first importance weight calculation unit 1351 is configured to be able to calculate importance weights affected by the normalization process.
  • the second importance weight calculation unit 1352 is configured to be able to calculate an importance weight that removes the influence of the normalization process.
  • the first importance weight calculation unit 1351 and the second importance weight calculation unit 1352 are input with matching scores, matching features, and other information used for gradient calculation. Then, the first importance weight calculation section 1351 and the second importance weight calculation section 1352 each calculate importance weights using the input information.
  • the first CAM calculation unit 1353 calculates the first CAM using the importance weight calculated by the first importance weight calculation unit 1351 (that is, the importance weight affected by the normalization process), the intermediate feature amount, etc. generate.
  • the first CAM is a CAM that has been affected by the normalization process.
  • the second CAM calculation unit 1354 uses the importance weight calculated by the second importance weight calculation unit 1352 (that is, the importance weight from which the influence of the normalization process has been removed) and the intermediate feature amount. Generate 2CAM.
  • the second CAM is a CAM from which the influence of normalization processing has been removed.
  • FIG. 8 is a flowchart showing the flow of operations of the information processing apparatus according to the third embodiment. Note that in FIG. 8, processes similar to those shown in FIG. 5 are given the same reference numerals.
  • the feature amount acquisition unit 110 first obtains the query feature amount regarding the target of authentication processing (step S101). Then, the first score calculation unit 121 in the matching unit 120 calculates a first score indicating the degree of agreement between the query feature amount and the target feature amount (step S102). Further, the second score calculation unit 122 in the matching unit 120 calculates a second score indicating the degree of disagreement between the query feature amount and the target feature amount (step S103).
  • the first importance weight calculation unit 1351 calculates the importance weight affected by the normalization process (step S301). Then, the first CAM calculation unit 1353 generates a first CAM influenced by the normalization process, using the importance weight calculated by the first importance weight calculation unit 1351, the intermediate feature amount, etc. (step S302 ). On the other hand, the second importance weight calculation unit 1352 calculates an importance weight that removes the influence of the normalization process (step S303). Then, the second CAM calculation unit 1354 uses the importance weight calculated by the second importance weight calculation unit 1352, the intermediate feature amount, etc. to generate a second CAM from which the influence of the normalization process is removed (step S304 ).
  • the CAM generation unit 135 outputs the generated CAM (step S202).
  • the CAM generation unit 135 may output both the first CAM affected by the normalization process and the second CAM not affected by the normalization process, or may output either the first CAM or the second CAM. Good too. Note that specific visualization methods for the first CAM and the second CAM will be described in detail in other embodiments to be described later.
  • the information processing device 10 As described with reference to FIGS. 6 to 8, the information processing device 10 according to the third embodiment generates a CAM from which the influence of normalization processing is removed. In this way, a CAM that meets human intuitive understanding can be generated. Note that in this embodiment, an example is given in which a CAM is generated, but the effect of removing the normalization process can also be obtained with a saliency map other than a CAM.
  • ⁇ Fourth embodiment> An information processing device 10 according to a fourth embodiment will be described with reference to FIG. 9. Note that the fourth embodiment describes the map visualization method in the third embodiment described above, and the device configuration, operation flow, etc. may be the same as the third embodiment. Therefore, in the following, parts that are different from each of the embodiments already described will be described in detail, and descriptions of other overlapping parts will be omitted as appropriate.
  • FIG. 9 is a conceptual diagram illustrating an example of a visualization method by the information processing apparatus according to the fourth embodiment.
  • a CAM that is not affected by the normalization process that is, a second CAM calculated by the second CAM calculation unit 1354
  • a CAM that is not affected by the normalization process displayed by associating a certain CAM (that is, the first CAM calculated by the first CAM calculation unit 1353) with different parameters related to display. For example, visualization is performed such that the second CAM, which is not affected by normalization processing, corresponds to hue, and the first CAM, which is affected by normalization processing, corresponds to saturation. In this way, for example, by making the input correspond to the brightness, it is possible to overlay and display the first CAM and the second CAM on the input image (black and white image).
  • the parameters to which the first CAM and the second CAM are associated are not limited to the hue and saturation described above.
  • the first CAM which is not affected by the normalization process, is preferably associated with a parameter that has a stronger visual effect on humans (for example, the hue in the above example) than the second CAM.
  • CAMs that are not affected by normalization processing and CAMs that are affected by normalization processing are visualized so that they correspond to different parameters. will be held. In this way, it becomes possible to realize visualization that is in line with human intuitive understanding.
  • FIGS. 10 and 11 An information processing device 10 according to a fifth embodiment will be described with reference to FIGS. 10 and 11. Note that the fifth embodiment differs from the first to fourth embodiments described above only in part of the configuration and operation, and may be the same as the first to fourth embodiments in other parts. Therefore, in the following, parts that are different from each of the embodiments already described will be described in detail, and descriptions of other overlapping parts will be omitted as appropriate.
  • FIG. 10 is a block diagram showing the functional configuration of an information processing apparatus according to the fifth embodiment.
  • the same reference numerals are given to the same elements as those shown in FIG. 2.
  • the information processing device 10 includes a feature acquisition unit 110, a matching unit 120, and a map generation unit 130 as components for realizing its functions. It is composed of In particular, the map generation section 130 according to the fifth embodiment includes an element decomposition section 131.
  • the element decomposition unit 131 is configured to be able to decompose the contribution of each element of the feature map based on the query feature amount to the authentication process into a norm and a degree of similarity. However, the element decomposition unit 131 assumes that most of the processing after generating the feature map is linear processing. Note that "almost" is used here because it is assumed that the definition expansion is obvious, such as bias processing included in affine transformation. An example of non-linear processing is activation function processing such as ReLU.
  • G ij is a feature defined by each element ij.
  • the normalization process is a nonlinear process, it can be defined as a linear process by calculating the normalization coefficient in advance as shown in equation (7) above. Then, when the matching score is reviewed with the above equation (7) in mind, the contribution of each element can be broken down and defined into a norm and an angle (similarity) as shown in equation (8) below.
  • G ij is the norm of G ij
  • y t ij is the cosine similarity between G ij and f t .
  • Similarity is an index often used in, for example, face authentication, and in this embodiment, a saliency map is generated taking into consideration the characteristics of such authentication processing.
  • FIG. 11 is a flowchart showing the flow of operations of the information processing apparatus according to the fifth embodiment. Note that in FIG. 11, processes similar to those shown in FIG. 3 are given the same reference numerals.
  • the feature amount acquisition unit 110 first obtains the query feature amount regarding the target of authentication processing (step S101). Then, the first score calculation unit 121 in the matching unit 120 calculates a first score indicating the degree of agreement between the query feature amount and the target feature amount (step S102). Further, the second score calculation unit 122 in the matching unit 120 calculates a second score indicating the degree of disagreement between the query feature amount and the target feature amount (step S103).
  • the map generation unit 130 generates a saliency map by decomposing the contribution of each element of the feature map into a norm and a degree of similarity (step S501). Then, the map generation unit 130 outputs the generated saliency map (step S202). Note that a specific visualization method using the decomposed norm and similarity will be described in detail in other embodiments to be described later.
  • the contribution of each element of the feature map is decomposed into a norm and a degree of similarity. In this way, it is possible to generate an appropriate saliency map in consideration of the characteristics of authentication processing that is based on normalization processing.
  • ⁇ Sixth embodiment> An information processing device 10 according to a sixth embodiment will be described with reference to FIG. 12. Note that the sixth embodiment describes the map visualization method in the fifth embodiment described above, and the device configuration, operation flow, etc. may be the same as the fifth embodiment. Therefore, in the following, parts that are different from each of the embodiments already described will be described in detail, and descriptions of other overlapping parts will be omitted as appropriate.
  • FIG. 12 is a conceptual diagram illustrating an example of a visualization method by the information processing apparatus according to the sixth embodiment.
  • visualization is performed by associating the norm and the degree of similarity decomposed by the element decomposition unit 131 with separate parameters related to display.
  • visualization is performed such that norm corresponds to saturation and similarity corresponds to hue.
  • norm corresponds to saturation
  • similarity corresponds to hue.
  • the parameters to which the norm and similarity are associated are not limited to the hue and saturation described above. However, it is preferable that the degree of similarity that is considered to be relatively important is associated with a parameter that has a stronger visual effect on humans (for example, the hue in the above example) than the norm.
  • visualization is performed so that the decomposed norm and similarity correspond to different parameters. In this way, it becomes possible to realize visualization that takes into account the characteristics of the authentication process.
  • Each embodiment also includes a processing method in which a program that operates the configuration of each embodiment described above is recorded on a recording medium, the program recorded on the recording medium is read as a code, and executed on a computer. Included in the category of form. That is, computer-readable recording media are also included within the scope of each embodiment. Furthermore, not only the recording medium on which the above-described program is recorded, but also the program itself is included in each embodiment.
  • each embodiment is not limited to a program that executes processing by itself as a program recorded on the recording medium, but also includes a program that operates on the OS and executes processing in collaboration with other software and functions of an expansion board. included in the category of Furthermore, the program itself may be stored on a server, and part or all of the program may be downloaded to the user terminal from the server.
  • the information processing apparatus includes a feature amount acquisition unit that acquires a query feature amount regarding a target of authentication processing, and a first feature amount acquisition unit that indicates a degree of agreement between the query feature amount and a preregistered target feature amount. a first score calculation means for calculating a score; a second score calculation means for calculating a second score indicating the degree of disagreement between the query feature amount and the target feature amount based on the first score; A map that generates a saliency map regarding the authentication process by treating the first score as a first class score corresponding to the first class and treating the second score as a second class score corresponding to the second class.
  • An information processing apparatus includes a generating means.
  • the information processing apparatus is the information processing apparatus according to supplementary note 1, wherein the map generation means generates a CAM (Class Activation Map).
  • the information processing apparatus is characterized in that the map generating means generates the saliency map by removing the influence of the normalization process of the query feature included in the authentication process. This is the information processing device described.
  • the map generation means associates first data that does not include the influence of the normalization process with a first parameter, and associates second data that includes the influence of the normalization process with a second parameter.
  • the information processing device according to supplementary note 3 generates the saliency map in correspondence with parameters.
  • the map generation means decomposes the contribution of each element of the feature map based on the query feature amount to the authentication process into two elements, a norm and a similarity degree, The information processing device according to supplementary note 1 or 2, which generates the saliency map.
  • the information processing apparatus is characterized in that the map generation means generates the saliency map by making the norm correspond to a first parameter and by making the similarity correspond to a second parameter. This is an information processing device.
  • the information processing method described in Supplementary Note 7 acquires, by at least one computer, a query feature related to a target of authentication processing, and acquires a query feature related to an authentication processing target, and obtains a first information processing method that indicates the degree of agreement between the query feature and a pre-registered target feature. 1 score is calculated, based on the first score, a second score indicating the degree of disagreement between the query feature and the target feature is calculated, and the first score corresponds to the first class.
  • a saliency map regarding the authentication process is generated by treating the second score as a first class score and treating the second score as a second class score corresponding to the second class.
  • the recording medium according to Supplementary Note 12 includes a first computer that acquires a query feature related to an object of authentication processing in at least one computer, and indicates a degree of agreement between the query feature and a pre-registered target feature. A score is calculated, a second score indicating the degree of disagreement between the query feature amount and the target feature amount is calculated based on the first score, and a second score is calculated based on the first score, and a second score is calculated based on the first score.
  • a computer program was recorded that executes an information processing method that generates a saliency map regarding the authentication process by treating the second score as a second class score corresponding to the second class. It is a recording medium.
  • the computer program according to Supplementary Note 9 acquires a query feature related to a target of authentication processing in at least one computer, and a first program that indicates the degree of agreement between the query feature and a pre-registered target feature. A score is calculated, a second score indicating the degree of disagreement between the query feature amount and the target feature amount is calculated based on the first score, and a second score is calculated based on the first score, and a second score is calculated based on the first score.
  • the computer program executes an information processing method that generates a saliency map regarding the authentication process by treating the second score as a first class score and treating the second score as a second class score corresponding to the second class.
  • the information processing system includes a feature amount acquisition unit that acquires a query feature amount regarding a target of authentication processing; a first score calculation means for calculating a score; a second score calculation means for calculating a second score indicating the degree of disagreement between the query feature amount and the target feature amount based on the first score; A map that generates a saliency map regarding the authentication process by treating the first score as a first class score corresponding to the first class and treating the second score as a second class score corresponding to the second class.
  • An information processing system includes a generating means.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

情報処理装置(10)は、認証処理の対象に関するクエリ特徴量を取得する特徴量取得手段(110)と、クエリ特徴量と、予め登録されたターゲット特徴量と、が一致する度合を示す第1スコアを算出する第1スコア算出手段(121)と、第1スコアに基づいて、クエリ特徴量と、ターゲット特徴量とが一致しない度合を示す第2スコアを算出する第2スコア算出手段(122)と、第1スコアを第1のクラスに対応する第1クラススコアとし、第2スコアを第2のクラスに対応する第2クラススコアとすることで、認証処理に関するサリエンシーマップを生成するマップ生成手段(130)と、を備える。

Description

情報処理装置、情報処理方法、及び記録媒体
 この開示は、情報処理装置、情報処理方法、及び記録媒体の技術分野に関する。
 この種の装置として、推論結果における寄与度を視覚的に表示するものが知られている。例えば特許文献1では、畳み込みニューラルネットワークで生成された特徴マップから、Grad-CAM処理によってアクティベーションマップを生成すること開示されている。
 その他の関連する技術として、例えば特許文献2では、特徴マップにおける対象カテゴリへの影響の度合を表す重みを、畳み込み層のチャネルごと及び出力位置ごとに出力することが開示されている。特許文献3では、入力データのクラスを識別する際に、入力データから抽出した特徴ベクトルを重みベクトルとして処理することが開示されている。
特開2021-089512号公報 特開2019-211913号公報 特開2012-084117号公報
 この開示は、先行技術文献に開示された技術を改善することを目的とする。
 この開示の情報処理装置の一の態様は、認証処理の対象に関するクエリ特徴量を取得する特徴量取得手段と、前記クエリ特徴量と、予め登録されたターゲット特徴量と、が一致する度合を示す第1スコアを算出する第1スコア算出手段と、前記第1スコアに基づいて、前記クエリ特徴量と、前記ターゲット特徴量とが一致しない度合を示す第2スコアを算出する第2スコア算出手段と、前記第1スコアを第1のクラスに対応する第1クラススコアとして扱い、前記第2スコアを第2のクラスに対応する第2クラススコアとして扱うことで、前記認証処理に関するサリエンシーマップを生成するマップ生成手段と、を備える。
 この開示の情報処理方法の一の態様は、少なくとも1つのコンピュータによって、認証処理の対象に関するクエリ特徴量を取得し、前記クエリ特徴量と、予め登録されたターゲット特徴量と、が一致する度合を示す第1スコアを算出し、前記第1スコアに基づいて、前記クエリ特徴量と、前記ターゲット特徴量とが一致しない度合を示す第2スコアを算出し、前記第1スコアを第1のクラスに対応する第1クラススコアとして扱い、前記第2スコアを第2のクラスに対応する第2クラススコアとして扱うことで、前記認証処理に関するサリエンシーマップを生成する。
 この開示の記録媒体の一の態様は、少なくとも1つのコンピュータに、認証処理の対象に関するクエリ特徴量を取得し、前記クエリ特徴量と、予め登録されたターゲット特徴量と、が一致する度合を示す第1スコアを算出し、前記第1スコアに基づいて、前記クエリ特徴量と、前記ターゲット特徴量とが一致しない度合を示す第2スコアを算出し、前記第1スコアを第1のクラスに対応する第1クラススコアとして扱い、前記第2スコアを第2のクラスに対応する第2クラススコアとして扱うことで、前記認証処理に関するサリエンシーマップを生成する、情報処理方法を実行させるコンピュータプログラムが記録されている。
第1実施形態に係る情報処理装置のハードウェア構成を示すブロック図である。 第1実施形態に係る情報処理装置の機能的構成を示すブロック図である。 第1実施形態に係る情報処理装置の動作の流れを示すフローチャートである。 第2実施形態に係る情報処理装置の機能的構成を示すブロック図である。 第2実施形態に係る情報処理装置の動作の流れを示すフローチャートである。 勾配計算における正規化処理の影響を示す模式図である。 第3実施形態に係る情報処理装置におけるCAM生成部の機能的構成を示すブロック図である。 第3実施形態に係る情報処理装置の動作の流れを示すフローチャートである。 第4実施形態に係る情報処理装置による可視化手法の一例を示す概念図である。 第5実施形態に係る情報処理装置の機能的構成を示すブロック図である。 第5実施形態に係る情報処理装置の動作の流れを示すフローチャートである。 第6実施形態に係る情報処理装置による可視化手法の一例を示す概念図である。
 以下、図面を参照しながら、情報処理装置、情報処理方法、及び記録媒体の実施形態について説明する。
 <第1実施形態>
 第1実施形態に係る情報処理装置について、図1から図3を参照して説明する。
 (ハードウェア構成)
 まず、図1を参照しながら、第1実施形態に係る情報処理装置のハードウェア構成について説明する。図1は、第1実施形態に係る情報処理装置のハードウェア構成を示すブロック図である。
 図1に示すように、第1実施形態に係る情報処理装置10は、プロセッサ11と、RAM(Random Access Memory)12と、ROM(Read Only Memory)13と、記憶装置14とを備えている。情報処理装置10は更に、入力装置15と、出力装置16と、を備えていてもよい。上述したプロセッサ11と、RAM12と、ROM13と、記憶装置14と、入力装置15と、出力装置16とは、データバス17を介して接続されている。
 プロセッサ11は、コンピュータプログラムを読み込む。例えば、プロセッサ11は、RAM12、ROM13及び記憶装置14のうちの少なくとも一つが記憶しているコンピュータプログラムを読み込むように構成されている。或いは、プロセッサ11は、コンピュータで読み取り可能な記録媒体が記憶しているコンピュータプログラムを、図示しない記録媒体読み取り装置を用いて読み込んでもよい。プロセッサ11は、ネットワークインタフェースを介して、情報処理装置10の外部に配置される不図示の装置からコンピュータプログラムを取得してもよい(つまり、読み込んでもよい)。プロセッサ11は、読み込んだコンピュータプログラムを実行することで、RAM12、記憶装置14、入力装置15及び出力装置16を制御する。本実施形態では特に、プロセッサ11が読み込んだコンピュータプログラムを実行すると、プロセッサ11内には、サリエンシーマップを生成するための機能ブロックが実現される。このように、プロセッサ11は、情報処理装置10における各制御を実行するコントローラとして機能してよい。
 プロセッサ11は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(field-programmable gate array)、DSP(Demand-Side Platform)、ASIC(Application Specific Integrated Circuit)として構成されてよい。プロセッサ11は、これらのうち一つで構成されてもよいし、複数を並列で用いるように構成されてもよい。
 RAM12は、プロセッサ11が実行するコンピュータプログラムを一時的に記憶する。RAM12は、プロセッサ11がコンピュータプログラムを実行している際にプロセッサ11が一時的に使用するデータを一時的に記憶する。RAM12は、例えば、D-RAM(Dynamic Random Access Memory)や、SRAM(Static Random Access Memory)であってよい。また、RAM12に代えて、他の種類の揮発性メモリが用いられてもよい。
 ROM13は、プロセッサ11が実行するコンピュータプログラムを記憶する。ROM13は、その他に固定的なデータを記憶していてもよい。ROM13は、例えば、P-ROM(Programmable Read Only Memory)や、EPROM(Erasable Read Only Memory)であってよい。また、ROM13に代えて、他の種類の不揮発性 メモリが用いられてもよい。
 記憶装置14は、情報処理装置10が長期的に保存するデータを記憶する。記憶装置14は、プロセッサ11の一時記憶装置として動作してもよい。記憶装置14は、例えば、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)及びディスクアレイ装置のうちの少なくとも一つを含んでいてもよい。
 入力装置15は、情報処理装置10のユーザからの入力指示を受け取る装置である。入力装置15は、例えば、キーボード、マウス及びタッチパネルのうちの少なくとも一つを含んでいてもよい。入力装置15は、スマートフォンやタブレット等の携帯端末として構成されていてもよい。入力装置15は、例えばマイクを含む音声入力が可能な装置であってもよい。
 出力装置16は、情報処理装置10に関する情報を外部に対して出力する装置である。例えば、出力装置16は、情報処理装置10に関する情報を表示可能な表示装置(例えば、ディスプレイ)であってもよい。また、出力装置16は、情報処理装置10に関する情報を音声出力可能なスピーカ等であってもよい。出力装置16は、スマートフォンやタブレット等の携帯端末として構成されていてもよい。また、出力装置16は、画像以外の形式で情報を出力する装置であってもよい。例えば、出力装置16は、情報処理装置10に関する情報を音声で出力するスピーカであってもよい。
 なお、図1では、複数の装置を含んで構成される情報処理装置10の例を挙げたが、これらの全部又は一部の機能を、1つの装置として実現してもよい。その場合、情報処理装置10は、例えば上述したプロセッサ11、RAM12、ROM13のみを備えて構成され、その他の構成要素(即ち、記憶装置14、入力装置15、出力装置16)については、情報処理装置10に接続される外部の装置が備えるようにしてもよい。また、情報処理装置10は、一部の演算機能を外部の装置(例えば、外部サーバやクラウド等)によって実現するものであってもよい。
 (機能的構成)
 次に、図2を参照しながら、第1実施形態に係る情報処理装置10の機能的構成について説明する。図2は、第1実施形態に係る情報処理装置の機能的構成を示すブロック図である。
 第1実施形態に係る情報処理装置10は、認証処理に関するサリエンシーマップを生成するものとして構成されている。例えば、情報処理装置10は、認証処理に関する寄与度の高い部分を可視化するサリエンシーマップを生成可能に構成されている。なお、ここでの認証処理の種別は特に限定されないが、例えば顔画像や虹彩画像を用いた生体認証処理であってよい。情報処理装置10は、それ自身が認証処理を実行可能に構成されてもよいが、自身が認証処理を実行しないように構成されてもよい(例えば、認証処理は外部の装置が行うように構成されてよい)。
 図2に示すように、第1実施形態に係る情報処理装置10は、その機能を実現するための構成要素として、特徴量取得部110と、照合部120と、マップ生成部130と、を備えて構成されている。特徴量取得部110、照合部120、マップ生成部130の各々は、例えば上述したプロセッサ11(図1参照)によって実現される処理ブロックであってよい。また、特徴量取得部110、照合部120、マップ生成部130の各々は、ニューラルネットワークとして構成されてよい。
 特徴量取得部110は、認証処理の対象に関するクエリ特徴量を取得可能に構成されている。例えば、特徴量取得部110は、対象の画像に対して各種処理を実行することによって、クエリ特徴量を抽出可能に構成されてよい。特徴量取得部110は、取得した特徴量を照合部120に出力可能に構成されている。また、特徴量取得部110は、マップ生成に用いる情報(例えば、勾配計算に用いる中間特徴量等)をマップ生成部130に出力可能に構成されてよい。
 照合部120は、特徴量取得部110で取得されたクエリ特徴量と、予め登録されたターゲット特徴量と、を用いて照合処理を実行可能に構成されている。具体的には、照合部120は、クエリ特徴量とターゲット特徴量とから照合スコアを算出する。この場合、照合部120は、算出した照合スコアと、そのスコアが本人である(即ち、登録された対象である)ことを判定するための判定閾値、及び他人である(即ち、登録された対象のいずれでもない)ことを判定するための判定閾値と、を比較して照合処理を行ってよい。照合スコアは、例えばクエリ特徴量とターゲット特徴量とのコサイン類似度として算出されてよい。
 照合部120は、上述した照合スコアを算出する構成要素として、第1スコア算出部121と、第2スコア算出部122とを備えている。第1スコア算出部121は、クエリ特徴量とターゲット特徴量とが一致する度合を示す第1スコア(所謂、本人スコア)を算出可能に構成されている。なお、登録されているターゲットが複数存在する場合、第1スコアは複数のターゲットの各々について算出されてよい。即ち、第1スコアは複数算出されてよい。第2スコア122は、クエリ特徴量とターゲット特徴量とが一致しない度合を示す第2スコア(所謂、他人スコア)を算出可能に構成されている。
 マップ生成部130は、照合部で算出された照合スコアを用いてサリエンシーマップを生成可能に構成されている。具体的には、マップ生成部130は、第1スコア算出部121で算出された第1スコアを第1のクラスに対応する第1クラススコアとして扱う。例えば、マップ生成部130は、下記式(1)のように表される第1スコアyを、第1クラススコアyとみなしてよい。
Figure JPOXMLDOC01-appb-M000001
 なお、f(ハット)はクエリ特徴量、f(ハット)はt番目のターゲット特徴量である。
 また、マップ生成部130は、第2スコア算出部122で算出された第2スコアを第2のクラス(即ち、第1のクラスとは異なるクラス)に対応する第2クラススコアとして扱う。例えば、下記式(2)のように表される他人確率pより、第2クラススコアxを下記式(3)のように定義してよい。
Figure JPOXMLDOC01-appb-M000002
 なお、λは本人、他人を判定するための判定閾値、sは正の数(超パラメタ)である。
 上記のように、第1スコア(本人スコア)を第1クラススコアとして扱い、第2スコア(他人スコア)を第2クラススコアとして扱うことで、予めクラスが定義されていない認証タスクを、クラス分類タスクとみなして処理することができる。なお、第2クラススコアを定数(例えば、単に閾値)にすると、勾配計算結果がすべてゼロとなり、所望の結果が得られないが、上記のように定義することで、このような課題を回避することが可能となる。
 (動作の流れ)
 次に、図3を参照しながら、第1実施形態に係る情報処理装置10の動作の流れ(具体的には、サリエンシーマップを出力するまでの流れ)について説明する。図3は、第1実施形態に係る情報処理装置の動作の流れを示すフローチャートである。
 図3に示すように、第1実施形態に係る情報処理装置10による動作が開始されると、まず特徴量取得部110が、認証処理の対象に関するクエリ特徴量を取得する(ステップS101)。特徴量取得部110で取得されたクエリ特徴量は、照合部120に出力される。また、特徴量取得部110で取得された中間特徴量等は、マップ生成部130に出力されてよい。
 続いて、照合部120における第1スコア算出部121が、クエリ特徴量とターゲット特徴量とが一致する度合を示す第1スコアを算出する(ステップS102)。また、照合部120における第2スコア算出部122が、クエリ特徴量とターゲット特徴量とが一致しない度合を示す第2スコアを算出する(ステップS103)。第1スコア算出部121で算出された第1スコア、及び第2スコア算出部122で算出された第2スコアは、それぞれマップ生成部130に出力される。
 続いて、マップ生成部130が、第1スコア算出部121で算出された第1スコアを第1クラススコアとして扱い、第2スコア算出部122で算出された第2スコアを第2クラススコアとして扱うことで、サリエンシーマップを生成する(ステップS104)。そして、マップ生成部130は、生成したサリエンシーマップを出力する(ステップS105)。サリエンシーマップは、例えば上述した出力装置16(図1参照)等によって出力されてよい。例えば、サエリエンシーマップは、ディスプレイを用いて画像表示されてよい。なお、サリエンシーマップの具体的な可視化方法については、後述する他の実施形態で詳しく説明する。
 (技術的効果)
 次に、第1実施形態に係る情報処理装置10によって得られる技術的効果について説明する。
 図1から図3で説明したように、第1実施形態に係る情報処理装置10では、認証処理における照合スコアをクラススコアとして扱うことにより、サリエンシーマップが生成される。このようにすれば予めクラスが定義されていない認証タスクを、クラス分類タスクとみなして処理することができるため、適切にサリエンシーマップを生成することが可能となる。
 <第2実施形態>
 第2実施形態に係る情報処理装置10について、図4及び図5を参照して説明する。なお、第2実施形態は、上述した第1実施形態と一部の構成及び動作が異なるのみであり、その他の部分については第1実施形態と同一であってよい。このため、以下では、すでに説明した第1実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図4を参照しながら、第2実施形態に係る情報処理装置10の機能的構成について説明する。図4は、第2実施形態に係る情報処理装置の機能的構成を示すブロック図である。なお、図4では、図2で示した構成要素と同様の要素に同一の符号を付している。
 図4に示すように、第2実施形態に係る情報処理装置10は、その機能を実現するための構成要素として、特徴量生成部110と、照合部120と、CAM生成部135と、を備えて構成されている。即ち、第2実施形態に係る情報処理装置10は、第1実施形態におけるマップ生成部130(図2参照)に代えて、CAM生成部135を備えている。CAM生成部135は、例えば上述したプロセッサ11(図1参照)によって実現される処理ブロックであってよい。
 CAM生成部135は、サリエンシーマップの一具体例であるCAM(Class Activation Map)を生成可能に構成されている。CAM生成部135は、上述した第1実施形態のマップ生成部130(図2参照)と同様に、第1スコア算出部121で算出された第1スコアを第1クラススコアとして扱い、第2スコア算出部122で算出された第2スコアを第2クラススコアとして扱う。このようにして、CAM生成部135は、第1スコア及び第2スコアからCAMを生成する。
 なお、CAMの具体的な生成手法については、既存の技術を適宜採用することができるため、ここでの詳細な説明は省略する。なお、CAM生成部135は、CAMから派生した様々な手法を用いてよい。例えば、CAM生成部135は、Grad-CAM(Gradient-weighted Class Activation Map)の手法を用いてCAMを生成してよい。この場合、例えばt番目のターゲット特徴量をGrad-CAMの重みWとみなすことで、照合スコアをクラススコアとして扱うことができる。
 (動作の流れ)
 次に、図5を参照しながら、第2実施形態に係る情報処理装置10の動作の流れについて説明する。図5は、第2実施形態に係る情報処理装置の動作の流れを示すフローチャートである。なお、図5では、図3で示した処理と同様の処理に同一の符号を付している。
 図5に示すように、第2実施形態に係る情報処理装置10による動作が開始されると、まず特徴量取得部110が、認証処理の対象に関するクエリ特徴量を取得する(ステップS101)。そして、照合部120における第1スコア算出部121が、クエリ特徴量とターゲット特徴量とが一致する度合を示す第1スコアを算出する(ステップS102)。また、照合部120における第2スコア算出部122が、クエリ特徴量とターゲット特徴量とが一致しない度合を示す第2スコアを算出する(ステップS103)。
 続いて、CAM生成部135が、第1スコア算出部121で算出された第1スコアを第1クラススコアとして扱い、第2スコア算出部122で算出された第2スコアを第2クラススコアとして扱うことで、CAMを生成する(ステップS201)。そして、CAM生成部135は、生成したCAMを出力する(ステップS202)。CAMは、例えば上述した出力装置16(図1参照)等によって出力されてよい。例えば、CAMは、ディスプレイを用いて画像表示されてよい。なお、CAMの具体的な可視化方法については、後述する他の実施形態で詳しく説明する。
 (技術的効果)
 次に、第2実施形態に係る情報処理装置10によって得られる技術的効果について説明する。
 図4及び図5で説明したように、第2実施形態に係る情報処理装置10では、認証処理における照合スコアをクラススコアとして扱うことにより、CAMが生成される。このようにすれば予めクラスが定義されていない認証タスクを、クラス分類タスクとみなして処理することができるため、適切にCAMを生成することが可能となる。
 <第3実施形態>
 第3実施形態に係る情報処理装置10について、図6から図8を参照して説明する。なお、第3実施形態は、上述した第1及び第2実施形態と一部の構成及び動作が異なるのみであり、その他の部分については第1及び第2実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (正規化処理の影響)
 まず、図6を参照しながら、第3実施形態に係る情報処理装置10で実行される正規化処理が与える影響について説明する。図6は、勾配計算における正規化処理の影響を示す模式図である。
 認証処理は、正規化処理を含むことがある。例えば、正規化処理は、クエリ特徴量を及びターゲット特徴量正規化する処理を含むことがある。正規化処理の一具体例としては、下記式(4)及び(5)のように特徴量マッマップFij (ijはマップの要素を示す符号)を正規化する処理が挙げられる。ただし、本実施形態に係る正規化処理が下記例に限定されるものではない。
Figure JPOXMLDOC01-appb-M000003
 そして、上記の正規化処理に対する勾配計算は、下記式(6)のようになる。
Figure JPOXMLDOC01-appb-M000004
 なお、δはクロネッカーのデルタである。
 上記式(6)の第1項は、図6におけるfに対応しており、正規化処理の影響を含まないものである。一方、第2項を含めた場合は、図6におけるwに対応し、正規化処理の影響を含むものとなる。このように、正規化処理の影響を含むものとそうでないものとでは、ベクトルの方向が全く異なるものとなる。
 なお、正規化処理の影響を含まない第1項については、人間が直感的に理解しやすいものである。一方で、正規化処理の影響を含む第2項を含めると、機械には理解しやすいものの、人間には直感的に理解しにくいものとなる。よって、正規化処理の影響を含んだものからサリエンシーマップを生成すると、人間の直感的理解にそぐわない結果が得られることになってしまう。本実施形態に係る情報処理装置10は、このような正規化処理の影響を排除することで(具体的には、上記式(6)の第2項の影響を排除するような処理を行うことで)、適切なサリエンシーマップを生成可能とされている。
 (機能的構成)
 次に、図7を参照しながら、第3実施形態に係る情報処理装置10の機能的構成(特に、CAM生成部135の構成)について説明する。図7は、第3実施形態に係る情報処理装置におけるCAM生成部の機能的構成を示すブロック図である。
 図7に示すように、第2実施形態に係るCAM生成部135は、その機能を実現するための構成要素として、第1重要度重み算出部1351と、第2重要度重み算出部1352と、第1CAM算出部1353と、第2CAM算出部1354と、を備えて構成されている。
 第1重要度重み算出部1351は、正規化処理の影響を受けた重要度重みを算出可能に構成されている。一方、第2重要度重み算出部1352は、正規化処理の影響を取り除いた重要度重みを算出可能に構成されている。第1重要度重み算出部1351及び第2重要度重み算出部1352には、照合スコアや照合特徴量、その他の勾配計算に用いる情報等が入力される。そして、第1重要度重み算出部1351及び第2重要度重み算出部1352は、それらの入力される情報を用いて、それぞれ重要度重みを算出する。
 第1CAM算出部1353は、第1重要度重み算出部1351で算出された重要度重み(即ち、正規化処理の影響を受けた重要度重み)と中間特徴量等とを用いて、第1CAMを生成する。第1CAMは、正規化処理の影響を受けたCAMである。一方、第2CAM算出部1354は、第2重要度重み算出部1352で算出された重要度重み(即ち、正規化処理の影響を取り除いた重要度重み)と中間特徴量等とを用いて、第2CAMを生成する。第2CAMは、正規化処理の影響を取り除いたCAMである。
 (動作の流れ)
 次に、図8を参照しながら、第3実施形態に係る情報処理装置10の動作の流れについて説明する。図8は、第3実施形態に係る情報処理装置の動作の流れを示すフローチャートである。なお、図8では、図5で示した処理と同様の処理に同一の符号を付している。
 図8に示すように、第3実施形態に係る情報処理装置10による動作が開始されると、まず特徴量取得部110が、認証処理の対象に関するクエリ特徴量を取得する(ステップS101)。そして、照合部120における第1スコア算出部121が、クエリ特徴量とターゲット特徴量とが一致する度合を示す第1スコアを算出する(ステップS102)。また、照合部120における第2スコア算出部122が、クエリ特徴量とターゲット特徴量とが一致しない度合を示す第2スコアを算出する(ステップS103)。
 続いて、第1重要度重み算出部1351が、正規化処理の影響を受けた重要度重みを算出する(ステップS301)。そして、第1CAM算出部1353は、第1重要度重み算出部1351で算出された重要度重みと中間特徴量等とを用いて、正規化処理の影響を受けた第1CAMを生成する(ステップS302)。一方、第2重要度重み算出部1352は、正規化処理の影響を取り除いた重要度重みを算出する(ステップS303)。そして、第2CAM算出部1354は、第2重要度重み算出部1352で算出された重要度重みと中間特徴量等とを用いて、正規化処理の影響を取り除いた第2CAMを生成する(ステップS304)。
 続いて、CAM生成部135は、生成したCAMを出力する(ステップS202)。CAM生成部135は、正規化処理の影響を受けた第1CAM及び正規化処理の影響を受けない第2CAMの両方を出力してもよいし、第1CAM及び第2CAMのいずれか一方を出力してもよい。なお、第1CAM及び第2CAMの具体的な可視化方法については、後述する他の実施形態で詳しく説明する。
 (技術的効果)
 次に、第3実施形態に係る情報処理装置10によって得られる技術的効果について説明する。
 図6から図8で説明したように、第3実施形態に係る情報処理装置10では、正規化処理の影響を取り除いたCAMが生成される。このようにすれば、人間の直感的理解に即したCAMを生成することができる。なお、本実施形態では、CAMを生成する例を挙げたが、正規化処理を取り除くことによる効果は、CAM以外のサリエンシーマップでも得られる。
 <第4実施形態>
 第4実施形態に係る情報処理装置10について、図9を参照して説明する。なお、第4実施形態は、上述した第3実施形態におけるマップの可視化手法を説明するものであり、装置構成や動作の流れ等については第3実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (可視化手法)
 まず、図9を参照しながら、第4実施形態に係る情報処理装置10によるサリエンシーマップの可視化手法について説明する。図9は、第4実施形態に係る情報処理装置による可視化手法の一例を示す概念図である。
 図9に示すように、第4実施形態に係る情報処理装置10では、正規化処理の影響がないCAM(即ち、第2CAM算出部1354で算出された第2CAM)と、正規化処理の影響があるCAM(即ち、第1CAM算出部1353で算出された第1CAM)とが、表示に係る別々のパラメータに対応付けられることで可視化が行われる。例えば、正規化処理の影響がない第2CAMが色相に対応し、正規化処理の影響がある第1CAMが彩度に対応するように可視化が行われる。このようにすれば、例えば入力を明度に対応させることで、入力画像(白黒画像)に第1CAM及び第2CAMをオーバレイして表示することができる。
 なお、第1CAM及び第2CAMが対応付けられるパラメータは、上述した色相及び彩度に限定されるものではない。ただし、正規化処理の影響がない第1CAMについては、第2CAMと比較して、人間に対する視覚的効果の強いパラメータ(例えば、上記例の色相など)に対応付けられることが好ましい。
 (技術的効果)
 次に、第4実施形態に係る情報処理装置10によって得られる技術的効果について説明する。
 図9で説明したように、第4実施形態に係る情報処理装置10では、正規化処理の影響がないCAMと、正規化処理の影響があるCAMとが、別々のパラメータに対応するように可視化が行われる。このようにすれば、人間の直感的理解に即した可視化を実現することが可能となる。
 <第5実施形態>
 第5実施形態に係る情報処理装置10について、図10及び図11を参照して説明する。なお、第5実施形態は、上述した第1から第4実施形態と一部の構成及び動作が異なるのみであり、その他の部分については第1から第4実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図10を参照しながら、第5実施形態に係る情報処理装置10の機能的構成について説明する。図10は、第5実施形態に係る情報処理装置の機能的構成を示すブロック図である。なお、図10では、図2で示した構成要素と同様の要素に同一の符号を付している。
 図10に示すように、第5実施形態に係る情報処理装置10は、その機能を実現するための構成要素として、特徴量取得部110と、照合部120と、マップ生成部130と、を備えて構成されている。そして特に、第5実施形態に係るマップ生成部130は、要素分解部131を備えている。
 要素分解部131は、クエリ特徴量に基づく特徴量マップの各要素の認証処理に対する寄与を、ノルムと類似度とに分解可能に構成されている。ただし、要素分解部131は、特徴量マップの生成後の処理がほとんど線形処理であることを前提としている。なお、ここで“ほとんど”としたのは、アフィン変換に含まれるバイアス処理等、定義拡張が自明な場合を想定しているためである。非線形処理の例としては、ReLU等の活性化関数処理が挙げられる。
 上述した線形処理の前提を課すと、正規化特徴量は下記式(7)のように表すことができる。
Figure JPOXMLDOC01-appb-M000005
 なお、Gijは各要素ijで定義された特徴量である。
 正規化処理は非線形処理であるが、上記式(7)のように正規化係数を予め計算することにより、線形処理として定義することができる。そして、上記式(7)を念頭に照合スコアを見直すと、下記式(8)のように、各要素の寄与をノルムと角度(類似度)とに分解して定義することができる。
Figure JPOXMLDOC01-appb-M000006
 なお、|Gij|はGijのノルムであり、y ijはGijとfのコサイン類似度である。
 上記構成では、類似度の重み付き和が利用される。類似度は、例えば顔認証等においてよく用いられる指標であり、本実施形態では、このような認証処理の特性を考慮してサリエンシーマップの生成が行われることになる。
 (動作の流れ)
 次に、図11を参照しながら、第5実施形態に係る情報処理装置10の動作の流れについて説明する。図11は、第5実施形態に係る情報処理装置の動作の流れを示すフローチャートである。なお、図11では、図3で示した処理と同様の処理に同一の符号を付している。
 図11に示すように、第5実施形態に係る情報処理装置10による動作が開始されると、まず特徴量取得部110が、認証処理の対象に関するクエリ特徴量を取得する(ステップS101)。そして、照合部120における第1スコア算出部121が、クエリ特徴量とターゲット特徴量とが一致する度合を示す第1スコアを算出する(ステップS102)。また、照合部120における第2スコア算出部122が、クエリ特徴量とターゲット特徴量とが一致しない度合を示す第2スコアを算出する(ステップS103)。
 続いて、マップ生成部130が、特徴量マップの要素ごとの寄与を、ノルムと類似度とに分解してサリエンシーマップを生成する(ステップS501)。そして、マップ生成部130は、生成したサリエンシーマップを出力する(ステップS202)。なお、分解したノルムと類似度とを用いた具体的な可視化方法については、後述する他の実施形態で詳しく説明する。
 (技術的効果)
 次に、第5実施形態に係る情報処理装置10によって得られる技術的効果について説明する。
 図10及び図11で説明したように、第5実施形態に係る情報処理装置10では、特徴量マップの要素ごとの寄与がノルムと類似度とに分解される。このようにすれば、正規化処理を前提とする認証処理の特性を考慮して、適切なサリエンシーマップを生成することが可能となる。
 <第6実施形態>
 第6実施形態に係る情報処理装置10について、図12を参照して説明する。なお、第6実施形態は、上述した第5実施形態におけるマップの可視化手法を説明するものであり、装置構成や動作の流れ等については第5実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (可視化手法)
 まず、図12を参照しながら、第6実施形態に係る情報処理装置10によるサリエンシーマップの可視化手法について説明する。図12は、第6実施形態に係る情報処理装置による可視化手法の一例を示す概念図である。
 図12に示すように、第6実施形態に係る情報処理装置10では、要素分解部131によって分解されたノルムと類似度とが、表示に係る別々のパラメータに対応付けられることで可視化が行われる。例えば、ノルムが彩度に対応し、類似度が色相に対応するように可視化が行われる。このようにすれば、例えば入力を明度に対応させることで、入力画像(白黒画像)にノルム及び類似度に対応する要素をオーバレイして表示することができる。
 なお、ノルム及び類似度が対応付けられるパラメータは、上述した色相及び彩度に限定されるものではない。ただし、相対的に重要度が高いと考えられる類似度については、ノルムと比較して、人間に対する視覚的効果の強いパラメータ(例えば、上記例の色相など)に対応付けられることが好ましい。
 (技術的効果)
 次に、第6実施形態に係る情報処理装置10によって得られる技術的効果について説明する。
 図12で説明したように、第6実施形態に係る情報処理装置10では、分解されたノルムと類似度とが、別々のパラメータに対応するように可視化が行われる。このようにすれば、認証処理の特性を考慮した可視化を実現することが可能となる。
 上述した各実施形態の機能を実現するように該実施形態の構成を動作させるプログラムを記録媒体に記録させ、該記録媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記録媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記録媒体はもちろん、そのプログラム自体も各実施形態に含まれる。
 記録媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また該記録媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS上で動作して処理を実行するものも各実施形態の範疇に含まれる。更に、プログラム自体がサーバに記憶され、ユーザ端末にサーバからプログラムの一部または全てをダウンロード可能なようにしてもよい。
 <付記>
 以上説明した実施形態に関して、更に以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 付記1に記載の情報処理装置は、認証処理の対象に関するクエリ特徴量を取得する特徴量取得手段と、前記クエリ特徴量と、予め登録されたターゲット特徴量と、が一致する度合を示す第1スコアを算出する第1スコア算出手段と、前記第1スコアに基づいて、前記クエリ特徴量と、前記ターゲット特徴量とが一致しない度合を示す第2スコアを算出する第2スコア算出手段と、前記第1スコアを第1のクラスに対応する第1クラススコアとして扱い、前記第2スコアを第2のクラスに対応する第2クラススコアとして扱うことで、前記認証処理に関するサリエンシーマップを生成するマップ生成手段と、を備える情報処理装置である。
 (付記2)
 付記2に記載の情報処理装置は、前記マップ生成手段は、CAM(Class Activation Map)を生成する、付記1に記載の情報処理装置である。
 (付記3)
 付記3に記載の情報処理装置は、前記マップ生成手段は、前記認証処理に含まれる前記クエリ特徴量の正規化処理による影響を除去して、前記サリエンシーマップを生成する、付記1又は2に記載の情報処理装置である。
 (付記4)
 付記4に記載の情報処理装置は、前記マップ生成手段は、前記正規化処理による影響を含まない第1データを第1パラメータに対応させ、前記正規化処理による影響を含む第2データを第2パラメータに対応させて、前記サリエンシーマップを生成する、付記3に記載の情報処理装置である。
 (付記5)
 付記5に記載の情報処理装置は、前記マップ生成手段は、前記クエリ特徴量に基づく特徴量マップの各要素の前記認証処理に対する寄与を、ノルムと類似度との2つの要素に分解して、前記サリエンシーマップを生成する、付記1又は2に記載の情報処理装置である。
 (付記6)
 付記6に記載の情報処理装置は、前記マップ生成手段は、前記ノルムを第1パラメータに対応させ、前記類似度を第2パラメータに対応させて、前記サリエンシーマップを生成する、付記5に記載の情報処理装置である。
 (付記7)
 付記7に記載の情報処理方法は、少なくとも1つのコンピュータによって、認証処理の対象に関するクエリ特徴量を取得し、前記クエリ特徴量と、予め登録されたターゲット特徴量と、が一致する度合を示す第1スコアを算出し、前記第1スコアに基づいて、前記クエリ特徴量と、前記ターゲット特徴量とが一致しない度合を示す第2スコアを算出し、前記第1スコアを第1のクラスに対応する第1クラススコアとして扱い、前記第2スコアを第2のクラスに対応する第2クラススコアとして扱うことで、前記認証処理に関するサリエンシーマップを生成する、情報処理方法である。
 (付記8)
 付記12に記載の記録媒体は、少なくとも1つのコンピュータに、認証処理の対象に関するクエリ特徴量を取得し、前記クエリ特徴量と、予め登録されたターゲット特徴量と、が一致する度合を示す第1スコアを算出し、前記第1スコアに基づいて、前記クエリ特徴量と、前記ターゲット特徴量とが一致しない度合を示す第2スコアを算出し、前記第1スコアを第1のクラスに対応する第1クラススコアとして扱い、前記第2スコアを第2のクラスに対応する第2クラススコアとして扱うことで、前記認証処理に関するサリエンシーマップを生成する、情報処理方法を実行させるコンピュータプログラムが記録された記録媒体である。
 (付記9)
 付記9に記載のコンピュータプログラムは、少なくとも1つのコンピュータに、認証処理の対象に関するクエリ特徴量を取得し、前記クエリ特徴量と、予め登録されたターゲット特徴量と、が一致する度合を示す第1スコアを算出し、前記第1スコアに基づいて、前記クエリ特徴量と、前記ターゲット特徴量とが一致しない度合を示す第2スコアを算出し、前記第1スコアを第1のクラスに対応する第1クラススコアとして扱い、前記第2スコアを第2のクラスに対応する第2クラススコアとして扱うことで、前記認証処理に関するサリエンシーマップを生成する、情報処理方法を実行させるコンピュータプログラムである。
 (付記10)
 付記10に記載の情報処理システムは、認証処理の対象に関するクエリ特徴量を取得する特徴量取得手段と、前記クエリ特徴量と、予め登録されたターゲット特徴量と、が一致する度合を示す第1スコアを算出する第1スコア算出手段と、前記第1スコアに基づいて、前記クエリ特徴量と、前記ターゲット特徴量とが一致しない度合を示す第2スコアを算出する第2スコア算出手段と、前記第1スコアを第1のクラスに対応する第1クラススコアとして扱い、前記第2スコアを第2のクラスに対応する第2クラススコアとして扱うことで、前記認証処理に関するサリエンシーマップを生成するマップ生成手段と、を備える情報処理システムである。
 この開示は、請求の範囲及び明細書全体から読み取ることのできる発明の要旨又は思想に反しない範囲で適宜変更可能であり、そのような変更を伴う情報処理装置、情報処理方法、及び記録媒体もまたこの開示の技術思想に含まれる。
 10 情報処理装置
 11 プロセッサ
 16 出力装置
 110 特徴量取得部
 120 照合部
 121 第1スコア算出部
 122 第2スコア算出部
 130 マップ生成部
 131 要素分解部
 135 CAM生成部
 1351 第1重要度重み算出部
 1352 第2重要度重み算出部
 1353 第1CAM算出部
 1354 第2CAM算出部

Claims (8)

  1.  認証処理の対象に関するクエリ特徴量を取得する特徴量取得手段と、
     前記クエリ特徴量と、予め登録されたターゲット特徴量と、が一致する度合を示す第1スコアを算出する第1スコア算出手段と、
     前記第1スコアに基づいて、前記クエリ特徴量と、前記ターゲット特徴量とが一致しない度合を示す第2スコアを算出する第2スコア算出手段と、
     前記第1スコアを第1のクラスに対応する第1クラススコアとして扱い、前記第2スコアを第2のクラスに対応する第2クラススコアとして扱うことで、前記認証処理に関するサリエンシーマップを生成するマップ生成手段と、
     を備える情報処理装置。
  2.  前記マップ生成手段は、CAM(Class Activation Map)を生成する、
     請求項1に記載の情報処理装置。
  3.  前記マップ生成手段は、前記認証処理に含まれる前記クエリ特徴量の正規化処理による影響を除去して、前記サリエンシーマップを生成する、
     請求項1又は2に記載の情報処理装置。
  4.  前記マップ生成手段は、前記正規化処理による影響を含まない第1データを第1パラメータに対応させ、前記正規化処理による影響を含む第2データを第2パラメータに対応させて、前記サリエンシーマップを生成する、
     請求項3に記載の情報処理装置。
  5.  前記マップ生成手段は、前記クエリ特徴量に基づく特徴量マップの各要素の前記認証処理に対する寄与を、ノルムと類似度との2つの要素に分解して、前記サリエンシーマップを生成する、
     請求項1又は2に記載の情報処理装置。
  6.  前記マップ生成手段は、前記ノルムを第1パラメータに対応させ、前記類似度を第2パラメータに対応させて、前記サリエンシーマップを生成する、
     請求項5に記載の情報処理装置。
  7.  少なくとも1つのコンピュータによって、
     認証処理の対象に関するクエリ特徴量を取得し、
     前記クエリ特徴量と、予め登録されたターゲット特徴量と、が一致する度合を示す第1スコアを算出し、
     前記第1スコアに基づいて、前記クエリ特徴量と、前記ターゲット特徴量とが一致しない度合を示す第2スコアを算出し、
     前記第1スコアを第1のクラスに対応する第1クラススコアとして扱い、前記第2スコアを第2のクラスに対応する第2クラススコアとして扱うことで、前記認証処理に関するサリエンシーマップを生成する、
     情報処理方法。
  8.  少なくとも1つのコンピュータに、
     認証処理の対象に関するクエリ特徴量を取得し、
     前記クエリ特徴量と、予め登録されたターゲット特徴量と、が一致する度合を示す第1スコアを算出し、
     前記第1スコアに基づいて、前記クエリ特徴量と、前記ターゲット特徴量とが一致しない度合を示す第2スコアを算出し、
     前記第1スコアを第1のクラスに対応する第1クラススコアとして扱い、前記第2スコアを第2のクラスに対応する第2クラススコアとして扱うことで、前記認証処理に関するサリエンシーマップを生成する、
     情報処理方法を実行させるコンピュータプログラムが記録された記録媒体。
PCT/JP2022/011958 2022-03-16 2022-03-16 情報処理装置、情報処理方法、及び記録媒体 WO2023175783A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/011958 WO2023175783A1 (ja) 2022-03-16 2022-03-16 情報処理装置、情報処理方法、及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/011958 WO2023175783A1 (ja) 2022-03-16 2022-03-16 情報処理装置、情報処理方法、及び記録媒体

Publications (1)

Publication Number Publication Date
WO2023175783A1 true WO2023175783A1 (ja) 2023-09-21

Family

ID=88022543

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/011958 WO2023175783A1 (ja) 2022-03-16 2022-03-16 情報処理装置、情報処理方法、及び記録媒体

Country Status (1)

Country Link
WO (1) WO2023175783A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020042765A (ja) * 2018-09-07 2020-03-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理方法及び情報処理システム
WO2020115154A1 (en) * 2018-12-04 2020-06-11 Yoti Holding Limited Anti-spoofing
JP2021128409A (ja) * 2020-02-12 2021-09-02 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020042765A (ja) * 2018-09-07 2020-03-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理方法及び情報処理システム
WO2020115154A1 (en) * 2018-12-04 2020-06-11 Yoti Holding Limited Anti-spoofing
JP2021128409A (ja) * 2020-02-12 2021-09-02 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム

Similar Documents

Publication Publication Date Title
WO2019205369A1 (zh) 电子装置、基于人脸图像与声纹信息的身份识别方法及存储介质
US8526682B2 (en) Methods and systems of authentication
WO2018082011A1 (zh) 活体指纹识别方法及装置
JP7140317B2 (ja) 原本データとマークデータとを合成してマーキング済みデータを生成するデータエンベディングネットワークを学習する方法、及びテストする方法、並びに、それを利用した学習装置
JPWO2007088926A1 (ja) 画像処理、画像特徴抽出、および画像照合の装置、方法、およびプログラム並びに画像照合システム
Krish et al. Dynamic signature verification on smart phones
Shah et al. An appraisal of off-line signature verification techniques
Fazilov et al. Modified recognition algorithms based on the construction of models of elementary transformations
WO2023093346A1 (zh) 基于外源特征进行模型所有权验证的方法和装置
US20220058278A1 (en) Using machine learning to bypass activities of a secure document workflow based on recipient profile
CN111382407A (zh) 用户验证方法和设备及说话者验证方法和设备
JP2018165911A (ja) 識別システム、識別方法及びプログラム
CN112613435A (zh) 人脸图像生成方法、装置、设备及介质
CN111626346A (zh) 数据分类方法、设备、存储介质及装置
CN110020593B (zh) 信息处理方法及装置、介质及计算设备
WO2023175783A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
US20230023148A1 (en) System and method for performing face recognition
CN113378982A (zh) 一种图像处理模型的训练方法和系统
CN113792759A (zh) 识别模型训练方法、装置、计算机设备和存储介质
CN113792760A (zh) 聚类分析方法、装置、计算机设备和存储介质
CN113780555A (zh) 基于数据增强的模型训练方法、装置、设备及存储介质
US11922719B2 (en) Image processing apparatus, image processing method, and recording medium
JP2011215811A (ja) 画像マッチング装置、および、画像マッチング方法
WO2023181272A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
WO2023112198A1 (ja) 情報処理装置、情報処理方法、及び、記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22932062

Country of ref document: EP

Kind code of ref document: A1