WO2023058091A1 - 情報処理システム、情報処理装置、情報処理方法、及び記録媒体 - Google Patents

情報処理システム、情報処理装置、情報処理方法、及び記録媒体 Download PDF

Info

Publication number
WO2023058091A1
WO2023058091A1 PCT/JP2021/036650 JP2021036650W WO2023058091A1 WO 2023058091 A1 WO2023058091 A1 WO 2023058091A1 JP 2021036650 W JP2021036650 W JP 2021036650W WO 2023058091 A1 WO2023058091 A1 WO 2023058091A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
zone
score
ridge
image
Prior art date
Application number
PCT/JP2021/036650
Other languages
English (en)
French (fr)
Inventor
誉章 園部
聡 廣川
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2023552416A priority Critical patent/JPWO2023058091A1/ja
Priority to PCT/JP2021/036650 priority patent/WO2023058091A1/ja
Publication of WO2023058091A1 publication Critical patent/WO2023058091A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • This disclosure relates to the technical fields of information processing systems, information processing apparatuses, information processing methods, and recording media.
  • Patent Literature 1 discloses a technique for automatically extracting a ridge region in an image based on a correlation value indicating similarity to a plurality of ridge template images.
  • Patent Literature 2 discloses a method of classifying areas of a fingerprint image using a model learned by machine learning.
  • the purpose of this disclosure is to improve the technology disclosed in prior art documents.
  • One aspect of the information processing system disclosed herein includes first region information indicating a bright zone from which a ridge feature amount in a ridge image can be extracted, and second region information indicating an unknown zone that is a region other than the bright zone.
  • a storage means for storing information in association with each of a plurality of ridge images; and extraction for extracting third area information indicating the bright zone and fourth area information indicating the unknown zone from the ridge image.
  • a storage means for storing information in association with each of a plurality of ridge images; and extraction for extracting third area information indicating the bright zone and fourth area information indicating the unknown zone from the ridge image.
  • calculating means for calculating a first score based on the first area information and the second area information, and a second score based on the third area information and the fourth area information, and the first score and a selection means for selecting the ridge line image to be used for machine learning of the extraction means based on the second score and the second score.
  • One aspect of the information processing method of the present disclosure is an information processing method executed by at least one computer, comprising: first region information indicating a bright zone from which a feature amount of a ridge in a ridge image can be extracted; second area information indicating an unknown zone, which is an area other than the bright zone, is stored in association with each of a plurality of ridge images, and third area information indicating the bright zone and the unknown zone are obtained from the ridge image.
  • extracting fourth area information indicating a zone and calculating a first score based on the first area information and the second area information, and a second score based on the third area information and the fourth area information; , based on the first score and the second score, selects the ridge image to be used for machine learning of the extraction means for extracting the third area information and the fourth area information from the ridge image.
  • At least one computer stores first area information indicating a bright zone from which a feature amount of a ridge in a ridge image can be extracted, and an unknown zone that is an area other than the bright zone. is stored in association with each of a plurality of ridge images, and third area information indicating the bright zone and fourth area information indicating the unknown zone are extracted from the ridge image.
  • a computer program for executing an information processing method for selecting the ridge line image to be used for machine learning by an extracting means for extracting the third area information and the fourth area information from the ridge line image based on the scores. ing.
  • FIG. 2 is a block diagram showing the hardware configuration of the information processing system according to the first embodiment
  • FIG. 1 is a block diagram showing a functional configuration of an information processing system according to a first embodiment
  • FIG. FIG. 4 is a plan view showing an example of a bright zone and an unknown zone in a ridge image
  • 4 is a flow chart showing the flow of registration operation in the information processing system according to the first embodiment
  • 6 is a flowchart showing the flow of selection operation in the information processing system according to the first embodiment
  • FIG. 11 is a conceptual diagram showing an example of a score calculation method (edge count) by the information processing system according to the second embodiment
  • FIG. 11 is a plan view showing an example of score calculation by the information processing system according to the second embodiment
  • FIG. 11 is a plan view showing an example of score calculation by the information processing system according to the second embodiment
  • FIG. 12 is a conceptual diagram showing an example of a score calculation method (island count) by the information processing system according to the third embodiment;
  • FIG. 11 is a plan view showing an example of score calculation by the information processing system according to the third embodiment;
  • FIG. 12 is a conceptual diagram showing an example of a score calculation method (binary smooth difference evaluation algorithm) by the information processing system according to the fourth embodiment;
  • FIG. 12 is a block diagram showing a functional configuration of an information processing system according to a fifth embodiment;
  • FIG. FIG. 12 is a block diagram showing a functional configuration of an information processing system according to a sixth embodiment;
  • FIG. FIG. 22 is a block diagram showing a functional configuration of an information processing system according to a seventh embodiment;
  • FIG. FIG. 21 is a table showing an operation example of the information processing system according to the seventh embodiment;
  • FIG. 1 An information processing system according to the first embodiment will be described with reference to FIGS. 1 to 5.
  • FIG. 1 An information processing system according to the first embodiment will be described with reference to FIGS. 1 to 5.
  • FIG. 1 is a block diagram showing the hardware configuration of an information processing system according to the first embodiment.
  • an information processing system 10 includes a processor 11, a RAM (Random Access Memory) 12, a ROM (Read Only Memory) 13, and a storage device .
  • Information processing system 10 may further include an input device 15 and an output device 16 .
  • the processor 11 , RAM 12 , ROM 13 , storage device 14 , input device 15 and output device 16 are connected via a data bus 17 .
  • the processor 11 reads a computer program.
  • processor 11 is configured to read a computer program stored in at least one of RAM 12, ROM 13 and storage device .
  • the processor 11 may read a computer program stored in a computer-readable recording medium using a recording medium reader (not shown).
  • the processor 11 may acquire (that is, read) a computer program from a device (not shown) arranged outside the information processing system 10 via a network interface.
  • the processor 11 controls the RAM 12, the storage device 14, the input device 15 and the output device 16 by executing the read computer program.
  • the processor 11 implements functional blocks that execute processing related to learning using ridge line images. That is, the processor 11 may function as a controller that executes each control of the information processing system 10 .
  • the processor 11 may be configured as, for example, a CPU (Central Processing Unit), GPU (Graphics Processing Unit), FPGA (Field-Programmable Gate Array), DSP (Demand-Side Platform), and ASIC (Application Specific Integrate).
  • the processor 11 may be configured with one of these, or may be configured to use a plurality of them in parallel.
  • the RAM 12 temporarily stores computer programs executed by the processor 11.
  • the RAM 12 temporarily stores data temporarily used by the processor 11 while the processor 11 is executing the computer program.
  • the RAM 12 may be, for example, a D-RAM (Dynamic RAM).
  • the ROM 13 stores computer programs executed by the processor 11 .
  • the ROM 13 may also store other fixed data.
  • the ROM 13 may be, for example, a P-ROM (Programmable ROM).
  • the storage device 14 stores data that the information processing system 10 saves for a long period of time.
  • Storage device 14 may act as a temporary storage device for processor 11 .
  • the storage device 14 may include, for example, at least one of a hard disk device, a magneto-optical disk device, an SSD (Solid State Drive), and a disk array device.
  • the input device 15 is a device that receives input instructions from the user of the information processing system 10 .
  • Input device 15 may include, for example, at least one of a keyboard, mouse, and touch panel.
  • the input device 15 may be configured as a mobile terminal such as a smart phone or a tablet.
  • the output device 16 is a device that outputs information about the information processing system 10 to the outside.
  • the output device 16 may be a display device (eg, display) capable of displaying information regarding the information processing system 10 .
  • the output device 16 may be a speaker or the like capable of outputting information about the information processing system 10 by voice.
  • the output device 16 may be configured as a mobile terminal such as a smart phone or a tablet.
  • FIG. 1 illustrates an example of the information processing system 10 including a plurality of devices, but all or part of these functions may be realized by one device (information processing device).
  • This information processing apparatus is configured with, for example, only the processor 11, RAM 12, and ROM 13 described above, and the other components (that is, the storage device 14, the input device 15, and the output device 16) are It may be provided in an external device to be connected. Also, the information processing device may implement a part of the arithmetic function by an external device (for example, an external server, a cloud, etc.).
  • an external device for example, an external server, a cloud, etc.
  • FIG. 2 is a block diagram showing the functional configuration of the information processing system according to the first embodiment.
  • the information processing system 10 includes a registration information database (DB) 110, a zone information extraction unit 120, and a score calculation unit 130 as components for realizing its functions. , and a selection unit 140 .
  • the registration information database may be configured by, for example, the storage device 14 (see FIG. 1) described above.
  • Each of the zone information extraction unit 120, the score calculation unit 130, and the selection unit 140 may be a processing block realized by, for example, the above-described processor 11 (see FIG. 1).
  • the registration information database 110 is configured to be able to store a plurality of ridge line images.
  • a ridge image is an image containing ridges of a living body, and examples thereof include a fingerprint image and a palm print image.
  • the registration information database 110 is configured to be able to store bright zone information and unknown zone information in association with each of the plurality of ridge line images.
  • the bright zone information is information indicating an area (bright zone) from which the feature amount of the ridge in the ridge image can be extracted.
  • the unknown zone information is information indicating an area other than the bright zone in the ridge image (that is, an area in the ridge image from which the feature amount of the ridge cannot be extracted).
  • the bright zone information and the unknown zone information may be information (for example, position information of the bright zone and the unknown zone) indicating which part of the ridge image the bright zone and the unknown zone are.
  • the bright zone information and the unknown zone information may be set for each pixel, for example, or may be set for each area composed of a plurality of pixels. The bright zone and the unknown zone will be described later in detail with specific examples.
  • the zone information extraction unit 120 is configured to be able to extract bright zone information and unknown zone information from the ridge line image stored in the registration information database 110 .
  • the zone information extractor 120 may be configured to extract bright zone information and unknown zones using pre-machine-learned models.
  • the bright zone information and unknown zone information (hereinafter referred to as “extracted zone information” as appropriate) extracted by the zone information extraction unit 120 are the bright zone information and unknown zone information (hereinafter referred to as , appropriately referred to as "registered zone information”), or may be different.
  • the bright zone information and the unknown zone information extracted by the zone information extraction unit 120 are registered in the registration information database 110 as they are, the extracted zone information and the registered zone information are the same.
  • the bright zone information and the unknown zone information extracted by the zone information extraction unit 120 are registered after being partially corrected, the extracted zone information and the registered zone information will differ. Correction of the bright zone information and the unknown zone information will be detailed later.
  • the score calculation unit 130 is configured to be able to calculate the first score based on the registration zone information stored in the registration information database 110 . Also, the score calculator 130 is configured to be able to calculate a second score based on the extracted zone information extracted by the zone information extractor 120 . The first score and second score are scores for calculating how well the registered zone information and the extracted zone information are information suitable for machine learning.
  • the selection unit 140 is configured to be able to select a ridge line image used for machine learning by the zone information extraction unit 120 based on the first score and the second score calculated by the score calculation unit 130 .
  • the selection unit 140 compares the first score and the second score, for example, and selects a ridge line image having a large difference (for example, a difference equal to or greater than a predetermined threshold) as a ridge line image to be used for machine learning.
  • the predetermined threshold value in this case may be obtained and set as an appropriate value in advance. Also, the predetermined threshold may be configured to be manually changeable.
  • the predetermined threshold may be lowered, and if only images more suitable for learning are to be used for learning, the predetermined threshold may be raised.
  • the selection unit 140 may output the bright zone information and the unknown zone information (that is, registered zone information) stored in association with the selected ridge line image as data used for machine learning.
  • learning using the ridge line image selected by the selection unit 140 may be performed by a learning unit outside the system.
  • the information processing system 10 may include a learning unit. Learning by the learning unit may be performed periodically, or may be performed according to a user's operation. For example, a button "re-learn" may be displayed on the system management screen, and learning may be executed when the user presses the button.
  • FIG. 3 is a plan view showing an example of bright zones and unknown zones in a ridge image. Note that FIG. 3 shows a fingerprint image as an example of the ridge line image.
  • the bright zone in the ridge image may be set to an area containing the ridge. From the bright zone set in this way, it is possible to appropriately extract the feature amount related to the ridge.
  • the unknown zone in the ridge image may be set to an area that does not include the ridge. Also, the unknown zone may be set to an area (for example, a wrinkled area shown in FIG. 3) in which it is difficult to extract the feature amount of the ridge line.
  • the zone information extraction unit 120 is trained so as to be able to appropriately determine these bright zones and unknown zones.
  • the method of setting the bright zone and the unknown zone here is just an example, and the bright zone and the unknown zone may be set with different logic.
  • the bright zone and unknown zone may be manually modified as appropriate, as described in the registration operation below. For example, an area determined as a bright zone by the zone information extraction unit 120 may be manually changed to an unknown zone. Similarly, a region determined as an unknown zone by the zone information extraction unit 120 may be manually changed to a bright zone.
  • FIG. 4 is a flow chart showing the flow of registration operation by the information processing system according to the first embodiment.
  • a ridge line image is obtained (step S51).
  • a ridge image may be acquired using, for example, a camera, a scanner, or the like.
  • the zone information extraction unit 120 extracts bright zone information and unknown zone information from the acquired ridge line image (step S52). That is, bright zones and unknown zones in the ridge image are determined.
  • Information about the setting values of the zone information extraction unit 120 (for example, brightness, contrast, etc. of the image) at this time may be stored in the registration information database 110 .
  • Information about the stored set values may be output as elements used for learning, for example, together with bright zone information and unknown zone information.
  • the bright zone information and the unknown zone information are corrected manually (step S53). For example, even if an area determined to be a bright zone by the zone information extraction unit 120 can be determined to be an unknown zone when viewed by the human eye, the bright zone may be changed to an unknown zone. good. Similarly, even if an area determined to be an unknown zone by the zone information extraction unit 120 can be determined to be a bright zone when viewed by the human eye, the unknown zone is changed to a bright zone. good too.
  • the registration information database 110 may store information about the history of corrections made in step S53. For example, information indicating the position of the area where the bright zone is changed to the unknown zone and the position of the area where the unknown zone is changed to the bright zone may be stored. Information about the revision history may be output as elements used for learning, for example, together with bright zone information and unknown zone information.
  • step S54 the acquired ridge line image and the bright zone information and unknown zone information extracted from the ridge line image are registered in the registration information database 110 (step S54).
  • the correction of the bright zone information and the unknown zone information described above does not necessarily have to be executed before registration. That is, the process of step S53 described above may be omitted as appropriate. For example, if it can be determined that there is no area to be corrected, registration may be performed without correction. Moreover, if the worker who performs the correction work cannot spare time immediately, the extracted information may be registered as it is without correction. As a result, the bright zone information and the unknown zone information registered in the registration information database 110 include both manually corrected and uncorrected information. In addition, since the amount of correction and the quality of correction depend on the skill level of the worker who performed the correction work, even the corrected light zone information and unknown zone information are all corrected appropriately. (in other words, it is suitable for learning).
  • selection action the operation of selecting an image to be used for machine learning by the zone information extraction unit 120 in the information processing system 10 according to the first embodiment (hereinafter, appropriately referred to as “selection operation”).
  • selection operation the operation of selecting an image to be used for machine learning by the zone information extraction unit 120 in the information processing system 10 according to the first embodiment.
  • FIG. 5 is a flow chart showing the flow of selection operation by the information processing system according to the first embodiment. Note that the selection operation may be started at the timing of executing machine learning.
  • step S101 information registered in the registration information database 110 (that is, ridge line image, bright zone information, and unknown zone information) is selected. information) is read out (step S101). Then, the zone information extraction unit 120 newly extracts bright zone information and unknown zone information from the read ridge line image (step S102).
  • the score calculation unit 130 calculates the first score based on the bright zone information and the unknown zone information (that is, the registered zone information) registered in the registration information database 110, and the zone information extraction unit 120 extracts the first score.
  • a second score is calculated based on the bright zone information and the unknown zone information (that is, extracted zone information) (step S103).
  • a ridge line image to be used for learning the zone information extraction unit 120 is selected (step S104).
  • the series of operations described above may be executed for all ridge images registered in the registration information database 110 .
  • the series of operations described above may be performed only for some of the ridge images registered in the registration information database 110 .
  • all registered ridge line images may not be selected by the selection operation. In this way, the operation when only a part of the ridge line image is targeted will be described in detail in another embodiment described later.
  • the number calculated from the bright zone information and the unknown zone information (registered zone information) stored in association with the ridge line image is selected based on the first score and the second score calculated from the extracted bright zone information and unknown zone information (extracted zone information).
  • a ridgeline image to be used for machine learning is selected based on the first score and the second score calculated from the extracted bright zone information and unknown zone information (extracted zone information).
  • FIG. 6 shows a specific example of the score calculation method in the score calculation unit 130, and the system configuration and overall operation flow may be the same as those in the first embodiment. Therefore, in the following, portions different from the already described first embodiment will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 6 is a conceptual diagram showing an example of a score calculation method (edge count) by the information processing system according to the second embodiment.
  • FIG. 7 is a plan view showing an example of score calculation by the information processing system according to the second embodiment.
  • the score calculation unit 130 uses an algorithm called edge count to calculate a first score and a second score (hereinafter simply referred to as "scores"). ) is calculated.
  • edge count a first score and a second score (hereinafter simply referred to as "scores"). ) is calculated.
  • the bright zone and the unknown zone are set for each pixel.
  • the score calculation unit 130 calculates a score based on how many unknown zone pixels exist around a bright zone pixel. For example, in the example shown in FIG. 6A, of the four pixels on the top, bottom, left, and right around the central bright zone pixel, all four pixels are unknown zones. In this way, when there are four surrounding unknown zone pixels, the score calculation unit 130 calculates the score as "4". In the example shown in FIG. 6(b), of the four pixels above, below, left, and right existing around the central bright zone pixel, the two pixels above and right are unknown zones (left and below is the bright zone). In this way, when there are two surrounding unknown zone pixels, the score calculation unit 130 calculates that the score is "2".
  • the score calculation unit 130 may use eight surrounding pixels (that is, top, bottom, left, right, top right, bottom right, top left, bottom left) for score calculation.
  • the score calculation unit 130 may sum the scores calculated for all bright zone pixels in the ridge image to obtain the final score of the ridge image. For example, a score of "3229" is calculated from the zone information extracted by the zone information extraction unit 120 shown in FIG. 7(a). On the other hand, a score of "2776" is calculated from the zone information after correction work shown in FIG. 7(b). In this way, manual correction tends to reduce the score calculated by the edge count. Therefore, regarding the score calculated by the edge count, the smaller the value, the more corrections have been made. Therefore, when many manual corrections are made, the difference between the first score and the second score increases.
  • the scores of all pixels are summed to calculate the final score, but other methods may be used to calculate the final score.
  • the score calculation unit 130 may use the average score of each pixel as the final score.
  • the score calculation unit 130 may weight each pixel and add the scores to calculate the final score.
  • the edge count is used to calculate the first score and the second score.
  • the score of the ridge line image can be calculated easily and accurately. Therefore, it is possible to appropriately select a ridge line image suitable for learning.
  • FIG. 8 An information processing system 10 according to the third embodiment will be described with reference to FIGS. 8 and 9.
  • FIG. 8 shows a specific example of the score calculation method in the score calculation unit 130, and the system configuration and overall operation flow are the same as those of the first embodiment. may be the same as Therefore, in the following, portions different from the already described first and second embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 8 is a conceptual diagram showing an example of a score calculation method (island count) by the information processing system according to the third embodiment.
  • FIG. 9 is a plan view showing an example of score calculation by the information processing system according to the third embodiment.
  • the score calculation unit 130 calculates the first score and the second score using an algorithm called island count.
  • the score calculation unit 130 calculates a score based on the number of unknown zones surrounded by bright zones. For example, in the example shown in FIG. 7A, the central unknown zone pixels are surrounded by bright zone pixels. Specifically, the eight pixels surrounding the central unknown zone pixel (that is, top, bottom, left, right, top right, bottom right, top left, bottom left) are all bright zones. In this case, the score calculator 130 counts the central unknown zone as one island. On the other hand, in the example shown in FIG. 7B, the pixels in the unknown zone in the center are surrounded by the pixels in the bright zone, but part of the pixels are in the unknown zone.
  • the score calculator 130 does not count the central unknown zone as one island.
  • the enclosed central unknown zone is one pixel, but the enclosed unknown zone may be composed of a plurality of pixels.
  • the two unknown zones may be counted as one island.
  • the score calculation unit 130 may calculate the number of islands counted in the image as the score. For example, two islands exist in the zone information extracted by the zone information extraction unit 120 shown in FIG. 7(a). Therefore, the score in this case is calculated as "2". On the other hand, island does not exist in the zone information after correction work shown in FIG. 7(b). Therefore, the score in this case is calculated as "0". In this way, manual correction may reduce the score calculated by the island count. Therefore, regarding the score calculated by the island count, the smaller the value, the more corrections have been made. Therefore, when many manual corrections are made, the difference between the first score and the second score increases.
  • the island count is used to calculate the first score and the second score.
  • the score of the ridge line image can be calculated easily and accurately. Therefore, it is possible to appropriately select a ridge line image suitable for learning.
  • FIG. 10 is a conceptual diagram showing an example of a score calculation method (binary smooth difference evaluation algorithm) by the information processing system according to the fourth embodiment.
  • the score calculation unit 130 calculates the first score and the second score using a binary smooth difference evaluation algorithm (hereinafter referred to as "binary smooth" as appropriate). calculate.
  • the score calculation unit 130 first arranges the nine pixels of the ridge image in a horizontal row and converts them into a bit string of "0" and "1". For example, the score calculation unit 130 converts the bright zone to "1" and the unknown zone to "0". In the example shown in FIG. 10, the leftmost pixel is the bright zone and the rest is the unknown zone, so the bit string is "1, 0, 0, 0, 0, 0, 0, 0, 0". Then, the score calculation unit 130 compares this bit string with a pre-stored table and determines whether or not to invert the central one pixel. That is, the score calculation unit 130 determines whether or not to invert the central bright zone located in the middle of the nine pixels into an unknown zone.
  • the table stores, for example, the value "1" or "0” for each of the 256 possible values of the bit string (that is, stores whether or not to invert).
  • the score calculation unit 130 counts the pixel as an inverted pixel. On the other hand, if the bright zone and the unknown zone are not inverted, the score calculator 130 does not count the pixel as an inverted pixel. Then, the score calculation unit 130 counts the number of reversed pixels for all the pixels included in the ridge line pixels, and calculates the total number as the score.
  • This score is a value indicating the distortedness of the shape of the bright zone and the unknown zone. For example, the more distorted the shape of the zone, the greater the value.
  • the zone information after correction work is less distorted than before correction work, and the score calculated as described above is small. Therefore, regarding the score calculated using binary smooth, the smaller the value, the more corrections have been made. Therefore, when many manual corrections are made, the difference between the first score and the second score increases.
  • the first score and the second score are calculated using the binary smooth difference evaluation algorithm.
  • the score of the ridge line image can be calculated easily and accurately. Therefore, it is possible to appropriately select a ridge line image suitable for learning.
  • FIG. 11 is a block diagram showing the functional configuration of an information processing system according to the fifth embodiment.
  • symbol is attached
  • the information processing system 10 includes a registration information database 110, a zone information extraction unit 120, a score calculation unit 130, and a selection It comprises a section 140 , a version information adding section 150 and a first learning setting section 160 . That is, the information processing system 10 according to the fifth embodiment further includes a version information assigning unit 150 and a first learning setting unit 160 in addition to the configuration of the first embodiment (see FIG. 2). Note that each of the version information assigning unit 150 and the first learning setting unit 160 may be a processing block realized by, for example, the above-described processor 11 (see FIG. 1).
  • the version information adding section 150 is configured to be able to add version information indicating the version of the zone information extracting section 120 .
  • the version of the zone information extraction unit 120 is updated each time machine learning is executed, and it is possible to identify the ridge line image already used in machine learning from the current version information.
  • the version information adding unit 150 associates the ridgeline image selected by the selecting unit 140 (that is, the image used for machine learning) with the version information added after machine learning using the image.
  • the version information may be associated with a ridgeline image used in previous machine learning (for example, machine learning two times ago or machine learning three times ago). As a result, the ridge line image already used for machine learning can be identified from the current version information.
  • the first learning setting unit 160 can set the ridge line image that has already been used for machine learning not to be used for subsequent machine learning.
  • the first learning setting unit 160 acquires current version information from the zone information extraction unit 120, for example.
  • information about the ridge image specified from the version information is output to the registration information database 110 .
  • the registration information database 110 for example, does not output the ridgeline image specified from the version information (that is, the ridgeline image already used for machine learning) as the next selection candidate. That is, no score is calculated for the ridge line image specified from the version information.
  • the ridge line image that has already been used for machine learning is no longer used for subsequent machine learning. In this way, it is possible to prevent the same image from being repeatedly used for machine learning, and it is possible to realize more efficient machine learning. Moreover, since the number of images for which the score is calculated can be reduced, the processing load of the selection operation can also be reduced.
  • FIG. 12 is a block diagram showing the functional configuration of an information processing system according to the sixth embodiment.
  • symbol is attached
  • the information processing system 10 includes a registration information database 110, a zone information extraction unit 120, a score calculation unit 130, and a selection It includes a section 140 , an update timing acquisition section 170 , a learning timing acquisition section 180 and a second learning setting section 190 . That is, in addition to the configuration of the first embodiment (see FIG. 2), the information processing system 10 according to the sixth embodiment includes an update timing acquisition unit 170, a learning timing acquisition unit 180, and a second learning setting unit 190. , is further provided. Note that each of the update timing acquisition unit 170, the learning timing acquisition unit 180, and the second learning setting unit 190 may be processing blocks realized by the above-described processor 11 (see FIG. 1), for example.
  • the update timing acquisition unit 170 is configured to be able to acquire information indicating the update timing at which the bright zone information and the unknown zone information (that is, the registered zone information) stored in the registration information database 110 are updated.
  • the update timing may be acquired as information indicating date and time, for example.
  • the update timing information may be, for example, information indicating the timing at which either one of the bright zone information and the unknown zone information is updated, or information indicating the timing at which both the bright zone information and the unknown zone information are updated. may be
  • the learning timing acquisition unit 180 is configured to be able to acquire information indicating the timing at which the zone information extraction unit 120 learned.
  • the learning timing may be acquired as information indicating date and time, for example. Note that, as in the fifth embodiment described above, when the version information adding unit 150 is provided (that is, when the version of the zone information extracting unit 120 is updated each time machine learning is performed), learning The timing acquisition unit 180 may acquire information about learning timing from the version information.
  • the second learning setting unit 190 sets a ridge line image whose update timing is later than the learning timing to be used for subsequent machine learning. For example, the second learning setting unit 190 instructs the registration information database 110 to output a ridge line image whose update timing is later than the learning timing as the next selection candidate. Therefore, for a ridge image whose update timing is later than the learning timing, the first score and the second score are calculated when machine learning is performed, and selection is made according to these scores. Become. Note that the second learning setting unit 190 may set a ridge line image whose update timing is earlier than the learning timing so as not to be used in subsequent machine learning.
  • the ridge line image whose update timing is later than the learning timing will be used for subsequent machine learning.
  • FIG. 13 and 14 An information processing system 10 according to the seventh embodiment will be described with reference to FIGS. 13 and 14.
  • FIG. It should be noted that the seventh embodiment may differ from the first to sixth embodiments described above only in a part of configuration and operation, and other parts may be the same as those of the first to sixth embodiments. Therefore, in the following, portions different from the already described embodiments will be described in detail, and descriptions of other overlapping portions will be omitted as appropriate.
  • FIG. 13 is a block diagram showing the functional configuration of an information processing system according to the seventh embodiment.
  • symbol is attached
  • the information processing system 10 includes a registration information database 110, a zone information extraction unit 120, a score calculation unit 130, and a selection and a part 140 .
  • the score calculation section 130 according to the seventh embodiment includes an image type determination section 131 and an algorithm determination section 132 .
  • the score calculator 130 according to the seventh embodiment is configured to be able to calculate the first score and the second score using a plurality of algorithms.
  • the score calculation unit 130 is configured to be able to calculate scores using the algorithms described in the second to fourth embodiments (that is, edge count, island count, and binary smooth difference evaluation algorithms).
  • the image type determination unit 131 is configured to be able to determine the type of ridge image for which the score is calculated.
  • the image type determination unit 131 may be configured to determine whether the ridge image is a fingerprint image or a palmprint image, for example. Note that the image type determination method is not particularly limited, and an existing technique may be appropriately employed for determination.
  • the determination result by the image type determination unit 131 is configured to be output to the algorithm determination unit 132 .
  • the algorithm determination unit 132 is configured to be able to change the algorithm used for score calculation according to the determination result of the image type determination unit 131. That is, the algorithm determination unit 132 is configured to be able to select an algorithm to be actually used for score calculation from among a plurality of algorithms that can be used for score calculation, according to the type of image. Alternatively, the algorithm determination unit 132 may be configured to be able to change the weight of the algorithm used for score calculation according to the determination result of the image type determination unit 131 . That is, the algorithm determining unit 132 can set weights for each of the algorithms used for score calculation according to the type of image, and change the effect of each algorithm on the final score.
  • FIG. 14 is a table showing an operation example of the information processing system according to the seventh embodiment.
  • the algorithm determination unit 132 may switch the algorithm to be used depending on whether the ridge image is a fingerprint image or a palmprint image. For example, when the ridge image is a fingerprint image, the algorithm determining unit 132 may determine to calculate the score using at least one of edge count and island count. On the other hand, if the ridge image is a palmprint image, the algorithm determination unit may determine to calculate the score using a binary smooth difference evaluation algorithm.
  • the palm print image has a larger image size than the fingerprint image, there are many large wrinkles (palms) in the image.
  • the zone information extraction unit 120 tends to easily set bright zones for areas in which many such wrinkles exist, and workers who perform correction work tend to easily set unknown zones.
  • the edge decreases, and when the worker sets the unknown zone, the edge increases. You may not get it. Therefore, it can be said that it is preferable to calculate the score for the palmprint image using the binary smooth difference evaluation algorithm.
  • the fingerprint image it can be said that it is preferable to calculate the score using the edge count and the island count, contrary to the palmprint image.
  • the algorithm determining unit 132 may change the weight set for each algorithm depending on whether the ridge image is a fingerprint image or a palmprint image. For example, when the ridge image is a fingerprint image, the algorithm determination unit 132 may increase the weight of at least one of edge count and island count. Alternatively, when the ridge image is a fingerprint image, the algorithm determination unit 132 may reduce the weight of the binary smooth difference evaluation algorithm. Alternatively, when the ridge image is a fingerprint image, the algorithm determination unit 132 may increase the weight of at least one of edge count and island count and decrease the weight of the binary smooth difference evaluation algorithm. In this way, the influence of the edge count and the island count on the fingerprint image is relatively large, while the influence of the binary smooth differential evaluation algorithm is relatively small. Therefore, for the reason already explained, the score can be calculated by a method suitable for the fingerprint image.
  • the algorithm determining unit 132 may increase the weight of the binary smooth difference evaluation algorithm. Alternatively, when the ridge image is a palmprint image, the algorithm determination unit 132 may reduce the weight of at least one of edge count and island count. Alternatively, when the ridge image is a palmprint image, the algorithm determining unit 132 increases the weight of the binary smooth difference evaluation algorithm while decreasing the weight of at least one of edge count and island count. You may do so. In this way, the influence of the edge count and the island count on the palmprint image is relatively small, while the influence of the binary smooth difference evaluation algorithm is relatively large. Therefore, for the reason already explained, the score can be calculated by a method suitable for the palm print image.
  • the algorithm used for score calculation or the weight of each algorithm is changed according to the image type. In this way, an appropriate score can be calculated by a method according to the type of image. As a result, it becomes possible to select a ridge line image suitable for machine learning.
  • a processing method of recording a program for operating the configuration of each embodiment so as to realize the functions of each embodiment described above on a recording medium, reading the program recorded on the recording medium as a code, and executing it on a computer is also implemented. Included in the category of form. That is, a computer-readable recording medium is also included in the scope of each embodiment. In addition to the recording medium on which the above program is recorded, the program itself is also included in each embodiment.
  • a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, CD-ROM, magnetic tape, non-volatile memory card, and ROM can be used as recording media.
  • the program recorded on the recording medium alone executes the process, but also the one that operates on the OS and executes the process in cooperation with other software and functions of the expansion board. included in the category of Furthermore, the program itself may be stored on the server, and part or all of the program may be downloaded from the server to the user terminal.
  • the information processing system includes first area information indicating a bright zone from which a feature amount of a ridge in a ridge image can be extracted, and second area information indicating an unknown zone that is an area other than the bright zone. with each of a plurality of ridge images, and an extracting means for extracting third area information indicating the bright zone and fourth area information indicating the unknown zone from the ridge image. , calculating means for calculating a first score based on the first area information and the second area information, and a second score based on the third area information and the fourth area information; and a selection means for selecting the ridge line image to be used for machine learning of the extraction means based on the second score.
  • Appendix 2 In the information processing system according to appendix 2, the bright zone and the unknown zone are set for each pixel of the ridge line image, and the calculating means calculates the unknown zone adjacent to the pixel that is the bright zone. 2. The information processing system according to Appendix 1, wherein the first score and the second score are calculated based on the number of pixels in the zone.
  • Appendix 3 The information processing system according to appendix 3, wherein the calculation means calculates the first score and the second score based on the number of the unknown zones surrounded by the bright zones, according to appendix 1 or 2 The information processing system described.
  • Appendix 4 In the information processing system according to appendix 4, when the calculating means performs binary smooth processing on the first area information, the second area information, and the third area information and the fourth area information, 4.
  • the information processing system according to Supplementary Note 5 includes: addition means for adding version information capable of specifying the ridge image already used in machine learning to the extraction means that has performed machine learning; and based on the version information, 5.
  • the information processing system includes: first acquisition means for acquiring update timing at which the first area information and the second area information stored in the storage means are updated; and a second setting means for setting the ridge line image whose update timing is later than the learning timing to be used for subsequent machine learning. 6.
  • the information processing system according to any one of appendices 1 to 5, further comprising:
  • the calculation means can calculate the first score and the second score using a plurality of types of algorithms, and the ridge image is a fingerprint or a palm print. according to any one of appendices 1 to 6, selecting the algorithm used in calculating the first score and the second score, or changing the weight set for each algorithm, depending on whether The information processing system described.
  • appendix 8 The information processing apparatus according to appendix 8, in which first area information indicating a bright zone from which a feature amount of a ridge in a ridge image can be extracted, and second area information indicating an unknown zone that is an area other than the bright zone. with each of a plurality of ridge images, and an extracting means for extracting third area information indicating the bright zone and fourth area information indicating the unknown zone from the ridge image. , calculating means for calculating a first score based on the first area information and the second area information, and a second score based on the third area information and the fourth area information; and a selection unit that selects the ridge line image to be used for machine learning of the extraction unit based on the second score.
  • the information processing method according to appendix 9 is an information processing method executed by at least one computer, comprising: first region information indicating a bright zone from which a feature amount of a ridge in a ridge image can be extracted; second area information indicating an unknown zone, which is an area other than the ridge line image, is stored in association with each of a plurality of ridge line images, and third area information indicating the bright zone and the unknown zone are stored from the ridge line image.
  • an information processing method comprising: selecting the ridge line image to be used for machine learning by an extraction means for extracting the third area information and the fourth area information from the ridge image based on the first score and the second score; be.
  • the recording medium according to appendix 10 provides, to at least one computer, first area information indicating a bright zone from which a feature amount of a ridge in a ridge image can be extracted, and an unknown zone that is an area other than the bright zone.
  • a record containing a computer program for executing an information processing method for selecting the ridge line image to be used for machine learning of the extraction means for extracting the third area information and the fourth area information from the ridge image based on is a medium.
  • appendix 11 The computer program according to appendix 11 provides, to at least one computer, first area information indicating a bright zone from which a ridge feature amount in a ridge image can be extracted, and an unknown zone that is an area other than the bright zone.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

情報処理システム(10)は、隆線画像における隆線の特徴量を抽出可能な明ゾーンを示す第1領域情報と、明ゾーン以外の領域である不明ゾーンを示す第2領域情報と、を複数の隆線画像の各々と紐付けて記憶する記憶手段(110)と、隆線画像から、明ゾーンを示す第3領域情報及び不明ゾーンを示す第4領域情報を抽出する抽出手段(120)と、第1領域情報及び第2領域情報に基づく第1スコアと、第3領域情報及び第4領域情報に基づく第2スコアと、を算出する算出手段(130)と、第1スコアと第2スコアとに基づき、抽出手段の機械学習に用いる隆線画像を選択する選択手段(140)と、を備える。

Description

情報処理システム、情報処理装置、情報処理方法、及び記録媒体
 この開示は、情報処理システム、情報処理装置、情報処理方法、及び記録媒体の技術分野に関する。
 この種のシステムとして、生体の隆線(例えば、指紋や掌紋を構成する線)に関する情報を扱うものが知られている。特許文献1では、複数の隆線テンプレート画像との類似性を示す相関値に基づいて、画像における隆線領域を自動抽出する技術が開示されている。特許文献2では、機械学習により学習されたモデルを用いて、指紋画像の領域を分類する手法が開示されている。
特開2009-237941号公報 特開2018-165911号公報
 この開示は、先行技術文献に開示された技術を改善することを目的とする。
 この開示の情報処理システムの一の態様は、隆線画像における隆線の特徴量を抽出可能な明ゾーンを示す第1領域情報と、前記明ゾーン以外の領域である不明ゾーンを示す第2領域情報と、を複数の隆線画像の各々と紐付けて記憶する記憶手段と、前記隆線画像から、前記明ゾーンを示す第3領域情報及び前記不明ゾーンを示す第4領域情報を抽出する抽出手段と、前記第1領域情報及び前記第2領域情報に基づく第1スコアと、前記第3領域情報及び前記第4領域情報に基づく第2スコアと、を算出する算出手段と、前記第1スコアと前記第2スコアとに基づき、前記抽出手段の機械学習に用いる前記隆線画像を選択する選択手段と、を備える。
 この開示の情報処理装置の一の態様は、隆線画像における隆線の特徴量を抽出可能な明ゾーンを示す第1領域情報と、前記明ゾーン以外の領域である不明ゾーンを示す第2領域情報と、を複数の隆線画像の各々と紐付けて記憶する記憶手段と、前記隆線画像から、前記明ゾーンを示す第3領域情報及び前記不明ゾーンを示す第4領域情報を抽出する抽出手段と、前記第1領域情報及び前記第2領域情報に基づく第1スコアと、前記第3領域情報及び前記第4領域情報に基づく第2スコアと、を算出する算出手段と、前記第1スコアと前記第2スコアとに基づき、前記抽出手段の機械学習に用いる前記隆線画像を選択する選択手段と、を備える。
 この開示の情報処理方法の一の態様は、少なくとも1つのコンピュータが実行する情報処理方法であって、隆線画像における隆線の特徴量を抽出可能な明ゾーンを示す第1領域情報と、前記明ゾーン以外の領域である不明ゾーンを示す第2領域情報と、を複数の隆線画像の各々と紐付けて記憶し、前記隆線画像から、前記明ゾーンを示す第3領域情報及び前記不明ゾーンを示す第4領域情報を抽出し、前記第1領域情報及び前記第2領域情報に基づく第1スコアと、前記第3領域情報及び前記第4領域情報に基づく第2スコアと、を算出し、前記第1スコアと前記第2スコアとに基づき、前記隆線画像から前記第3領域情報及び前記第4領域情報を抽出する抽出手段の機械学習に用いる前記隆線画像を選択する。
 この開示の記録媒体の一の態様は、少なくとも1つのコンピュータに、隆線画像における隆線の特徴量を抽出可能な明ゾーンを示す第1領域情報と、前記明ゾーン以外の領域である不明ゾーンを示す第2領域情報と、を複数の隆線画像の各々と紐付けて記憶し、前記隆線画像から、前記明ゾーンを示す第3領域情報及び前記不明ゾーンを示す第4領域情報を抽出し、前記第1領域情報及び前記第2領域情報に基づく第1スコアと、前記第3領域情報及び前記第4領域情報に基づく第2スコアと、を算出し、前記第1スコアと前記第2スコアとに基づき、前記隆線画像から前記第3領域情報及び前記第4領域情報を抽出する抽出手段の機械学習に用いる前記隆線画像を選択する、情報処理方法を実行させるコンピュータプログラムが記録されている。
第1実施形態に係る情報処理システムのハードウェア構成を示すブロック図である。 第1実施形態に係る情報処理システムの機能的構成を示すブロック図である。 隆線画像における明ゾーン及び不明ゾーンの一例を示す平面図である。 第1実施形態に係る情報処理システムにおける登録動作の流れを示すフローチャートである。 第1実施形態に係る情報処理システムにおける選択動作の流れを示すフローチャートである。 第2実施形態に係る情報処理システムによるスコアの算出方法(edge count)の一例を示す概念図である。 第2実施形態に係る情報処理システムによるスコアの算出例を示す平面図である。 第3実施形態に係る情報処理システムによるスコアの算出方法(island count)の一例を示す概念図である。 第3実施形態に係る情報処理システムによるスコアの算出例を示す平面図である。 第4実施形態に係る情報処理システムによるスコアの算出方法(バイナリスムース差分評価アルゴリズム)の一例を示す概念図である。 第5実施形態に係る情報処理システムの機能的構成を示すブロック図である。 第6実施形態に係る情報処理システムの機能的構成を示すブロック図である。 第7実施形態に係る情報処理システムの機能的構成を示すブロック図である。 第7実施形態に係る情報処理システムの動作例を示す表である。
 以下、図面を参照しながら、情報処理システム、情報処理装置、情報処理方法、及び記録媒体の実施形態について説明する。
 <第1実施形態>
 第1実施形態に係る情報処理システムについて、図1から図5を参照して説明する。
 (ハードウェア構成)
 まず、図1を参照しながら、第1実施形態に係る情報処理システムのハードウェア構成について説明する。図1は、第1実施形態に係る情報処理システムのハードウェア構成を示すブロック図である。
 図1に示すように、第1実施形態に係る情報処理システム10は、プロセッサ11と、RAM(Random Access Memory)12と、ROM(Read Only Memory)13と、記憶装置14とを備えている。情報処理システム10は更に、入力装置15と、出力装置16と、を備えていてもよい。上述したプロセッサ11と、RAM12と、ROM13と、記憶装置14と、入力装置15と、出力装置16とは、データバス17を介して接続されている。
 プロセッサ11は、コンピュータプログラムを読み込む。例えば、プロセッサ11は、RAM12、ROM13及び記憶装置14のうちの少なくとも一つが記憶しているコンピュータプログラムを読み込むように構成されている。或いは、プロセッサ11は、コンピュータで読み取り可能な記録媒体が記憶しているコンピュータプログラムを、図示しない記録媒体読み取り装置を用いて読み込んでもよい。プロセッサ11は、ネットワークインタフェースを介して、情報処理システム10の外部に配置される不図示の装置からコンピュータプログラムを取得してもよい(つまり、読み込んでもよい)。プロセッサ11は、読み込んだコンピュータプログラムを実行することで、RAM12、記憶装置14、入力装置15及び出力装置16を制御する。本実施形態では特に、プロセッサ11が読み込んだコンピュータプログラムを実行すると、プロセッサ11内には、隆線画像を用いた学習に関連する処理を実行する機能ブロックが実現される。即ち、プロセッサ11は、情報処理システム10の各制御を実行するコントローラとして機能してよい。
 プロセッサ11は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(field-programmable gate array)、DSP(Demand-Side Platform)、ASIC(Application Specific Integrated Circuit)として構成されてよい。プロセッサ11は、これらのうち一つで構成されてもよいし、複数を並列で用いるように構成されてもよい。
 RAM12は、プロセッサ11が実行するコンピュータプログラムを一時的に記憶する。RAM12は、プロセッサ11がコンピュータプログラムを実行している際にプロセッサ11が一時的に使用するデータを一時的に記憶する。RAM12は、例えば、D-RAM(Dynamic RAM)であってもよい。
 ROM13は、プロセッサ11が実行するコンピュータプログラムを記憶する。ROM13は、その他に固定的なデータを記憶していてもよい。ROM13は、例えば、P-ROM(Programmable ROM)であってもよい。
 記憶装置14は、情報処理システム10が長期的に保存するデータを記憶する。記憶装置14は、プロセッサ11の一時記憶装置として動作してもよい。記憶装置14は、例えば、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)及びディスクアレイ装置のうちの少なくとも一つを含んでいてもよい。
 入力装置15は、情報処理システム10のユーザからの入力指示を受け取る装置である。入力装置15は、例えば、キーボード、マウス及びタッチパネルのうちの少なくとも一つを含んでいてもよい。入力装置15は、スマートフォンやタブレット等の携帯端末として構成されていてもよい。
 出力装置16は、情報処理システム10に関する情報を外部に対して出力する装置である。例えば、出力装置16は、情報処理システム10に関する情報を表示可能な表示装置(例えば、ディスプレイ)であってもよい。また、出力装置16は、情報処理システム10に関する情報を音声出力可能なスピーカ等であってもよい。出力装置16は、スマートフォンやタブレット等の携帯端末として構成されていてもよい。
 なお、図1では、複数の装置を含んで構成される情報処理システム10の例を挙げたが、これらの全部又は一部の機能を、1つの装置(情報処理装置)で実現してもよい。この情報処理装置は、例えば、上述したプロセッサ11、RAM12、ROM13のみを備えて構成され、その他の構成要素(即ち、記憶装置14、入力装置15、出力装置16)については、例えば情報処理装置に接続される外部の装置が備えるようにしてもよい。また、情報処理装置は、一部の演算機能を外部の装置(例えば、外部サーバやクラウド等)によって実現するものであってもよい。
 (機能的構成)
 次に、図2を参照しながら、第1実施形態に係る情報処理システム10の機能的構成について説明する。図2は、第1実施形態に係る情報処理システムの機能的構成を示すブロック図である。
 図2に示すように、第1実施形態に係る情報処理システム10は、その機能を実現するための構成要素として、登録情報データベース(DB)110と、ゾーン情報抽出部120と、スコア算出部130と、選択部140と、を備えて構成されている。登録情報データベースは、例えば上述した記憶装置14(図1参照)によって構成されるものであってよい。ゾーン情報抽出部120、スコア算出部130、及び選択部140の各々は、例えば上述したプロセッサ11(図1参照)によって実現される処理ブロックであってよい。
 登録情報データベース110は、複数の隆線画像を記憶可能に構成されている。隆線画像は、生体の隆線を含む画像であり、例えば指紋画像や掌紋画像が一例として挙げられる。また、登録情報データベース110は、複数の隆線画像の各々に紐付けて、明ゾーン情報と、不明ゾーン情報と、を記憶可能に構成されている。明ゾーン情報は、隆線画像における隆線の特徴量を抽出可能な領域(明ゾーン)を示す情報である。不明ゾーン情報は、隆線画像における明ゾーン以外の領域(即ち、隆線画像における隆線の特徴量を抽出できない領域)を示す情報である。明ゾーン情報及び不明ゾーン情報は、明ゾーン及び不明ゾーンが隆線画像におけるどの部分であるのかを示す情報(例えば、明ゾーン及び不明ゾーンの位置情報)であってよい。明ゾーン情報及び不明ゾーン情報は、例えば画素ごとに設定されるものであってもよいし、複数画素からなる領域ごとに設定されるものであってもよい。明ゾーン及び不明ゾーンについては、後に具体例を挙げて詳しく説明する。
 ゾーン情報抽出部120は、登録情報データベース110に記憶されている隆線画像から、明ゾーン情報及び不明ゾーン情報を抽出可能に構成されている。ゾーン情報抽出部120は、事前に機械学習されたモデルを用いて、明ゾーン情報及び不明ゾーンを抽出するように構成されてよい。なお、ゾーン情報抽出部120で抽出される明ゾーン情報及び不明ゾーン情報(以下、適宜「抽出ゾーン情報」と称する)は、登録情報データベース110に記憶されている明ゾーン情報及び不明ゾーン情報(以下、適宜「登録ゾーン情報」と称する)と同じものであってもよいし、異なるものであってもよい。例えば、ゾーン情報抽出部120で抽出された明ゾーン情報及び不明ゾーン情報が、そのまま登録情報データベース110に登録された場合には、抽出ゾーン情報と登録ゾーン情報とは同じものとなる。一方で、ゾーン情報抽出部120で抽出された明ゾーン情報及び不明ゾーン情報が、例えば一部修正されてから登録された場合、抽出ゾーン情報と登録ゾーン情報とは異なるものとなる。明ゾーン情報及び不明ゾーン情報の修正については後に詳述する。
 スコア算出部130は、登録情報データベース110に記憶されている登録ゾーン情報に基づいて、第1スコアを算出可能に構成されている。また、スコア算出部130は、ゾーン情報抽出部120に抽出された抽出ゾーン情報に基づいて、第2スコアを算出可能に構成されている。第1スコア及び第2スコアは、登録ゾーン情報及び抽出ゾーン情報が、どれくらい機械学習に適した情報であるかを算出するためのスコアである。
 選択部140は、スコア算出部130で算出された第1スコアと第2スコアとに基づいて、ゾーン情報抽出部120の機械学習に用いる隆線画像を選択可能に構成されている。選択部140は、例えば第1スコアと第2スコアとを互いに比較して、その差分が大きいもの(例えば、差分が所定閾値以上となるもの)を、機械学習に用いる隆線画像として選択するようにしてもよい。この場合の所定閾値は、事前に適切な値として求められ設定されていてよい。また、所定閾値は、手動で変更可能に構成されてよい。例えば、より多くの隆線画像を用いて学習を行いたい場合は所定閾値を下げるようにし、より学習に適した画像のみを用いて学習を行いたい場合は所定閾値を上げるようにしてもよい。選択部140は、選択した隆線画像に紐付いて記憶されている明ゾーン情報及び不明ゾーン情報(即ち、登録ゾーン情報)を、機械学習に用いるデータとして出力してよい。
 なお、選択部140で選択された隆線画像を用いる学習(即ち、ゾーン情報抽出部120の学習)は、システム外部の学習部によって実行されてよい。ただし、本実施形態に係る情報処理システム10が学習部を備えていてもよい。学習部による学習は、定期的に実行されてもよいし、ユーザの操作に応じて実行されてもよい。例えば、システムの管理画面に「再学習」というボタンを表示するようにし、ユーザがそのボタンを押したタイミングで、学習が実行されるようにしてもよい。
 (明ゾーン及び不明ゾーン)
 次に、図3を参照しながら、隆線画像における明ゾーン及び不明ゾーンについて具体的に説明する。図3は、隆線画像における明ゾーン及び不明ゾーンの一例を示す平面図である。なお、図3では、隆線画像の一例として指紋画像を示している。
 図3に示すように、隆線画像における明ゾーンは、隆線を含む領域が設定されてよい。このように設定された明ゾーンからは、隆線に関する特徴量を適切に抽出することが可能である。一方、隆線画像における不明ゾーンは、隆線を含まない領域が設定されてよい。また、不明ゾーンは、隆線を含むものの、その特徴量を抽出しにくい領域(例えば、図3に示す皺の多い領域)が設定されてもよい。ゾーン情報抽出部120は、これらの明ゾーン及び不明ゾーンを適切に判定できるように学習されていくことになる。
 なお、ここでの明ゾーン及び不明ゾーンの設定方法はあくまで一例であり、異なるロジックで明ゾーン及び不明ゾーンを設定するようにしてもよい。また、明ゾーン及び不明ゾーンは、以下の登録動作で説明するように、人の手で適宜修正されてもよい。例えば、ゾーン情報抽出部120によって明ゾーンとして判定された領域を、人の手で不明ゾーンに変更してもよい。同様に、ゾーン情報抽出部120によって不明ゾーンとして判定された領域を、人の手で明ゾーンに変更してもよい。
 (登録動作)
 次に、図4を参照しながら、第1実施形態に係る情報処理システム10における登録情報データベース110に、隆線画像、並びに明ゾーン情報及び不明ゾーン情報を登録する際の動作(以下、適宜「登録動作」と称する)の流れについて説明する。図4は、第1実施形態に係る情報処理システムによる登録動作の流れを示すフローチャートである。
 図4に示すように、第1実施形態に係る情報処理システム10が登録動作を行う際には、まず隆線画像を取得する(ステップS51)。隆線画像は、例えばカメラやスキャナ等を用いて取得されてよい。その後、ゾーン情報抽出部120が、取得した隆線画像から明ゾーン情報及び不明ゾーン情報を抽出する(ステップS52)。即ち、隆線画像における明ゾーン及び不明ゾーンを判定する。なお、この際のゾーン情報抽出部120の設定値(例えば、画像の輝度、コントラスト等)に関する情報は、登録情報データベース110に記憶されてもよい。記憶された設定値に関する情報は、例えば明ゾーン情報及び不明ゾーン情報と共に、学習に用いる要素として出力されてもよい。
 続いて、人の手で明ゾーン情報及び不明ゾーン情報の修正が行われる(ステップS53)。例えば、ゾーン情報抽出部120によって明ゾーンとして判定された領域であっても、人の目で見た場合に不明ゾーンと判断できるような場合には、その明ゾーンを不明ゾーンに変更してもよい。同様に、ゾーン情報抽出部120によって不明ゾーンとして判定された領域であっても、人の目で見た場合に明ゾーンと判断できるような場合には、その不明ゾーンを明ゾーンに変更してもよい。なお、登録情報データベース110は、ステップS53において行った修正の履歴に関する情報を記憶するようにしてもよい。例えば、明ゾーンを不明ゾーンに変更した領域の位置、及び不明ゾーンを明ゾーンに変更した領域の位置を示す情報を記憶するようにしてもよい。修正の履歴に関する情報は、例えば明ゾーン情報及び不明ゾーン情報と共に、学習に用いる要素として出力されてもよい。
 続いて、取得された隆線画像と、その隆線画像から抽出された明ゾーン情報及び不明ゾーン情報とが、登録情報データベース110に登録される(ステップS54)。なお、上述した明ゾーン情報及び不明ゾーン情報の修正は、必ずしも登録前に実行されずともよい。即ち、上述したステップS53の処理は適宜省略されてもよい。例えば、修正すべき領域がないと判断できる場合には修正を行わずに登録してもよい。また、修正作業を行う作業員がすぐに時間を割けない場合には、修正を行わずに抽出された情報をそのまま登録してもよい。この結果、登録情報データベース110に登録されている明ゾーン情報及び不明ゾーン情報には、人の手によって修正されたものと、修正されていないものとが混在することになる。また、修正量や修正の質は、修正作業を行った作業員の熟練度等にも左右されるため、修正後の明ゾーン情報及び不明ゾーン情報であっても、それら全てが適切に修正されている(言い換えれば、学習に適したものである)とは限らない。
 (選択動作)
 次に、図5を参照しながら、第1実施形態に係る情報処理システム10におけるゾーン情報抽出部120の機械学習に用いる画像を選択する際の動作(以下、適宜「選択動作」と称する)の流れについて説明する。図5は、第1実施形態に係る情報処理システムによる選択動作の流れを示すフローチャートである。なお、選択動作は、機械学習を実行するタイミングで開始されてよい。
 図5に示すように、第1実施形態に係る情報処理システム10が選択動作を行う際には、まず登録情報データベース110に登録されている情報(即ち、隆線画像、明ゾーン情報及び不明ゾーン情報)が読み出される(ステップS101)。そして、ゾーン情報抽出部120が、読み出した隆線画像から、明ゾーン情報及び不明ゾーン情報を新たに抽出する(ステップS102)。
 続いて、スコア算出部130が、登録情報データベース110に登録されていた明ゾーン情報及び不明ゾーン情報(即ち、登録ゾーン情報)に基づいて第1スコアを算出し、ゾーン情報抽出部120で抽出された明ゾーン情報及び不明ゾーン情報(即ち、抽出ゾーン情報)に基づいて第2スコアを算出する(ステップS103)。
 続いて、スコア算出部130で算出された第1スコアと第2スコアとに基づいて、ゾーン情報抽出部120を学習するために用いる隆線画像を選択する(ステップS104)。なお、上述した一連の動作は、登録情報データベース110に登録されている全ての隆線画像について実行されてよい。ただし、上述した一連の動作は、登録情報データベース110に登録されている一部の隆線画像に対してのみ実行されてもよい。即ち、登録されているすべての隆線画像が選択動作による選択対象とされずともよい。このように、一部の隆線画像のみを対象とする場合の動作については、後述する他の実施形態において詳しく説明する。
 (技術的効果)
 次に、第1実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図1から図5で説明したように、第1実施形態に係る情報処理システム10では、隆線画像と紐付いて記憶されている明ゾーン情報及び不明ゾーン情報(登録ゾーン情報)から算出される第1スコアと、抽出された明ゾーン情報及び不明ゾーン情報(抽出ゾーン情報)から算出される第2スコアと、に基づいて、機械学習に用いる隆線画像が選択される。このようにすれば、学習に適した隆線画像を選択して、より適切な機械学習を実行することが可能となる。例えば、第1スコアと第2スコアとの差分が大きい隆線画像については、人の手による修正が多く実行されたものであると判定できる。このような隆線画像を用いれば、人の手による修正が行われていない(或いは、修正箇所が少ない)隆線画像を用いる場合と比較して、より適切な機械学習を実現することができる。
 <第2実施形態>
 第2実施形態に係る情報処理システム10について、図6及び図7を参照して説明する。なお、第2実施形態は、スコア算出部130におけるスコア算出方法の具体例を示すものであり、システム構成や全体的な動作の流れについては第1実施形態と同一であってよい。このため、以下では、すでに説明した第1実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (edge count)
 まず、図6及び図7を参照しながら、第2実施形態に係る情報処理システム10によるスコアの算出方法について説明する。図6は、第2実施形態に係る情報処理システムによるスコアの算出方法(edge count)の一例を示す概念図である。図7は、第2実施形態に係る情報処理システムによるスコアの算出例を示す平面図である。
 図6において、第2実施形態に係る情報処理システム10では、スコア算出部130が、edge count(エッジカウント)と呼ばれるアルゴリズムを用いて、第1スコア及び第2スコア(以下、単に「スコア」と称することがある)を算出する。なお、本実施形態では、明ゾーン及び不明ゾーンが画素ごとに設定されているものとする。
 スコア算出部130は、明ゾーンである画素の周囲に、不明ゾーンである画素が何個存在しているかによってスコアを算出する。例えば、図6(a)に示す例では、中央の明ゾーンである画素の周囲に存在する上、下、左、右の4画素のうち、4画素全てが不明ゾーンである。このように、周囲の不明ゾーンである画素が4つである場合、スコア算出部130は、スコアが「4」であると算出する。図6(b)に示す例では、中央の明ゾーンである画素の周囲に存在する上、下、左、右の4画素のうち、上及び右の2画素が不明ゾーンである(左及び下は明ゾーンである)。このように、周囲の不明ゾーンである画素が2つである場合、スコア算出部130は、スコアが「2」であると算出する。
 なお、上述した例では、中央の明ゾーンを基準として上、下、左、右の4画素をスコア算出に用いているが、どの画素を周囲の画素とするかは特に限定されるものではない。例えば、スコア算出部130は、周囲8画素(即ち、上、下、左、右、右上、右下、左上、左下)をスコア算出に用いるようにしてもよい。
 図7に示すように、スコア算出部130は、隆線画像におけるすべての明ゾーンである画素について算出したスコアを合計して、その隆線画像の最終的なスコアとしてよい。例えば、図7(a)に示すゾーン情報抽出部120で抽出されたゾーン情報からは、スコア「3229」が算出される。一方、図7(b)に示す修正作業後のゾーン情報からは、スコア「2776」が算出される。このように、人の手による修正が行われることで、edge countで算出されるスコアは小さくなる傾向がある。よって、edge countで算出されるスコアについては、その値が小さいほど修正が多く行われていることを示している。よって、人の手による修正が多く行われていると、第1スコアと第2スコアとの差分が大きくなる。
 なお、上述した例では、すべての画素のスコアを合計して最終的なスコアを算出しているが、その他の手法を用いて最終的なスコアを算出してもよい。例えば、スコア算出部130は、各画素のスコアの平均値を最終的なスコアとしてもよい。或いは、スコア算出部130は、画素ごとに重みを付けてスコアを加算して、最終的なスコアを算出してもよい。
 (技術的効果)
 次に、第2実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図6及び図7で説明したように、第2実施形態に係る情報処理システム10では、edge countを用いて第1スコア及び第2スコアが算出される。このようにすれば、隆線画像のスコアを容易かつ的確に算出することができる。よって、学習に適した隆線画像を適切に選択することが可能となる。
 <第3実施形態>
 第3実施形態に係る情報処理システム10について、図8及び図9を参照して説明する。なお、第3実施形態は、上述した第2実施形態と同様に、スコア算出部130におけるスコア算出方法の具体例を示すものであり、システム構成や全体的な動作の流れについては第1実施形態と同一であってよい。このため、以下では、すでに説明した第1及び第2実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (island count)
 まず、図8及び図9を参照しながら、第3実施形態に係る情報処理システム10によるスコアの算出方法について説明する。図8は、第3実施形態に係る情報処理システムによるスコアの算出方法(island count)の一例を示す概念図である。図9は、第3実施形態に係る情報処理システムによるスコアの算出例を示す平面図である。
 図8において、第2実施形態に係る情報処理システム10では、スコア算出部130が、island count(アイランドカウント)と呼ばれるアルゴリズムを用いて、第1スコア及び第2スコアを算出する。
 スコア算出部130は、明ゾーンに囲まれた不明ゾーンの数に基づいてスコアを算出する。例えば、図7(a)に示す例では、中央にある不明ゾーンの画素が明ゾーンの画素に囲まれている。具体的には、中央にある不明ゾーンの画素の周囲8画素(即ち、上、下、左、右、右上、右下、左上、左下)が全て明ゾーンとなっている。この場合、スコア算出部130は、中央の不明ゾーンを、1つのislandとしてカウントする。一方、図7(b)に示す例では、中央にある不明ゾーンの画素が明ゾーンの画素に囲まれているが、一部が不明ゾーンである。具体的には、中央にある不明ゾーンの画素の周囲8画素(即ち、上、下、左、右、右上、右下、左上、左下)のうち、右上以外の画素は明ゾーンであるが、右上だけは不明ゾーンである。この場合、スコア算出部130は、中央の不明ゾーンを、1つのislandとしてカウントしない。
 なお、上述した例では、囲われる中央の不明ゾーンが1画素の場合を例に挙げているが、囲われる不明ゾーンは複数の画素で構成されていてもよい。例えば、互いに隣り合う2つの不明ゾーンの周囲がすべて明ゾーンで囲われている場合は、その2つの不明ゾーンを1つのislandとしてカウントしてよい。
 図9に示すように、スコア算出部130は、画像においてカウントされたislandの数をスコアとして算出してよい。例えば、図7(a)に示すゾーン情報抽出部120で抽出されたゾーン情報には、2つのislandが存在している。このため、この場合のスコアは「2」と算出される。一方、図7(b)に示す修正作業後のゾーン情報には、islandが存在していない。このため、この場合のスコアは「0」と算出される。このように、人の手による修正が行われることで、island countで算出されるスコアは小さくなる携行がある。よってisland countで算出されるスコアについては、その値が小さいほど修正が多く行われていることを示している。よって、人の手による修正が多く行われていると、第1スコアと第2スコアとの差分が大きくなる。
 (技術的効果)
 次に、第3実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図8及び図9で説明したように、第3実施形態に係る情報処理システム10では、island countを用いて第1スコア及び第2スコアが算出される。このようにすれば、隆線画像のスコアを容易かつ的確に算出することができる。よって、学習に適した隆線画像を適切に選択することが可能となる。
 <第4実施形態>
 第4実施形態に係る情報処理システム10について、図10を参照して説明する。なお、第4実施形態は、上述した第2及び第3実施形態と同様に、スコア算出部130におけるスコア算出方法の具体例を示すものであり、システム構成や全体的な動作の流れについては第1実施形態と同一であってよい。このため、以下では、すでに説明した第1から第3実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (バイナリスムース差分評価アルゴリズム)
 まず、図10を参照しながら、第4実施形態に係る情報処理システム10によるスコアの算出方法について説明する。図10は、第4実施形態に係る情報処理システムによるスコアの算出方法(バイナリスムース差分評価アルゴリズム)の一例を示す概念図である。
 図10において、第4実施形態に係る情報処理システム10では、スコア算出部130が、バイナリスムース差分評価アルゴリズム(以下、適宜「バイナリスムース」と称する)を用いて、第1スコア及び第2スコアを算出する。
 スコア算出部130は、まず隆線画像の9つの画素を横1列に並べ、それらを「0」と「1」のビット列に変換する。スコア算出部130は、例えば、明ゾーンを「1」、不明ゾーンを「0」にそれぞれ変換する。図10に示す例では、左端の1画素が明ゾーン、それ以外は不明ゾーンであるため、ビット列は「1,0,0,0,0,0,0,0,0」となる。そして、スコア算出部130は、このビット列を予め記憶されたテーブルと比較して、中央の1画素を反転させるか否かを判定する。即ち、スコア算出部130は、9つの画素の中央に位置する中央の明ゾーンを、不明ゾーンに反転させるか否かを判定する。テーブルには、例えば、ビット列がとり得る256個の値の各々について、「1」又は「0」の値が記憶されている(即ち、反転させるか否かが記憶されている)。
 スコア算出部130は、上述した処理の結果、明ゾーン及び不明ゾーンが反転される場合は、その画素を反転する画素としてカウントする。一方で、スコア算出部130は、明ゾーン及び不明ゾーンが反転されない場合は、その画素を反転する画素としてカウントしない。そして、スコア算出部130は、隆線画素に含まれるすべての画素について反転する画素をカウントし、その合計数をスコアとして算出する。このスコアは、明ゾーン及び不明ゾーンの形状のいびつさを示す値となり、例えば、ゾーンの形状がいびつであるほど大きな値となる。ここで特に、修正作業後のゾーン情報では、修正作業前と比べるといびつさが少なくなり、上記のように算出されるスコアは小さくなる。よって、バイナリスムースを用いて算出されるスコアについては、その値が小さいほど修正が多く行われていることを示している。よって、人の手による修正が多く行われていると、第1スコアと第2スコアとの差分が大きくなる。
 (技術的効果)
 次に、第4実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図10で説明したように、第4実施形態に係る情報処理システム10では、バイナリスムース差分評価アルゴリズムを用いて第1スコア及び第2スコアが算出される。このようにすれば、隆線画像のスコアを容易かつ的確に算出することができる。よって、学習に適した隆線画像を適切に選択することが可能となる。
 なお、第2実施形態から第4実施形態で説明した各アルゴリズム(即ち、edge count、island count、及びバイナリスムース差分評価アルゴリズム)については、すべてを利用可能な状態としておき、適宜適切なアルゴリズムを1つ選択して用いるようにしてもよい。また、複数のアルゴリズムを組み合わせて用いてもよい。例えば、複数のアルゴリズムで算出されたスコアを統合した統合スコアを用いて、機械学習に用いる隆線画像を選択するようにしてもよい。
 <第5実施形態>
 第5実施形態に係る情報処理システム10について、図11を参照して説明する。なお、第5実施形態は、上述した第1から第4実施形態と一部の構成及び動作が異なるのみであり、その他の部分については第1から第4実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図11を参照しながら、第5実施形態に係る情報処理システム10の機能的構成について説明する。図11は、第5実施形態に係る情報処理システムの機能的構成を示すブロック図である。なお、図12では、図2で示した構成要素と同様の要素に同一の符号を付している。
 図11に示すように、第5実施形態に係る情報処理システム10は、その機能を実現するための構成要素として、登録情報データベース110と、ゾーン情報抽出部120と、スコア算出部130と、選択部140と、バージョン情報付与部150と、第1学習設定部160と、を備えて構成されている。即ち、第5実施形態に係る情報処理システム10は、第1実施形態の構成(図2参照)に加えて、バージョン情報付与部150と、第1学習設定部160と、を更に備えている。なお、バージョン情報付与部150、及び第1学習設定部160の各々は、例えば上述したプロセッサ11(図1参照)によって実現される処理ブロックであってよい。
 バージョン情報付与部150は、ゾーン情報抽出部120のバージョンを示すバージョン情報を付与可能に構成されている。ゾーン情報抽出部120のバージョンは、機械学習が実行される度に更新されるものであり、すでに機械学習で用いた隆線画像を現在のバージョン情報から特定することが可能である。例えば、バージョン情報付与部150は、選択部140で選択された隆線画像(即ち、機械学習に用いられる画像)と、その画像を用いた機械学習の後に付与されるバージョン情報とを紐付ける。また、バージョン情報には、以前の機械学習(例えば、2回前の機械学習や3回前の機械学習)で用いられた隆線画像が紐付けられてもよい。これにより、現在のバージョン情報から、すでに機械学習に用いた隆線画像を、バージョン情報から特定することができる。
 第1学習設定部160は、バージョン情報に基づいて、すでに機械学習に用いた隆線画像を、次回以降の機械学習に用いないように設定することができる。第1学習設定部160は、例えばゾーン情報抽出部120から、現在のバージョン情報を取得する。そして、そのバージョン情報から特定された隆線画像に関する情報を、登録情報データベース110に出力する。登録情報データベース110は、例えば、バージョン情報から特定された隆線画像(即ち、すでに機械学習に用いられた隆線画像)を、次回の選択候補として出力しないようにする。即ち、バージョン情報から特定された隆線画像については、スコアは算出されなくなる。
 (技術的効果)
 次に、第5実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図11で説明したように、第5実施形態に係る情報処理システム10では、すでに機械学習に用いられた隆線画像が、その後の機械学習で用いられなくなる。このようにすれば、同じ画像が何度も機械学習に用いられてしまうことを抑制でき、より効率的な機械学習を実現することが可能となる。また、スコアを算出する画像の枚数を減らすことができるため、選択動作の処理負荷を低減することもできる。
 <第6実施形態>
 第6実施形態に係る情報処理システム10について、図12を参照して説明する。なお、第6実施形態は、上述した第1から第5実施形態と一部の構成及び動作が異なるのみであり、その他の部分については第1から第5実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図12を参照しながら、第6実施形態に係る情報処理システム10の機能的構成について説明する。図12は、第6実施形態に係る情報処理システムの機能的構成を示すブロック図である。なお、図12では、図2で示した構成要素と同様の要素に同一の符号を付している。
 図12に示すように、第6実施形態に係る情報処理システム10は、その機能を実現するための構成要素として、登録情報データベース110と、ゾーン情報抽出部120と、スコア算出部130と、選択部140と、更新タイミング取得部170と、学習タイミング取得部180と、第2学習設定部190と、を備えて構成されている。即ち、第6実施形態に係る情報処理システム10は、第1実施形態の構成(図2参照)に加えて、更新タイミング取得部170と、学習タイミング取得部180と、第2学習設定部190と、を更に備えている。なお、更新タイミング取得部170、学習タイミング取得部180、及び第2学習設定部190の各々は、例えば上述したプロセッサ11(図1参照)によって実現される処理ブロックであってよい。
 更新タイミング取得部170は、登録情報データベース110に記憶されている明ゾーン情報及び不明ゾーン情報(即ち、登録ゾーン情報)が更新された更新タイミングを示す情報を取得可能に構成されている。更新タイミングは、例えば日時を示す情報として取得されてよい。更新タイミング情報は、例えば、明ゾーン情報及び不明ゾーン情報のいずれか一方が更新されたタイミングを示す情報であってもよいし、明ゾーン情報及び不明ゾーン情報の両方が更新されたタイミングを示す情報であってもよい。
 学習タイミング取得部180は、ゾーン情報抽出部120の学習が実行されたタイミングを示す情報を取得可能に構成されている。学習タイミングは、例えば日時を示す情報として取得されてよい。なお、上述した第5実施形態のように、バージョン情報付与部150が備えられている場合(即ち、機械学習が実行される度に、ゾーン情報抽出部120のバージョンが更新される場合)、学習タイミング取得部180は、バージョン情報から学習タイミングに関する情報を取得するようにしてもよい。
 第2学習設定部190は、更新タイミングが学習タイミングよりも後である隆線画像を、次回以降の機械学習に用いるように設定する。例えば、第2学習設定部190は、更新タイミングが学習タイミングよりも後である隆線画像を、次回の選択候補として出力するように登録情報データベース110に指示しておく。よって、更新タイミングが学習タイミングよりも後である隆線画像については、機械学習が実行される際に、第1スコア及び第2スコアが算出され、それらのスコアに応じた選択が行われることになる。なお、第2学習設定部190は、更新タイミングが学習タイミングより前である隆線画像については、次回以降の機械学習に用いないように設定してもよい。
 (技術的効果)
 次に、第6実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図12で説明したように、第6実施形態に係る情報処理システム10では、更新タイミングが学習タイミングよりも後である隆線画像が、次回以降の機械学習に用いられることになる。このようにすれば、新たに登録ゾーン情報が更新された隆線画像を用いて適切な機械学習を行うことが可能となる。例えば、すでに機械学習に用いられた隆線画像であっても、機械学習の後に明ゾーン情報及び不明ゾーン情報が更新されたものについては、スコアに応じて機械学習に用いられることになる。よって、更新後の明ゾーン情報及び不明ゾーン情報を学習に反映させることができる。
 <第7実施形態>
 第7実施形態に係る情報処理システム10について、図13及び図14を参照して説明する。なお、第7実施形態は、上述した第1から第6実施形態と一部の構成及び動作が異なるのみであり、その他の部分については第1から第6実施形態と同一であってよい。このため、以下では、すでに説明した各実施形態と異なる部分について詳細に説明し、その他の重複する部分については適宜説明を省略するものとする。
 (機能的構成)
 まず、図13を参照しながら、第7実施形態に係る情報処理システム10の機能的構成について説明する。図13は、第7実施形態に係る情報処理システムの機能的構成を示すブロック図である。なお、図13では、図2で示した構成要素と同様の要素に同一の符号を付している。
 図13に示すように、第7実施形態に係る情報処理システム10は、その機能を実現するための構成要素として、登録情報データベース110と、ゾーン情報抽出部120と、スコア算出部130と、選択部140と、を備えて構成されている。そして特に、第7実施形態に係るスコア算出部130は、画像種別判定部131と、アルゴリズム決定部132と、を備えている。なお、第7実施形態に係るスコア算出部130は、複数のアルゴリズムを用いて第1スコア及び第2スコアを算出可能に構成されている。例えば、スコア算出部130は、第2から第4実施形態で説明した各アルゴリズム(即ち、edge count、island count、及びバイナリスムース差分評価アルゴリズム)を用いて、スコアを算出可能に構成されている。
 画像種別判定部131は、スコアを算出する隆線画像の種別を判定可能に構成されている。画像種別判定部131は、例えば、隆線画像が指紋画像であるのか、掌紋画像であるのか、を判定可能に構成されてよい。なお、画像種別の判定手法については、特に限定されるものではなく、既存の技術を適宜採用して判定してよい。画像種別判定部131による判定結果は、アルゴリズム決定部132に出力される構成となっている。
 アルゴリズム決定部132は、画像種別判定部131の判定結果に応じて、スコア算出に用いるアルゴリズムを変更可能に構成されている。即ち、アルゴリズム決定部132は、スコア算出に用いることが可能な複数のアルゴリズムの中から、画像の種別に応じて実際にスコア算出に用いるアルゴリズムを選択可能に構成されている。或いは、アルゴリズム決定部132は、画像種別判定部131の判定結果に応じて、スコア算出に用いるアルゴリズムの重みを変更可能に構成されてよい。即ち、アルゴリズム決定部132は、スコア算出に用いる複数のアルゴリズムについて、画像の種別に応じてそれぞれの重みを設定し、各アルゴリズムが最終的なスコアに与える影響を変化させることができる。
 (動作例)
 次に、図14を参照しながら、第7実施形態に係る情報処理システム10の動作例(具体的には、アルゴリズム決定部132の動作例)について説明する。図14は、第7実施形態に係る情報処理システムの動作例を示す表である。
 図14に示すように、アルゴリズム決定部132は、隆線画像が指紋画像であるのか、それとも掌紋画像であるのか、によって使用するアルゴリズムを切り替えてよい。例えば、隆線画像が指紋画像である場合、アルゴリズム決定部132は、edge count、及びisland countの少なくとも一方を用いてスコアを算出するように決定してよい。一方で、隆線画像が掌紋画像である場合、アルゴリズム決定部は、バイナリスムース差分評価アルゴリズムを用いてスコアを算出するように決定してよい。
 ここで、掌紋画像は、指紋画像と比較して画像サイズが大きいため、大きな皺(手相)が画像内に多数存在する。そして、そのような皺が多数存在する領域について、ゾーン情報抽出部120は、明ゾーンを設定しやすい傾向があり、修正作業を行う作業員は不明ゾーンを設定しやすい傾向がある。この場合、ゾーン情報抽出部120が明ゾーンを設定するとエッジが減少し、作業員が不明ゾーンを設定するとエッジが増加することになるため、edge count、及びisland countを適用すると、適切なスコアが得られないおそれがある。よって、掌紋画像に対しては、バイナリスムース差分評価アルゴリズムを用いてスコアを算出することが好ましいと言える。一方で、指紋画像については、掌紋画像とは逆にedge count、及びisland countを用いてスコアを算出することが好ましいと言える。
 アルゴリズム決定部132は、隆線画像が指紋画像であるのか、それとも掌紋画像であるのか、によってアルゴリズムごとに設定される重みを変更してよい。例えば、隆線画像が指紋画像である場合、アルゴリズム決定部132は、edge count、及びisland countの少なくとも一方の重みを大きくするようにしてもよい。或いは、隆線画像が指紋画像である場合、アルゴリズム決定部132は、バイナリスムース差分評価アルゴリズムの重みを小さくするようにしてもよい。或いは、隆線画像が指紋画像である場合、アルゴリズム決定部132は、edge count、及びisland countの少なくとも一方の重みを大きくしつつ、バイナリスムース差分評価アルゴリズムの重みを小さくするようにしてもよい。このようにすれば、指紋画像については、edge count、及びisland countの影響が相対的に大きくなる一方で、バイナリスムース差分評価アルゴリズムの影響が相対的に小さくなる。よって、すでに説明した理由により、指紋画像に適した手法でスコア算出が行える。
 他方、隆線画像が掌紋画像である場合、アルゴリズム決定部132は、バイナリスムース差分評価アルゴリズムの重みを大きくするようにしてもよい。或いは、隆線画像が掌紋画像である場合、アルゴリズム決定部132は、edge count、及びisland countの少なくとも一方の重みを小さくするようにしてもよい。或いは、隆線画像が掌紋画像である場合、アルゴリズム決定部132は、バイナリスムース差分評価アルゴリズムの重みを大きくしつつ、アルゴリズム決定部132は、edge count、及びisland countの少なくとも一方の重みを小さくするようにしてもよい。このようにすれば、掌紋画像については、edge count、及びisland countの影響が相対的に小さくなる一方で、バイナリスムース差分評価アルゴリズムの影響が相対的に大きくなる。よって、すでに説明した理由により、掌紋画像に適した手法でスコア算出が行える。
 (技術的効果)
 次に、第7実施形態に係る情報処理システム10によって得られる技術的効果について説明する。
 図13及び図14で説明したように、第7実施形態に係る情報処理システム10では、画像種別に応じて、スコア算出に用いられるアルゴリズム、又は各アルゴリズムの重みが変更される。このようにすれば、画像の種別に応じた手法で、適切なスコアを算出することができる。その結果、機械学習に適した隆線画像を選択することが可能となる。
 上述した各実施形態の機能を実現するように該実施形態の構成を動作させるプログラムを記録媒体に記録させ、該記録媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記録媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記録媒体はもちろん、そのプログラム自体も各実施形態に含まれる。
 記録媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また該記録媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS上で動作して処理を実行するものも各実施形態の範疇に含まれる。更に、プログラム自体がサーバに記憶され、ユーザ端末にサーバからプログラムの一部または全てをダウンロード可能なようにしてもよい。
 <付記>
 以上説明した実施形態に関して、更に以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 付記1に記載の情報処理システムは、隆線画像における隆線の特徴量を抽出可能な明ゾーンを示す第1領域情報と、前記明ゾーン以外の領域である不明ゾーンを示す第2領域情報と、を複数の隆線画像の各々と紐付けて記憶する記憶手段と、前記隆線画像から、前記明ゾーンを示す第3領域情報及び前記不明ゾーンを示す第4領域情報を抽出する抽出手段と、前記第1領域情報及び前記第2領域情報に基づく第1スコアと、前記第3領域情報及び前記第4領域情報に基づく第2スコアと、を算出する算出手段と、前記第1スコアと前記第2スコアとに基づき、前記抽出手段の機械学習に用いる前記隆線画像を選択する選択手段と、を備える情報処理システムである。
 (付記2)
 付記2に記載の情報処理システムは、前記明ゾーン及び前記不明ゾーンは、前記隆線画像の画素ごとに設定されるものであり、前記算出手段は、前記明ゾーンである画素に隣接する前記不明ゾーンの画素の数に基づいて、前記第1スコアと前記第2スコアとを算出する、付記1に記載の情報処理システムである。
 (付記3)
 付記3に記載の情報処理システムは、前記算出手段は、前記明ゾーンに囲まれた前記不明ゾーンの数に基づいて、前記第1スコアと前記第2スコアとを算出する、付記1又は2に記載の情報処理システムである。
 (付記4)
 付記4に記載の情報処理システムは、前記算出手段は、前記第1領域情報及び前記第2領域情報と、前記第3領域情報及び前記第4領域情報と、にバイナリスムース処理を行った場合に、前記明ゾーンと前記不明ゾーンとが反転する箇所の数に基づいて、前記第1スコアと前記第2スコアとを算出する、付記1から3のいずれか一項に記載の情報処理システムである。
 (付記5)
 付記5に記載の情報処理システムは、機械学習を行った前記抽出手段に、すでに機械学習で用いた前記隆線画像を特定可能なバージョン情報を付与する付与手段と、前記バージョン情報に基づいて、すでに機械学習に用いた前記隆線画像を次回以降の機械学習に用いないように設定する第1設定手段と、を更に備える付記1から4のいずれか一項に記載の情報処理システムである。
 (付記6)
 付記6に記載の情報処理システムは、前記記憶手段に記憶された前記第1領域情報及び前記第2領域情報が更新された更新タイミングを取得する第1取得手段と、前記抽出手段に対して前回の機械学習を行った学習タイミングを取得する第2取得手段と、前記更新タイミングが前記学習タイミングよりも後である前記隆線画像を次回以降の機械学習に用いるように設定する第2設定手段と、を更に備える付記1から5のいずれか一項に記載の情報処理システムである。
 (付記7)
 付記7に記載の情報処理システムは、前記算出手段は、複数種類のアルゴリズムを用いて、前記第1スコアと前記第2スコアとを算出可能であり、前記隆線画像が指紋又は掌紋のいずれを含むかに応じて、前記第1スコアと前記第2スコアとを算出する際に用いる前記アルゴリズムを選択する、又は前記アルゴリズムごとに設定される重みを変更する付記1から6のいずれか一項に記載の情報処理システムである。
 (付記8)
 付記8に記載の情報処理装置は、隆線画像における隆線の特徴量を抽出可能な明ゾーンを示す第1領域情報と、前記明ゾーン以外の領域である不明ゾーンを示す第2領域情報と、を複数の隆線画像の各々と紐付けて記憶する記憶手段と、前記隆線画像から、前記明ゾーンを示す第3領域情報及び前記不明ゾーンを示す第4領域情報を抽出する抽出手段と、前記第1領域情報及び前記第2領域情報に基づく第1スコアと、前記第3領域情報及び前記第4領域情報に基づく第2スコアと、を算出する算出手段と、前記第1スコアと前記第2スコアとに基づき、前記抽出手段の機械学習に用いる前記隆線画像を選択する選択手段と、を備える情報処理装置である。
 (付記9)
 付記9に記載の情報処理方法は、少なくとも1つのコンピュータが実行する情報処理方法であって、隆線画像における隆線の特徴量を抽出可能な明ゾーンを示す第1領域情報と、前記明ゾーン以外の領域である不明ゾーンを示す第2領域情報と、を複数の隆線画像の各々と紐付けて記憶し、前記隆線画像から、前記明ゾーンを示す第3領域情報及び前記不明ゾーンを示す第4領域情報を抽出し、前記第1領域情報及び前記第2領域情報に基づく第1スコアと、前記第3領域情報及び前記第4領域情報に基づく第2スコアと、を算出し、前記第1スコアと前記第2スコアとに基づき、前記隆線画像から前記第3領域情報及び前記第4領域情報を抽出する抽出手段の機械学習に用いる前記隆線画像を選択する、情報処理方法である。
 (付記10)
 付記10に記載の記録媒体は、少なくとも1つのコンピュータに、隆線画像における隆線の特徴量を抽出可能な明ゾーンを示す第1領域情報と、前記明ゾーン以外の領域である不明ゾーンを示す第2領域情報と、を複数の隆線画像の各々と紐付けて記憶し、前記隆線画像から、前記明ゾーンを示す第3領域情報及び前記不明ゾーンを示す第4領域情報を抽出し、前記第1領域情報及び前記第2領域情報に基づく第1スコアと、前記第3領域情報及び前記第4領域情報に基づく第2スコアと、を算出し、前記第1スコアと前記第2スコアとに基づき、前記隆線画像から前記第3領域情報及び前記第4領域情報を抽出する抽出手段の機械学習に用いる前記隆線画像を選択する、情報処理方法を実行させるコンピュータプログラムが記録された記録媒体である。
 (付記11)
 付記11に記載のコンピュータプログラムは、少なくとも1つのコンピュータに、隆線画像における隆線の特徴量を抽出可能な明ゾーンを示す第1領域情報と、前記明ゾーン以外の領域である不明ゾーンを示す第2領域情報と、を複数の隆線画像の各々と紐付けて記憶し、前記隆線画像から、前記明ゾーンを示す第3領域情報及び前記不明ゾーンを示す第4領域情報を抽出し、前記第1領域情報及び前記第2領域情報に基づく第1スコアと、前記第3領域情報及び前記第4領域情報に基づく第2スコアと、を算出し、前記第1スコアと前記第2スコアとに基づき、前記隆線画像から前記第3領域情報及び前記第4領域情報を抽出する抽出手段の機械学習に用いる前記隆線画像を選択する、情報処理方法を実行させるコンピュータプログラムである。
 この開示は、請求の範囲及び明細書全体から読み取ることのできる発明の要旨又は思想に反しない範囲で適宜変更可能であり、そのような変更を伴う情報処理システム、情報処理装置、情報処理方法、及び記録媒体もまたこの開示の技術思想に含まれる。
 10 情報処理システム
 11 プロセッサ
 14 記憶装置
 110 登録情報データベース
 120 ゾーン情報抽出部
 130 スコア算出部
 131 画像種別判定部
 132 アルゴリズム決定部
 140 選択部
 150 バージョン情報付与部
 160 第1学習設定部
 170 更新タイミング取得部
 180 学習タイミング取得部
 190 第2学習設定部

Claims (10)

  1.  隆線画像における隆線の特徴量を抽出可能な明ゾーンを示す第1領域情報と、前記明ゾーン以外の領域である不明ゾーンを示す第2領域情報と、を複数の隆線画像の各々と紐付けて記憶する記憶手段と、
     前記隆線画像から、前記明ゾーンを示す第3領域情報及び前記不明ゾーンを示す第4領域情報を抽出する抽出手段と、
     前記第1領域情報及び前記第2領域情報に基づく第1スコアと、前記第3領域情報及び前記第4領域情報に基づく第2スコアと、を算出する算出手段と、
     前記第1スコアと前記第2スコアとに基づき、前記抽出手段の機械学習に用いる前記隆線画像を選択する選択手段と、
     を備える情報処理システム。
  2.  前記明ゾーン及び前記不明ゾーンは、前記隆線画像の画素ごとに設定されるものであり、
     前記算出手段は、前記明ゾーンである画素に隣接する前記不明ゾーンの画素の数に基づいて、前記第1スコアと前記第2スコアとを算出する、
     請求項1に記載の情報処理システム。
  3.  前記算出手段は、前記明ゾーンに囲まれた前記不明ゾーンの数に基づいて、前記第1スコアと前記第2スコアとを算出する、
     請求項1又は2に記載の情報処理システム。
  4.  前記算出手段は、前記第1領域情報及び前記第2領域情報と、前記第3領域情報及び前記第4領域情報と、にバイナリスムース処理を行った場合に、前記明ゾーンと前記不明ゾーンとが反転する箇所の数に基づいて、前記第1スコアと前記第2スコアとを算出する、
     請求項1から3のいずれか一項に記載の情報処理システム。
  5.  機械学習を行った前記抽出手段に、すでに機械学習で用いた前記隆線画像を特定可能なバージョン情報を付与する付与手段と、
     前記バージョン情報に基づいて、すでに機械学習に用いた前記隆線画像を次回以降の機械学習に用いないように設定する第1設定手段と、
     を更に備える請求項1から4のいずれか一項に記載の情報処理システム。
  6.  前記記憶手段に記憶された前記第1領域情報及び前記第2領域情報が更新された更新タイミングを取得する第1取得手段と、
     前記抽出手段に対して前回の機械学習を行った学習タイミングを取得する第2取得手段と、
     前記更新タイミングが前記学習タイミングよりも後である前記隆線画像を次回以降の機械学習に用いるように設定する第2設定手段と、
     を更に備える請求項1から5のいずれか一項に記載の情報処理システム。
  7.  前記算出手段は、複数種類のアルゴリズムを用いて、前記第1スコアと前記第2スコアとを算出可能であり、前記隆線画像が指紋又は掌紋のいずれを含むかに応じて、前記第1スコアと前記第2スコアとを算出する際に用いる前記アルゴリズムを選択する、又は前記アルゴリズムごとに設定される重みを変更する、
     請求項1から6のいずれか一項に記載の情報処理システム。
  8.  隆線画像における隆線の特徴量を抽出可能な明ゾーンを示す第1領域情報と、前記明ゾーン以外の領域である不明ゾーンを示す第2領域情報と、を複数の隆線画像の各々と紐付けて記憶する記憶手段と、
     前記隆線画像から、前記明ゾーンを示す第3領域情報及び前記不明ゾーンを示す第4領域情報を抽出する抽出手段と、
     前記第1領域情報及び前記第2領域情報に基づく第1スコアと、前記第3領域情報及び前記第4領域情報に基づく第2スコアと、を算出する算出手段と、
     前記第1スコアと前記第2スコアとに基づき、前記抽出手段の機械学習に用いる前記隆線画像を選択する選択手段と、
     を備える情報処理装置。
  9.  少なくとも1つのコンピュータが実行する情報処理方法であって、
     隆線画像における隆線の特徴量を抽出可能な明ゾーンを示す第1領域情報と、前記明ゾーン以外の領域である不明ゾーンを示す第2領域情報と、を複数の隆線画像の各々と紐付けて記憶し、
     前記隆線画像から、前記明ゾーンを示す第3領域情報及び前記不明ゾーンを示す第4領域情報を抽出し、
     前記第1領域情報及び前記第2領域情報に基づく第1スコアと、前記第3領域情報及び前記第4領域情報に基づく第2スコアと、を算出し、
     前記第1スコアと前記第2スコアとに基づき、前記隆線画像から前記第3領域情報及び前記第4領域情報を抽出する抽出手段の機械学習に用いる前記隆線画像を選択する、
     情報処理方法。
  10.  少なくとも1つのコンピュータに、
     隆線画像における隆線の特徴量を抽出可能な明ゾーンを示す第1領域情報と、前記明ゾーン以外の領域である不明ゾーンを示す第2領域情報と、を複数の隆線画像の各々と紐付けて記憶し、
     前記隆線画像から、前記明ゾーンを示す第3領域情報及び前記不明ゾーンを示す第4領域情報を抽出し、
     前記第1領域情報及び前記第2領域情報に基づく第1スコアと、前記第3領域情報及び前記第4領域情報に基づく第2スコアと、を算出し、
     前記第1スコアと前記第2スコアとに基づき、前記隆線画像から前記第3領域情報及び前記第4領域情報を抽出する抽出手段の機械学習に用いる前記隆線画像を選択する、
     情報処理方法を実行させるコンピュータプログラムが記録された記録媒体。
PCT/JP2021/036650 2021-10-04 2021-10-04 情報処理システム、情報処理装置、情報処理方法、及び記録媒体 WO2023058091A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023552416A JPWO2023058091A1 (ja) 2021-10-04 2021-10-04
PCT/JP2021/036650 WO2023058091A1 (ja) 2021-10-04 2021-10-04 情報処理システム、情報処理装置、情報処理方法、及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/036650 WO2023058091A1 (ja) 2021-10-04 2021-10-04 情報処理システム、情報処理装置、情報処理方法、及び記録媒体

Publications (1)

Publication Number Publication Date
WO2023058091A1 true WO2023058091A1 (ja) 2023-04-13

Family

ID=85803999

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/036650 WO2023058091A1 (ja) 2021-10-04 2021-10-04 情報処理システム、情報処理装置、情報処理方法、及び記録媒体

Country Status (2)

Country Link
JP (1) JPWO2023058091A1 (ja)
WO (1) WO2023058091A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009237941A (ja) * 2008-03-27 2009-10-15 Nec Soft Ltd 隆線領域抽出装置、隆線領域抽出システム、隆線領域抽出方法、およびプログラム
JP2018165911A (ja) * 2017-03-28 2018-10-25 日本電気株式会社 識別システム、識別方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009237941A (ja) * 2008-03-27 2009-10-15 Nec Soft Ltd 隆線領域抽出装置、隆線領域抽出システム、隆線領域抽出方法、およびプログラム
JP2018165911A (ja) * 2017-03-28 2018-10-25 日本電気株式会社 識別システム、識別方法及びプログラム

Also Published As

Publication number Publication date
JPWO2023058091A1 (ja) 2023-04-13

Similar Documents

Publication Publication Date Title
CN109165645A (zh) 一种图像处理方法、装置以及相关设备
US8542951B2 (en) Image retrieval device and computer program for image retrieval applicable to the image retrieval device
US11323577B2 (en) Image processing device for creating an album
JPWO2019107157A1 (ja) 棚割情報生成装置及び棚割情報生成プログラム
CN101681503A (zh) 信息处理方法及装置、程序和存储介质
JP2005327242A (ja) 特定被写体検出装置
US11216685B2 (en) Dynamically optimizing photo capture for multiple subjects
AU2016225841A1 (en) Predicting accuracy of object recognition in a stitched image
JP6874136B2 (ja) 画像認識装置、画像認識方法及びプログラム
CN112036304A (zh) 医疗票据版面识别的方法、装置及计算机设备
WO2023058091A1 (ja) 情報処理システム、情報処理装置、情報処理方法、及び記録媒体
JP2017162098A (ja) 学習方法、情報処理装置および学習プログラム
KR102636558B1 (ko) 전자 장치, 행동 인스턴스 생성 방법 및 기록 매체
JP6694638B2 (ja) プログラム、情報記憶媒体及び認識装置
JP2015114946A (ja) 画像処理装置、プログラムおよび画像処理方法
JP2016081472A (ja) 画像処理装置、画像処理方法及びプログラム
JP6656453B2 (ja) 読取システム、読取装置、プログラム、及び記憶媒体
JP2018005505A (ja) 画像認識パラメータ設定装置、画像認識パラメータ設定方法、および画像認識パラメータ設定プログラム
CN116584100A (zh) 适合于覆盖媒体内容的图像空间检测
JP6148426B1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2018005506A (ja) 画像認識手法評価装置、画像認識手法評価方法、及びプログラム
JP4490215B2 (ja) データ表示装置及びプログラム
TWI645887B (zh) Game device and program
CN110807452A (zh) 预测模型构建方法、装置、系统及银行卡卡号识别方法
CN112784661B (zh) 真实人脸的识别方法与真实人脸的识别装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21959834

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023552416

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE