WO2022153451A1 - 照合装置 - Google Patents

照合装置 Download PDF

Info

Publication number
WO2022153451A1
WO2022153451A1 PCT/JP2021/001093 JP2021001093W WO2022153451A1 WO 2022153451 A1 WO2022153451 A1 WO 2022153451A1 JP 2021001093 W JP2021001093 W JP 2021001093W WO 2022153451 A1 WO2022153451 A1 WO 2022153451A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
collation
unit
information
stored
Prior art date
Application number
PCT/JP2021/001093
Other languages
English (en)
French (fr)
Inventor
大弥 岡田
和久 折田
匡洋 鈴木
悦子 福原
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2021/001093 priority Critical patent/WO2022153451A1/ja
Priority to JP2022574962A priority patent/JP7567939B2/ja
Publication of WO2022153451A1 publication Critical patent/WO2022153451A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying

Definitions

  • the present invention relates to a collation device, a collation method, and a recording medium.
  • Patent Document 1 is an example of a technique that can be used for collation.
  • biometric information matching specific biometric information acquired by the finger vein & fingerprint & facial biometric information acquisition function or stored in the biometric examination information at the time of immigration examination is included in the data of the biometric information watch list.
  • the biological information watch list collation function for determining whether or not it exists is described.
  • Patent Document 1 discloses that multimodal (for example, a plurality of types of biological information such as a face, a fingerprint, and a finger vein) may be used for collation.
  • an object of the present invention is a collation device, a collation method, which can solve the problem that a confirmer such as a forensic officer may impose a heavy burden on the confirmer when confirming a candidate.
  • the purpose is to provide a recording medium.
  • the collation device which is a form of the present disclosure, in order to achieve such an object
  • a collation unit that ranks pre-stored people by collating feature data indicating the characteristics of some person with pre-stored person data.
  • the correction unit that corrects the result of ranking the persons performed by the collation unit, and the correction unit. It has a structure of having.
  • the collation method which is another form of the present disclosure, Information processing equipment By collating the feature data indicating the characteristics of some person with the data of the person stored in advance, the person stored in advance is ranked. Based on the attribute data to which the feature data belongs, the result of ranking the person is corrected.
  • the recording medium which is another form of the present disclosure is For information processing equipment By collating the feature data indicating the characteristics of some person with the data of the person stored in advance, the person stored in advance is ranked. It is a computer-readable recording medium that records a program for realizing a process of modifying the ranking result of a person based on the attribute data to which the feature data belongs.
  • FIG. 1 is a block diagram showing a configuration example of the collation device 100.
  • FIG. 2 is a diagram showing an example of stored information 141.
  • FIG. 3 is a diagram showing an example of the feature information 142.
  • FIG. 4 is a diagram showing an example of attribute information.
  • FIG. 5 is a diagram showing an example of ranking information 144.
  • 6 and 7 are diagrams for explaining an example of the collation process by the collation unit 154.
  • FIG. 8 is a diagram for explaining an example of the correction process by the correction unit 156.
  • FIG. 9 is a diagram for explaining an example of correction processing using a crime correlation diagram.
  • FIG. 10 is a flowchart showing an operation example of the collating device 100.
  • a collation device 100 for collating feature data such as fingerprint data and face image data acquired at or around the site with stored information 141 stored in the storage unit 140 will be described. .. As will be described later, the collation device 100 collates the feature data with the stored information 141 to rank the persons indicating the candidates who may have been in the field. Further, the collation device 100 corrects the ranking result based on the attribute information indicating the attribute to which the feature data belongs. Then, the collation device 100 outputs the corrected result.
  • the feature data refers to data indicating the characteristics of some person acquired at the site or around the site.
  • the feature data includes at least one of data showing the features of a person, such as fingerprint data, face image data, and iris data.
  • the feature data may show the features of a person other than those illustrated above.
  • the attribute data refers to data indicating the attribute to which the feature data belongs.
  • the attribute data includes, for example, the type of crime that occurred at the scene such as theft, stimulant control law, injury / assault, robbery, age and gender of the person who has the characteristic data, and the location information indicating the place where the characteristic data was acquired ( At least one of (information indicating the location of the site), etc. is included.
  • the attribute data may indicate attributes other than those illustrated above.
  • the above-mentioned site may include, for example, a place where some event has occurred, such as an incident site or an accident site, a place where feature data is to be acquired, and the like.
  • the collation device 100 is an information processing device that ranks persons indicating candidates who may have been at the site by collating feature data acquired at the site or around the site.
  • FIG. 1 shows a configuration example of the collation device 100.
  • the collation device 100 has, as main components, for example, an operation input unit 110, a screen display unit 120, a communication I / F unit 130, a storage unit 140, and an arithmetic processing unit 150. have.
  • the collation device 100 may not have a part of the above-exemplified configuration such as not having the operation input unit 110, or may have a configuration other than the above-exemplified configuration.
  • the operation input unit 110 includes an operation input device such as a keyboard and a mouse.
  • the operation input unit 110 detects the operation of the operator who operates the collation device 100 and outputs it to the arithmetic processing unit 150.
  • the screen display unit 120 includes a screen display device such as an LCD (Liquid Crystal Display).
  • the screen display unit 120 can display various information stored in the storage unit 140 on the screen in response to an instruction from the arithmetic processing unit 150.
  • the communication I / F unit 130 includes a data communication circuit.
  • the communication I / F unit 130 performs data communication with an image pickup device such as a surveillance camera connected via a communication line, a fingerprint sensor, and other external devices such as an external information processing device.
  • the storage unit 140 is a storage device such as a hard disk or a memory.
  • the storage unit 140 stores processing information and a program 146 necessary for various processes in the arithmetic processing unit 150.
  • the program 146 realizes various processing units by being read and executed by the arithmetic processing unit 150.
  • the program 146 is read in advance from an external device or a recording medium via a data input / output function such as the communication I / F unit 130, and is stored in the storage unit 140.
  • the main information stored in the storage unit 140 includes, for example, storage information 141, feature information 142, attribute information 143, ranking information 144, modified ranking information 145, and the like.
  • the stored information 141 includes, for example, information on a person who has been arrested in the past and whose identity is known.
  • the stored information 141 is acquired in advance from an external device or the like via, for example, the communication I / F unit 130 or the like, and is stored in the storage unit 140.
  • FIG. 2 shows an example of the stored information 141.
  • the stored information 141 includes, for example, identification information, a name, stored feature data, and stored attribute data.
  • the stored information 141 may include information other than those illustrated above.
  • the identification information is uniquely given in advance, for example.
  • the name indicates the surname or name of a person who has the corresponding storage feature data or storage attribute data.
  • the stored feature data shows the characteristics of the person.
  • the stored feature data includes at least one of a person's fingerprint data, face image data, iris data, and the like.
  • the stored feature data may be image data such as a fingerprint or a face, or information indicating a feature point extracted from the image data or information indicating a feature amount calculated based on the feature point or the like. You may.
  • the stored attribute data indicates the stored feature data and the attribute to which the corresponding person belongs.
  • the stored attribute data includes the type of crime committed by a person who has the corresponding stored characteristic data such as theft, stimulant control law, injury / assault, and robbery, the age and gender of the person who has the stored characteristic data, and the crime scene. It contains at least one of information indicating the location of, information indicating the current or past address of a person having stored feature data, and the like.
  • the feature information 142 includes feature data indicating the characteristics of some person acquired at the site or around the site.
  • the feature information 142 is updated by, for example, acquiring data from an imaging device such as a surveillance camera or a camera, an external device such as a fingerprint sensor, or the like via a communication I / F unit 130 or the like.
  • FIG. 3 shows an example of the feature information 142.
  • the feature information 142 includes, for example, identification information and feature data.
  • the feature information 142 may include a plurality of feature data acquired at or around the site.
  • the feature information 142 may include information other than those illustrated above.
  • the identification information is uniquely given to the feature data, for example.
  • the characteristic data shows the characteristics of some person acquired at or around the site.
  • the feature data is one of a person's fingerprint data, face image data, iris data, and the like.
  • the attribute information 143 includes attribute data indicating the attribute to which the feature data included in the feature information 142 belongs.
  • the attribute information 143 acquires data by, for example, receiving input via the operation input unit 110, acquiring from an external device or the like via the communication I / F unit 130, or acquiring based on feature data. Will be updated by
  • FIG. 4 shows an example of attribute information 143.
  • the attribute information 143 includes, for example, identification information and attribute data.
  • the attribute information 143 includes attribute data corresponding to each feature data included in the feature information 142.
  • the attribute information 143 may include information other than those illustrated above.
  • the identification information is uniquely given to the attribute data, for example.
  • the identification information may correspond to, for example, the identification information included in the feature information 142.
  • the attribute data indicates the attribute to which the feature data belongs. For example, as the attribute data, the type of crime that occurred at the site where the characteristic data such as theft, stimulant control law, injury / assault, and robbery were acquired, the age and gender of the person estimated from the characteristic data, and the characteristic data were acquired. At least one of location information indicating a location, and the like.
  • the ranking information 144 shows the result of ranking the persons included in the stored information 141 by collating the feature data included in the feature information 142 with the information included in the stored information 141. Specifically, for example, the ranking information 144 shows the results of ranking people in descending order of the number of similar feature data, which are feature data that have been listed as candidates by collation, in descending order of score, and the like. ing. For example, the ranking information 144 is generated by the ranking unit 155 ranking based on the score calculated by the collation process by the collating unit 154, which will be described later.
  • FIG. 5 shows an example of ranking information 144.
  • the rank information 144 includes rank, name, storage attribute data, similar feature data, score information indicating a score, and total score information indicating a total score.
  • the ranking information 144 may include information other than those illustrated above. Further, the ranking information 144 may have only a part of the above-exemplified examples, such as not including the stored attribute data.
  • the similar feature data includes the feature data determined to be the same as (or similar to) the stored feature data included in the stored information 141 as a result of the collation process. I'm out.
  • the item of the similar feature data includes the plurality of feature data.
  • the score information shows the score calculated by the collation process, and for example, shows the similarity between the feature data and the stored feature data. For example, in the score indicated by the score information, the larger the value, the more similar the stored feature data and the feature data are (that is, they may be the same).
  • the total score information is a total score determined based on the score indicated by the score information.
  • the total score information is a value obtained by adding each score included in the score information.
  • the two feature data “Bcd” and “Cdq” among the feature data acquired at the site as a result of the collation process are the stored feature data (FIG. 2) possessed by the person with the name “ABC”. It indicates that it was determined that there is a possibility that it is the same as "aaa”) shown in.
  • the ranking information 144 shows the result of ranking the persons so that the larger the number of similar feature data, which is the feature data listed as candidates, the higher the ranking.
  • the ranking information 144 ranks the persons included in the stored information 141 so that the larger the number of feature data determined to be the same as the stored feature data, the higher the ranking.
  • the result is shown.
  • the ranking information 144 shows the result of ranking the persons so that the higher the total score indicated by the total score information, the higher the ranking.
  • the ranking information 144 may indicate the result of ranking the persons by any of the methods other than the above-exemplified methods or the methods other than the above-exemplified methods.
  • the modified ranking information 145 shows the result after the ranking result indicated by the ranking information 144 is modified based on the attribute information 143. The details of the correction process will be described later.
  • the arithmetic processing unit 150 has an arithmetic unit such as a CPU and its peripheral circuits.
  • the arithmetic processing unit 150 reads the program 146 from the storage unit 140 and executes it, thereby realizing various processing units in cooperation with the hardware and the program 146.
  • the main processing units realized by the arithmetic processing unit 150 include, for example, a feature data acquisition unit 151, an attribute data acquisition unit 152, a feature point extraction unit 153, a collation unit 154, a ranking unit 155, a correction unit 156, and an output unit. There are 157 and so on.
  • the feature data acquisition unit 151 acquires feature data acquired at or around the site from an image pickup device, an external device, or the like via the communication I / F unit 130. Then, the feature data acquisition unit 151 stores the acquired feature data as feature information 142 in the storage unit 140. The feature data acquisition unit 151 may acquire a plurality of feature data from one site.
  • the attribute data acquisition unit 152 acquires the attribute data corresponding to the feature data and stores the acquired attribute data as the attribute information 143 in the storage unit 140.
  • the attribute data acquisition unit 152 receives input via the operation input unit 110, acquires data from an external device or the like via the communication I / F unit 130, and the like, together with information indicating the corresponding feature data. Get attribute data. Then, the attribute data acquisition unit 152 stores the acquired attribute data as attribute information 143 in the storage unit 140.
  • the attribute data acquisition unit 152 may be configured to acquire attribute data based on the feature data.
  • the attribute data acquisition unit 152 can be configured to acquire attribute data indicating the age and gender of a person based on facial image data and fingerprint data which are feature data.
  • the attribute data acquisition unit 152 acquires the attribute data based on the feature data, for example, the attribute data such as gender and age output by inputting the feature data to the model generated by machine learning in advance.
  • It can be realized by a known method such as acquiring attribute data such as age and gender based on the width and depth of the ridge line indicated by the fingerprint data, the component of the fingerprint, and the like.
  • the feature point extraction unit 153 extracts feature points from the feature data included in the feature information 142.
  • the feature point extraction unit 153 may extract feature points by using known means. For example, the feature point extraction unit 153 extracts feature points according to eyes, nose, mouth, etc. when the feature data is face image data, and features such as end points and branch points when the feature data is fingerprint data. Feature points can be extracted by a method such as extracting points.
  • the feature point extraction unit 153 may be configured to extract a feature amount or the like indicating the feature of the feature data based on the extracted feature point or the like.
  • the collation unit 154 uses the feature points and feature quantities extracted by the feature point extraction unit 153 and the feature points and feature quantities (or stored information) extracted from the stored feature data included in the stored information 141. By comparing and collating with the feature points and feature amounts included in 141), a score indicating the degree of similarity between the feature data and the stored feature data is calculated.
  • the specific score calculation method by the collation unit 154 is not particularly limited.
  • the collation unit 154 uses the feature points and feature quantities extracted by the feature point extraction unit 153 and the feature points and feature quantities extracted from the stored feature data included in the stored information 141 (or the feature points included in the stored information 141). The score may be calculated by a known method based on the feature amount) and the closeness between the features.
  • the ranking unit 155 ranks the persons included in the stored information 141 based on the result of the processing by the collating unit 154. Then, the ranking unit 155 stores the ranking result as ranking information 144 in the storage unit 140.
  • the ranking unit 155 the number of feature data whose score with the stored feature data is equal to or higher than a predetermined threshold value (that is, the number of feature data that can be determined to be the same as the stored feature data)
  • the person included in the stored information 141 is ranked so that the more the number is, the higher the rank is.
  • the ranking unit 155 is included in the stored information 141 so that when the number of feature data is the same, the higher the total score indicated by the total score information, which is the total score, the higher the score.
  • Rank people For example, as described above, the ranking unit 155 is a person included in the stored information 141 based on the number of feature data determined to be the same as the stored feature data and the score value. To rank. Then, the ranking unit 155 stores the ranking result as ranking information 144 in the storage unit 140.
  • the ranking unit 155 may perform ranking by a method other than the above-exemplified method. For example, the ranking unit 155 may rank the persons based only on the total score indicated by the total score information, or may perform the ranking using a method other than those illustrated.
  • the correction unit 156 corrects the ranking result of the ranking unit 155 based on the attribute data indicated by the attribute information 143. Then, the correction unit 156 stores the correction result as the correction ranking information 145 in the storage unit 140.
  • the correction unit 156 adds a predetermined value to the score indicated by the total score information (or the score indicated by the score information) according to the attribute data. Then, the correction unit 156 corrects the ranking result so that the higher the score indicated by the total score information after the addition, the higher the ranking result. For example, the correction unit 156 corrects the ranking result of the ranking unit 155 by the above processing.
  • the correction unit 156 adds a predetermined value to the score indicated by the total score information based on the type of crime that occurred in the field and the type of crime committed by the person indicated by the stored attribute data. Can be done. As an example, the correction unit 156 can add a predetermined value when the type of the crime that occurred in the field and the type of the crime committed by the person indicated by the stored attribute data are the same. Further, as shown in the crime correlation diagram of FIG. 9, there is a certain degree of relationship between the types of crimes committed by a person who commits a certain crime and the types of crimes committed later. Therefore, the correction unit 156 may be configured to add scores according to the relationship of crimes as shown in the crime correlation diagram. In other words, the correction unit 156 may be configured to add a value according to the ease of execution of the type of crime committed in the field by the person who committed the type of crime indicated by the stored attribute data.
  • the correction unit 156 sets a predetermined value for the score indicated by the total score information based on the age and gender of the person estimated from the feature data acquired at the site and the age and gender of the person indicated by the stored attribute data. Can be added.
  • the correction unit 156 can add a predetermined value when the age and gender of the person estimated from the feature data and the age and gender of the person indicated by the stored attribute data are the same.
  • the correction unit 156 may be configured to add a predetermined value in each case when the age is the same and the gender is the same. Further, the correction unit 156 may be configured to add a value according to the closeness between the age of the person estimated from the feature data and the age of the person indicated by the stored attribute data to the score.
  • the correction unit 156 is based on the information indicating the position of the site, the information indicating the position of the crime site indicated by the stored attribute data, and the information indicating the current or past address of the person having the stored feature data.
  • a predetermined value can be added to the score indicated by the total score information.
  • the correction unit 156 adds a value according to the proximity of the position of the site, the position of the crime site indicated by the storage attribute data, the current or past address of the person having the storage feature data, and the like to the score. Can be done.
  • the correction unit 156 adds a larger value to the score as the location of the site, the position of the crime site indicated by the storage attribute data, the current or past address of the person having the storage feature data, and the like are closer to each other. Can be done.
  • the correction unit 156 can correct the score by any one of the above-exemplified methods or a method in which a plurality of methods are combined.
  • the correction unit 156 may be configured to correct the score according to attribute data other than those illustrated above.
  • the output unit 157 outputs the corrected ranking information 145.
  • the output unit 157 can display the corrected ranking information 145 on the screen display unit 120 or transmit it to an external device via the communication I / F unit 130.
  • the output unit 157 may output all of the corrected ranking information 145, or may output only a part of the corrected ranking information 145 extracted by a predetermined standard such as the top 20%. .. Further, the output unit 157 may be configured to output information other than the modified rank information 145 stored in the storage unit 140, such as the rank information 144.
  • FIG. 10 is a flowchart showing an operation example of the collating device 100.
  • the feature data acquisition unit 151 acquires feature data acquired in the field from an image pickup device, an external device, or the like via the communication I / F unit 130.
  • the attribute data acquisition unit 152 acquires the attribute data corresponding to the feature data (step S101).
  • the attribute data acquisition unit 152 may acquire the attribute data by a method such as receiving an input via the operation input unit 110 or acquiring from an external device or the like via the communication I / F unit 130. Attribute data may be acquired based on the feature data.
  • the feature point extraction unit 153 extracts feature points from the feature data included in the feature information 142 (step S102).
  • the feature point extraction unit 153 may extract feature points by using known means.
  • the collation unit 154 collates the feature data with the stored feature data using the result extracted by the feature point extraction unit 153 (step S103). For example, the collation unit 154 compares and collates each feature data acquired at the site with all the stored feature data included in the stored information 141, and calculates a score indicating the degree of similarity.
  • the ranking unit 155 ranks the persons included in the stored information 141 based on the result of the processing by the collating unit 154 (step S104). For example, in the ranking unit 155, the number of feature data whose score with the stored feature data is equal to or higher than a predetermined threshold value (that is, the number of feature data that can be determined to be the same as the stored feature data) The person included in the stored information 141 is ranked so that the more the number is, the higher the rank is. Further, the ranking unit 155 is included in the stored information 141 so that when the number of feature data is the same, the higher the total score indicated by the total score information, which is the total score, the higher the score. Rank people. The ranking unit 155 may perform ranking by a method other than the above-exemplified method.
  • the correction unit 156 corrects the ranking result of the ranking unit 155 based on the attribute data indicated by the attribute information 143 (step S105). For example, the correction unit 156 adds a predetermined value to the score (or the score indicated by the score information) indicated by the total score information according to the attribute data. Then, the correction unit 156 corrects the ranking result so that the higher the score indicated by the total score information after the addition, the higher the ranking result.
  • the output unit 157 outputs the corrected ranking information 145 (step S106).
  • the output unit 157 can display the corrected ranking information 145 on the screen display unit 120 or transmit it to an external device via the communication I / F unit 130.
  • the above is an operation example of the collation device 100.
  • the collation device 100 has a ranking unit 155 and a correction unit 156. With such a configuration, the collating device 100 can correct the result of ranking by the ranking unit 155 by the correction unit 156. As a result, it becomes possible to position a person who may have been in the field higher. As a result, it is possible to reduce the burden on the confirmer such as a forensic officer when confirming the candidate.
  • the collation device 100 that performs collation using the extracted feature points has been described.
  • the present invention may be applied to a collation device other than the collation device 100 that performs collation using feature points.
  • the present invention may be configured to correct the result of ranking by performing collation by pattern matching or the like based on the attribute data.
  • the function as the collation device 100 is realized by one information processing device.
  • the function as the collation device 100 may be realized by a plurality of devices connected via a network, for example, on the cloud.
  • the function as the collation device 100 may be realized by a system composed of a plurality of devices.
  • various modifications may be adopted for the configuration of the collation device 100.
  • FIG. 11 is a block diagram showing a configuration example of the collation device 200.
  • FIG. 12 is a diagram showing an example of ranking information 244.
  • FIG. 13 is a flowchart showing an operation example of the collating device 200.
  • the collation device 200 which is an example of the collation device 100 described in the first embodiment, will be described.
  • the collation device 200 acquires face image data and fingerprint data acquired at the site or around the site as feature data. Further, the collation device 200 performs collation using face image data and collation using fingerprint data. Then, when the collation device 200 does not calculate the score equal to or higher than the face threshold by the collation using the face image data and the score equal to or higher than the fingerprint threshold is not calculated by the collation using the fingerprint data, the collation device 200 calculates the face image data. The result of the collation used and the result of the collation using the fingerprint data are integrated and ranked. After that, the collation device 200 corrects the ranking result based on the attribute information indicating the attribute to which the face image data and the fingerprint data belong.
  • FIG. 11 shows a configuration example of the collation device 200.
  • the collation device 200 has, as main components, for example, an operation input unit 110, a screen display unit 120, a communication I / F unit 130, a storage unit 240, an arithmetic processing unit 250, and the like. have.
  • the collating device 200 does not have to have a part of the above-exemplified configuration such as not having the operation input unit 110, like the collating device 100 described in the first embodiment, and has been illustrated above. It may have a configuration other than the above.
  • the function as the collation device 200 may be realized by one information processing device, or may be realized on the cloud or the like.
  • the storage unit 240 is a storage device such as a hard disk or a memory.
  • the storage unit 240 stores processing information and a program 246 required for various processes in the arithmetic processing unit 250.
  • the program 246 realizes various processing units by being read and executed by the arithmetic processing unit 250.
  • the program 246 is read in advance from an external device or a recording medium via a data input / output function such as the communication I / F unit 230, and is stored in the storage unit 240.
  • the main information stored in the storage unit 240 includes, for example, storage information 241, feature information 242, attribute information 243, ranking information 244, modified ranking information 245, and the like.
  • the stored information 241 is the same information as the stored information 141 described in the first embodiment. In the case of the stored information 241, at least the fingerprint data and the face image data of the person are included as the stored feature data.
  • the feature information 242 is the same information as the feature information 142, and includes feature data indicating the characteristics of some person acquired at the site or around the site.
  • the feature information 242 includes at least face image data and fingerprint data as feature data.
  • the attribute information 243 is the same information as the attribute information 143, and includes the attribute data indicating the attribute to which the feature data belongs. That is, the attribute information 243 includes attribute data indicating the attribute to which the face image data which is the feature data belongs and attribute data indicating the attribute to which the fingerprint data which is the feature data belongs.
  • the ranking information 244 is the same information as the ranking information 144, and shows the result of integrating and ranking the result of collating the face image data with the stored information 241 and the result of collating the fingerprint data with the stored information 241. ..
  • FIG. 12 shows an example of ranking information 244.
  • the rank information 244 includes rank, name, stored attribute data, similar feature data (fingerprint), score information (fingerprint), similar feature data (face image), and score information ( (Fingerprint image) and total score information are included. That is, the ranking information 244 includes score information (fingerprint) which is score information calculated as a result of collating fingerprint data and score information (face image) which is score information calculated as a result of collating face image data. And are included.
  • the ranking information 244 may include information other than those illustrated above. Further, the ranking information 244 may have only a part of the above-exemplified examples, such as not including the stored attribute data.
  • the modified ranking information 245 is the same information as the modified ranking information 145, and shows the result after the ranking result indicated by the ranking information 244 is modified based on the attribute information 243.
  • the arithmetic processing unit 250 has an arithmetic unit such as a CPU and its peripheral circuits.
  • the arithmetic processing unit 250 reads the program 246 from the storage unit 240 and executes it, thereby realizing various processing units in cooperation with the hardware and the program 246.
  • the main processing units realized by the arithmetic processing unit 250 include, for example, a face image data acquisition unit 251, a fingerprint data acquisition unit 252, an attribute data acquisition unit 253, a feature point extraction unit 254, a collation unit 255, and a judgment unit 256.
  • the face image data acquisition unit 251 acquires face image data, which is feature data acquired at the site, from an image pickup device, an external device, or the like via the communication I / F unit 130. Then, the face image data acquisition unit 251 stores the acquired face image data as feature information 242 in the storage unit 240.
  • the face image data acquisition unit 251 may acquire a plurality of face image data from one site.
  • the fingerprint data acquisition unit 252 acquires fingerprint data, which is characteristic data acquired at the site, from an imaging device, an external device, or the like via the communication I / F unit 130. Then, the fingerprint data acquisition unit 252 stores the acquired fingerprint data as feature information 242 in the storage unit 240. The fingerprint data acquisition unit 252 may acquire a plurality of fingerprint data from one site.
  • the attribute data acquisition unit 253 acquires the attribute data corresponding to the feature data, and stores the acquired attribute data as the attribute information 243 in the storage unit 240.
  • the attribute data acquisition unit 253 acquires the attribute data corresponding to the face image data which is the feature data and also acquires the attribute data corresponding to the fingerprint data which is the feature data.
  • the feature point extraction unit 254 extracts the feature points from the face image data and the fingerprint data, which are the feature data included in the feature information 142, similarly to the feature point extraction unit 153. Further, the collation unit 255 calculates the score by collating the feature data with the stored feature data in the same manner as the collation unit 154. In the case of the present embodiment, for example, the collation unit 255 performs all collation of face image data at 1: N and all collation of fingerprint data at 1: N.
  • the determination unit 256 determines whether or not to integrate the collation results by the collation unit 255 based on the collation results by the collation unit 255.
  • the judgment unit 256 compares the score calculated by the collation using the face image data with the predetermined face threshold value. Then, when the score equal to or higher than the face threshold value is calculated, the determination unit 256 outputs information about the person corresponding to the score equal to or higher than the face threshold value, and determines that the integrated process is not performed. Further, for example, the determination unit 256 compares the score calculated by the collation using the fingerprint data with the predetermined fingerprint threshold value. Then, when the score equal to or higher than the fingerprint threshold value is calculated, the determination unit 256 outputs information about the person corresponding to the score equal to or higher than the fingerprint threshold value, and determines that the integration process is not performed.
  • the determination unit 256 determines that the integrated process is performed when the score equal to or higher than the face threshold value is not calculated and the score equal to or higher than the fingerprint threshold value is not calculated. For example, as described above, the determination unit 256 determines whether or not to perform the integrated processing based on the score calculated by the collation by the collation unit 255.
  • the face threshold value and the fingerprint threshold value may be arbitrary values.
  • the integration / ranking unit 257 integrates the collation result using the face image data and the collation result using the fingerprint data, and as a result of the integration. People are ranked based on the calculated total score information. Then, the integration / ranking unit 257 stores the ranking result as ranking information 244 in the storage unit 240.
  • the integration / ranking unit 257 sets a score calculated as a result of collation using face image data and a score calculated as a result of collation using fingerprint data for each person included in the stored information 241. Integrate. Then, the integration / ranking unit 257 is ranked higher as the number of face image data and fingerprint data whose score is equal to or higher than a predetermined threshold value (that is, it can be determined that they may be the same) is larger. , The persons included in the stored information 141 are ranked. In addition, the integration / ranking unit 257 can perform the ranking so that the number of fingerprint data is prioritized over the number of face data at the time of the above ranking.
  • a predetermined threshold value that is, it can be determined that they may be the same
  • the integration / ranking unit 257 can perform ranking so that the larger the number of fingerprint data, the higher the ranking. Further, when the number of feature data is the same, the integration / ranking unit 257 stores the storage information 241 so that the higher the total score indicated by the total score information, which is the total score, the higher the score. Rank the people involved.
  • the total score information is, for example, a value obtained by adding the value indicated by the score information (fingerprint) and the value indicated by the score information (face image).
  • the integration / ranking unit 257 is included in the stored information 241 based on the number of feature data determined to be the same as the stored feature data and the score value. Rank the people who are Then, the integration / ranking unit 257 stores the ranking result as ranking information 244 in the storage unit 240.
  • the integration / ranking unit 257 may perform ranking by a method other than the above-exemplified method.
  • the integration / ranking unit 257 may rank the persons based only on the total score indicated by the total score information, or may perform the ranking using a method other than those illustrated.
  • the correction unit 258 corrects the result of ranking by the integration / ranking unit 257 based on the attribute data indicated by the attribute information 243. Then, the correction unit 258 stores the correction result as the correction ranking information 245 in the storage unit 240. The correction unit 258 may make corrections based on the attribute data by the same processing as the correction unit 156.
  • the output unit 259 outputs the corrected ranking information 245 and the like in the same manner as the output unit 157. Further, when the output unit 259 determines that the determination unit 256 outputs information about the person based on the result of the collation by the collation unit 255, the output unit 259 can output the information about the determined person.
  • FIG. 13 is a flowchart showing an operation example of the collating device 200.
  • the fingerprint data acquisition unit 252 acquires fingerprint data (step S201). Further, the feature point extraction unit 254 extracts feature points from the fingerprint data (step S202). Then, the collation unit 255 collates the fingerprint data with the stored feature data using the result extracted by the feature point extraction unit 254 (step S203).
  • the face image data acquisition unit 251 acquires the face image data (step S204).
  • the feature point extraction unit 254 extracts feature points from the face image data (step S205).
  • the collation unit 255 collates the face image data with the stored feature data using the result extracted by the feature point extraction unit 254 (step S206).
  • the determination unit 256 determines whether or not to integrate the collation results by the collation unit 255 based on the collation results by the collation unit 255.
  • the judgment unit 256 determines that a high score exists. It is determined (step S207, Yes) that the integration process is not performed.
  • the output unit 259 outputs information about a person according to the score determined to be a high score (for example, information included in the stored information 241) (step S210).
  • the determination unit 256 determines that the integrated process is to be performed.
  • the integration / ranking unit 257 integrates the collation result using the face image data and the collation result using the fingerprint data, and as a result of the integration.
  • the person is ranked based on the calculated total score information or the like (step S208).
  • the correction unit 258 corrects the result of ranking by the integration / ranking unit 257 based on the attribute data indicated by the attribute information 243 (step S209). For example, the correction unit 258 adds a predetermined value to the score or the like indicated by the total score information according to the attribute data. Then, the correction unit 258 corrects the ranking result so that the higher the score indicated by the total score information after the addition, the higher the ranking result.
  • the output unit 259 outputs the corrected ranking information 245 (step S210).
  • the output unit 259 can display the corrected ranking information 245 on the screen display unit 120 or transmit it to an external device via the communication I / F unit 130.
  • the above is an operation example of the collation device 200.
  • the collation device 200 when the collation device 200 cannot determine that the score is high as a result of the collation based on the face image data or the collation based on the fingerprint data, the collation device 200 performs an integrated process, ranks the results, and then makes a correction based on the attribute data. It is configured to do. According to such a configuration, when a high score is not calculated and confirmation by a confirmer such as a forensic expert is required, it is possible to perform integrated processing to rank and make corrections based on attribute data. As a result, it becomes possible to receive confirmation by the confirmer with a person who may have been in the field higher. As a result, it is possible to reduce the burden on a confirmer such as a forensic officer when confirming a candidate.
  • collating device 200 can employ various modified examples as in the collating device 100 described in the first embodiment.
  • FIG. 14 shows a hardware configuration example of the collation device 300.
  • the collation device 300 has the following hardware configuration as an example.
  • -CPU Central Processing Unit
  • 301 Arimetic unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • 303 storage device
  • -Program group 304 loaded in RAM 303 -Storage device 305 that stores the program group 304
  • a drive device 306 that reads and writes a recording medium 310 external to the information processing device.
  • -Communication interface 307 that connects to the communication network 311 outside the information processing device.
  • the collation device 300 can realize the functions as the collation unit 321 and the correction unit 322 shown in FIG. 15 by the CPU 301 acquiring the program group 304 and executing the program group 304.
  • the program group 304 is stored in the storage device 305 or the ROM 302 in advance, for example, and the CPU 301 loads the program group 304 into the RAM 303 or the like and executes the program group 304 as needed.
  • the program group 304 may be supplied to the CPU 301 via the communication network 311 or may be stored in the recording medium 310 in advance, and the drive device 306 may read the program and supply the program to the CPU 301.
  • FIG. 14 shows an example of the hardware configuration of the collation device 300.
  • the hardware configuration of the collating device 300 is not limited to the above case.
  • the collation device 300 may be configured from a part of the above-described configuration, such as not having the drive device 306.
  • the collation unit 321 ranks the pre-stored persons by collating the feature data indicating the characteristics of some person with the pre-stored person data.
  • the correction unit 322 corrects the result of ranking the persons performed by the collation unit 321 based on the attribute data to which the feature data belongs.
  • the collation device 300 has a collation unit 321 and a correction unit 322. With such a configuration, the collation device 300 can correct the result ranked by the collation unit 321 by the correction unit 322. As a result, it becomes possible to position a more probable person at a higher position. As a result, it is possible to reduce the burden on the confirmer such as a forensic officer when confirming the candidate.
  • An information processing device such as the collation device 300 described above can be realized by incorporating a predetermined program into the information processing device.
  • the program which is another embodiment of the present invention, ranks the persons stored in advance by collating the feature data indicating the characteristics of some person with the data of the person stored in advance in the information processing apparatus.
  • This is a program for realizing processing that corrects the result of ranking people based on the attribute data to which the feature data belongs.
  • the information processing device collates the feature data indicating the characteristics of some person with the data of the person stored in advance, thereby ranking the person stored in advance. Is performed, and the result of ranking the person is corrected based on the attribute data to which the feature data belongs.
  • (Appendix 1) A collation unit that ranks pre-stored people by collating feature data indicating the characteristics of some person with pre-stored person data. Based on the attribute data to which the feature data belongs, the correction unit that corrects the result of ranking the persons performed by the collation unit, and the correction unit. Matching device with.
  • Appendix 2 The collation device according to Appendix 1, wherein the attribute data includes at least one of information indicating the type, gender or age, or location of a crime.
  • the correction unit corrects the result of ranking the persons performed by the collation unit based on the type of crime that occurred at the site where the feature data was acquired and the type of crime committed by the person stored in advance.
  • the correction unit Based on the type of crime that occurred at the site where the feature data was acquired and the type of crime committed by a person stored in advance, the correction unit makes corrections according to the relationship of the crime shown in the crime correlation diagram.
  • the collation device according to any one of Appendix 1 to Appendix 3 to be performed.
  • the correction unit corrects the result of the ranking of the person performed by the matching unit based on the age or gender of the person estimated from the feature data and the age or gender of the person stored in advance.
  • the collation device according to any one of the items from 1 to 4.
  • the correction unit corrects the result of the ranking of the person performed by the collation unit based on the information indicating the position corresponding to the acquisition position of the feature data and the information indicating the address of the person stored in advance.
  • the collation device according to any one of Appendix 1 to Appendix 5.
  • Appendix 7) By collating, the collation unit calculates a score indicating the degree of similarity between the feature data and the person's data stored in advance, and stores the score in advance using a score equal to or greater than a predetermined threshold value.
  • the collation device according to any one of Appendix 1 to Appendix 6, which ranks persons.
  • the programs described in each of the above embodiments and appendices may be stored in a storage device or recorded in a computer-readable recording medium.
  • the recording medium is a portable medium such as a flexible disk, an optical disk, a magneto-optical disk, and a semiconductor memory.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Collating Specific Patterns (AREA)

Abstract

照合装置300は、何らかの人物の特徴を示す特徴データを予め格納された人物のデータと照合することにより、予め格納された人物の順位付けを行う照合部321と、特徴データが属する属性データに基づいて、前記照合部が行った人物の順位付けの結果を修正する修正部322と、を有する。

Description

照合装置
 本発明は、照合装置、照合方法、記録媒体に関する。
 犯行現場周辺などにおいて取得した指紋や顔画像データなどの特徴データを、データベースに格納されている情報と照合することで、犯行現場周辺などに滞在した人物の特定を試みることが知られている。このような照合などにおいては、コンピュータを用いた照合では明確な結果を得ることが出来なかった場合において、鑑識官などの確認者が候補の確認を行うことがあった。
 照合する際に用いることが可能な技術の一例としては、例えば、特許文献1がある。特許文献1には、指静脈&指紋&顔生体情報取得機能により取得されたあるいは出入国審査時生体審査情報に保管された特定の生体情報に合致する生体情報が、生体情報ウォッチリストのデータ内に存在するか否かを判定する生体情報ウォッチリスト照合機能について記載されている。また、特許文献1には、マルチモーダル(例えば、顔、指紋、指静脈などの複数種類の生体情報)を使って照合してもよい旨が開示されている。
特開2013-020316号公報
 鑑識官などの確認者による確認は、取得した特徴データの数などによっては膨大な数にのぼるおそれがある。その結果、鑑識官などの確認者が候補の確認を行う際に、確認者に多大な負担がかかることがある、という課題が生じていた。
 そこで、本発明の目的は、鑑識官などの確認者が候補の確認を行う際に、確認者に多大な負担がかかることがある、という課題を解決することが可能な照合装置、照合方法、記録媒体を提供することにある。
 かかる目的を達成するため本開示の一形態である照合装置は、
 何らかの人物の特徴を示す特徴データを予め格納された人物のデータと照合することにより、予め格納された人物の順位付けを行う照合部と、
 特徴データが属する属性データに基づいて、前記照合部が行った人物の順位付けの結果を修正する修正部と、
 を有する
 という構成をとる。
 また、本開示の他の形態である照合方法は、
 情報処理装置が、
 何らかの人物の特徴を示す特徴データを予め格納された人物のデータと照合することにより、予め格納された人物の順位付けを行い、
 特徴データが属する属性データに基づいて、人物の順位付けの結果を修正する
 という構成をとる。
 また、本開示の他の形態である記録媒体は、
 情報処理装置に、
 何らかの人物の特徴を示す特徴データを予め格納された人物のデータと照合することにより、予め格納された人物の順位付けを行い、
 特徴データが属する属性データに基づいて、人物の順位付けの結果を修正する
 処理を実現するためのプログラムを記録した、コンピュータが読み取り可能な記録媒体である。
 上述したような各構成によると、鑑識官などの確認者が候補の確認を行う際に、確認者にかかる負担を軽減することが可能となる。
本開示の第1の実施形態における照合装置の構成例を示すブロック図である。 格納情報の一例を示す図である。 特徴情報の一例を示す図である。 属性情報の一例を示す図である。 順位情報の一例を示す図である。 照合部による照合処理の一例を説明するための図である。 照合部による照合処理の一例を説明するための図である。 修正部による修正処理の一例を説明するための図である。 犯罪相関図を用いた修正処理の一例を説明するための図である。 本開示の第1の実施形態における照合装置の動作例を示すフローチャートである。 本開示の第2の実施形態における照合装置の構成例を示すブロック図である。 順位情報の一例を示す図である。 本開示の第2の実施形態における照合装置の動作例を示すフローチャートである。 本開示の第3の実施形態における照合装置のハードウェア構成の一例を示す図である。 照合装置の構成例を示すブロック図である。
[第1の実施形態]
 本開示の第1の実施形態について、図1から図10までを参照して説明する。図1は、照合装置100の構成例を示すブロック図である。図2は、格納情報141の一例を示す図である。図3は、特徴情報142の一例を示す図である。図4は、属性情報の一例を示す図である。図5は、順位情報144の一例を示す図である。図6、図7は、照合部154による照合処理の一例を説明するための図である。図8は、修正部156による修正処理の一例を説明するための図である。図9は、犯罪相関図を用いた修正処理の一例を説明するための図である。図10は、照合装置100の動作例を示すフローチャートである。
 本開示の第1の実施形態においては、現場や現場周辺などにおいて取得した指紋データや顔画像データなどの特徴データを記憶部140に格納されている格納情報141と照合する照合装置100について説明する。後述するように、照合装置100は、特徴データを格納情報141と照合することにより、現場にいた可能性のある候補者を示す人物の順位付けを行う。また、照合装置100は、特徴データが属する属性を示す属性情報に基づいて、順位付けの結果を修正する。そして、照合装置100は、修正した結果を出力する。
 なお、本実施形態において、特徴データとは、現場や現場周辺などにおいて取得した、何らかの人物の特徴を示すデータのことをいう。特徴データには、例えば、指紋データ、顔画像データ、虹彩データなど、人物の特徴を示すデータのうちの少なくとも1つが含まれる。特徴データは、上記例示した以外の人物の特徴を示してもよい。また、属性データとは、特徴データが属する属性を示すデータのことをいう。属性データには、例えば、窃盗、覚せい剤取締法、傷害・暴行、強盗などの現場で生じた犯罪の種類、特徴データを有する人物の年齢や性別、特徴データを取得した場所を示す位置情報(現場の位置を示す情報)、などのうちの少なくとも1つが含まれる。属性データは、上記例示した以外の属性を示してもよい。また、上記現場には、例えば、事件現場や事故現場など、何らかの事象が生じた場所、特徴データの取得対象となる場所などを含んでよい。
 照合装置100は、現場や現場周辺などにおいて取得した特徴データの照合を行うことで現場にいた可能性のある候補者を示す人物の順位付けを行う情報処理装置である。図1は、照合装置100の構成例を示している。図1を参照すると、照合装置100は、主な構成要素として、例えば、操作入力部110と、画面表示部120と、通信I/F部130と、記憶部140と、演算処理部150と、を有している。
 なお、照合装置100は、操作入力部110を有さないなど上記例示した構成の一部を有さなくてもよいし、上記例示した以外の構成を有してもよい。
 操作入力部110は、キーボードやマウスなどの操作入力装置からなる。操作入力部110は、照合装置100を操作するオペレータの操作を検出して演算処理部150に出力する。
 画面表示部120は、LCD(Liquid Crystal Display、液晶ディスプレイ)などの画面表示装置からなる。画面表示部120は、演算処理部150からの指示に応じて、記憶部140に格納された各種情報などを画面表示することが出来る。
 通信I/F部130は、データ通信回路からなる。通信I/F部130は、通信回線を介して接続された監視カメラなどの撮像装置、指紋センサ、そのほか外部情報処理装置などの外部装置との間でデータ通信を行う。
 記憶部140は、ハードディスクやメモリなどの記憶装置である。記憶部140は、演算処理部150における各種処理に必要な処理情報やプログラム146を記憶する。プログラム146は、演算処理部150に読み込まれて実行されることにより各種処理部を実現する。プログラム146は、通信I/F部130などのデータ入出力機能を介して外部装置や記録媒体から予め読み込まれ、記憶部140に保存されている。記憶部140で記憶される主な情報としては、例えば、格納情報141、特徴情報142、属性情報143、順位情報144、修正後順位情報145などがある。
 格納情報141は、例えば、過去に逮捕歴などがあり身元が分かっている人物の情報を含んでいる。格納情報141は、例えば、通信I/F部130などを介して外部装置などから予め取得され、記憶部140に格納されている。
 図2は、格納情報141の一例を示している。図2を参照すると、格納情報141には、例えば、識別情報と、氏名と、格納特徴データと、格納属性データと、が含まれている。格納情報141には、上記例示した以外の情報が含まれてもよい。
 図2で示す各情報のうち、識別情報は、例えば、予め一意に与えられている。また、氏名は、対応する格納特徴データや格納属性データを有する人物の苗字や名前などを示している。また、格納特徴データは、人物の特徴を示している。例えば、格納特徴データには、人物の指紋データ、顔画像データ、虹彩データなどのうちの少なくとも1つが含まれている。なお、格納特徴データは、指紋や顔などの画像データなどであってもよいし、画像データから抽出した特徴点を示す情報や特徴点などに基づいて算出される特徴量を示す情報などであってもよい。また、格納属性データは、格納特徴データや対応する人物が属する属性を示している。例えば、格納属性データには、窃盗、覚せい剤取締法、傷害・暴行、強盗などの対応する格納特徴データを有する人物が実行した犯罪の種類、格納特徴データを有する人物の年齢や性別、犯行現場の位置を示す情報、格納特徴データを有する人物の現在や過去の住所を示す情報、などのうちの少なくとも1つが含まれている。
 特徴情報142は、現場や現場周辺などにおいて取得した、何らかの人物の特徴を示す特徴データを含んでいる。特徴情報142は、例えば、通信I/F部130などを介して監視カメラやカメラなどの撮像装置、指紋センサなどの外部装置などからデータを取得することなどにより更新される。
 図3は、特徴情報142の一例を示している。図3を参照すると、特徴情報142には、例えば、識別情報と、特徴データと、が含まれている。例えば、図3で示すように、特徴情報142には、現場や現場周辺で取得された複数の特徴データが含まれてよい。特徴情報142には、上記例示した以外の情報が含まれてもよい。
 図3で示す各情報のうち、識別情報は、例えば、特徴データに対して一意に与えられる。また、特徴データは、現場や現場周辺で取得された、何らかの人物の特徴を示している。例えば、特徴データは、人物の指紋データ、顔画像データ、虹彩データなどのうちの1つである。
 属性情報143は、特徴情報142に含まれる特徴データが属する属性を示す属性データを含んでいる。属性情報143は、例えば、操作入力部110を介して入力を受け付ける、通信I/F部130を介して外部装置などから取得する、特徴データに基づいて取得する、などの方法によりデータを取得することにより更新される。
 図4は、属性情報143の一例を示している。図4を参照すると、属性情報143には、例えば、識別情報と、属性データと、が含まれている。例えば、属性情報143には、特徴情報142に含まれる各特徴データに対応する属性データが含まれている。属性情報143には、上記例示した以外の情報が含まれてもよい。
 図4で示す各情報のうち、識別情報は、例えば、属性データに対して一意に与えられる。識別情報は、例えば、特徴情報142に含まれる識別情報に対応するものであってよい。また、属性データは、特徴データが属する属性を示している。例えば、属性データは、窃盗、覚せい剤取締法、傷害・暴行、強盗などの特徴データを取得した現場で生じた犯罪の種類、特徴データから推測される人物の年齢や性別、特徴データを取得した場所を示す位置情報、などのうちの少なくとも一つである。
 順位情報144は、特徴情報142に含まれる特徴データを格納情報141に含まれる情報と照合することにより、格納情報141に含まれる人物の順位付けを行った結果を示している。具体的には、例えば、順位情報144は、照合を行うことにより候補として挙がってきた特徴データである類似特徴データの数が多い順、スコアが大きい順、などで人物を順位付けした結果を示している。例えば、順位情報144は、後述する照合部154による照合処理により算出されるスコアなどに基づいて、順位付け部155が順位付けすることにより生成される。
 図5は、順位情報144の一例を示している。図5を参照すると、順位情報144には、ランクと、氏名と、格納属性データと、類似特徴データと、スコアを示すスコア情報と、スコアの合計を示す総合スコア情報とが含まれている。順位情報144には、上記例示した以外の情報が含まれてもよい。また、順位情報144は、格納属性データを含まないなど、上記例示したうちの一部のみを有してもよい。
 図5で示す各情報のうち、類似特徴データは、照合処理の結果、格納情報141に含まれる格納特徴データと同一である可能性がある(または、類似する)と判断された特徴データを含んでいる。図5で示すように、格納特徴データと同一である可能性があると判断される特徴データが複数存在する場合、類似特徴データの項目には複数の特徴データが含まれる。また、スコア情報は、照合処理により算出されるスコアを示しており、例えば、特徴データと格納特徴データとの類似性を示している。例えば、スコア情報が示すスコアは、値が大きければ大きいほど格納特徴データと特徴データとが類似している(つまり、同一である可能性があること)を示している。そのため、例えば、スコア情報が示すスコアが所定閾値以上となる特徴データについて、格納特徴データと同一である可能性があると判断することが出来る。また、総合スコア情報は、スコア情報が示すスコアに基づいて判断される総合的なスコアである。例えば、総合スコア情報は、スコア情報に含まれる各スコアを足し合わせた値となっている。例えば、図5で示す場合、照合処理の結果、現場で取得された各特徴データのうち「Bcd」「Cdq」の2つの特徴データが、氏名「ABC」の人物が有する格納特徴データ(図2で示す「aaa」)と同一である可能性があると判断されたことを示している。
 なお、図5で示す場合、順位情報144は、候補として挙がってきた特徴データである類似特徴データの数が多いほどより上位となるように人物を順位付けた結果について示している。換言すると、順位情報144は、格納特徴データと同一である可能性があると判断された特徴データの数が多ければ多いほどより上位となるように、格納情報141に含まれる人物を順位付けした結果を示している。また、順位情報144は、総合スコア情報が示す合計のスコアが高ければ高いほどより上位となるように人物を順位付けた結果について示している。なお、順位情報144は、上記例示した以外方法のうちのいずれか、または、上記例示した方法以外により人物を順位付けた結果について示してもよい。
 修正後順位情報145は、順位情報144が示す順位付けの結果を属性情報143に基づいて修正した後の結果を示している。修正処理の詳細については後述する。
 演算処理部150は、CPUなどの演算装置とその周辺回路を有する。演算処理部150は、記憶部140からプログラム146を読み込んで実行することにより、上記ハードウェアとプログラム146とを協働させて各種処理部を実現する。演算処理部150で実現される主な処理部としては、例えば、特徴データ取得部151、属性データ取得部152、特徴点抽出部153、照合部154、順位付け部155、修正部156、出力部157などがある。
 特徴データ取得部151は、通信I/F部130を介して、撮像装置や外部装置などから現場や現場周辺において取得した特徴データを取得する。すると、特徴データ取得部151は、取得した特徴データを特徴情報142として記憶部140に格納する。なお、特徴データ取得部151は、一つの現場から複数の特徴データを取得してよい。
 属性データ取得部152は、特徴データに対応する属性データを取得して、取得した属性データを属性情報143として記憶部140に格納する。
 例えば、属性データ取得部152は、操作入力部110を介して入力を受け付ける、通信I/F部130を介して外部装置などから取得する、などの方法により、対応する特徴データを示す情報とともに、属性データを取得する。すると、属性データ取得部152は、取得した属性データを属性情報143として記憶部140に格納する。
 また、属性データ取得部152は、特徴データに基づいて属性データを取得するよう構成してもよい。例えば、属性データ取得部152は、特徴データである顔画像データや指紋データに基づいて、人物の年齢や性別を示す属性データなどを取得するよう構成することが出来る。属性データ取得部152による特徴データに基づく属性データの取得は、例えば、予め機械学習することで生成したモデルに対して特徴データを入力することで出力される性別や年齢などの属性データを取得する、指紋データが示す隆線の幅や深さ、指紋の成分などに基づいて、年齢や性別などの属性データを取得する、など既知の方法により実現することが出来る。
 特徴点抽出部153は、特徴情報142に含まれる特徴データから特徴点を抽出する。特徴点抽出部153は、既知の手段を用いて特徴点を抽出してよい。例えば、特徴点抽出部153は、特徴データが顔画像データである場合に目、鼻、口などに応じた特徴点を抽出する、特徴データが指紋データである場合に端点や分岐点などの特徴点を抽出する、などの方法により、特徴点を抽出することが出来る。なお、特徴点抽出部153は、抽出した特徴点などに基づいて、特徴データの特徴を示す特徴量などを抽出するよう構成してもよい。
 照合部154は、特徴データと格納特徴データとの照合を行う。例えば、照合部154は、現場で取得した各特徴データについて、格納情報141に含まれる各格納特徴データと比較照合して、類似している度合いを示すスコアを算出する。つまり、照合部154は、図6で示すように、現場で取得した各特徴データについて、1:N(N=格納情報141に含まれる対応する格納特徴データの数)で全照合を行う。その結果、図7で示すように、照合部154は、特徴データと格納特徴データとの各組合せについて、類似している度合いを示すスコアを算出することになる。また、照合部154は、算出したスコアが所定閾値以上となる組み合わせについて、同一である可能性があると判断することが出来る。同一である可能性があると判断するための閾値は、任意の値であってよい。
 具体的には、例えば、照合部154は、特徴点抽出部153が抽出した特徴点や特徴量と、格納情報141に含まれる格納特徴データから抽出される特徴点や特徴量(または、格納情報141に含まれる特徴点や特徴量)と、の比較照合を行うことで、特徴データと格納特徴データとが類似している度合いを示すスコアを算出する。本実施形態においては、照合部154による具体的なスコア算出方法については特に限定しない。照合部154は、特徴点抽出部153が抽出した特徴点や特徴量と、格納情報141に含まれる格納特徴データから抽出される特徴点や特徴量(または、格納情報141に含まれる特徴点や特徴量)と、の間の近さなどに基づいて、既知の方法によりスコアを算出するよう構成してよい。
 順位付け部155は、照合部154による処理の結果に基づいて、格納情報141に含まれる人物の順位付けを行う。そして、順位付け部155は、順位付けの結果を順位情報144として記憶部140に格納する。
 例えば、順位付け部155は、格納特徴データとの間のスコアが所定閾値以上となる特徴データの数(つまり、格納特徴データと同一である可能性があると判断可能な特徴データの数)が多ければ多いほどより上位となるように、格納情報141に含まれる人物を順位付けする。また、順位付け部155は、特徴データの数が同数の場合において、スコアの合計値である総合スコア情報が示す合計のスコアが高ければ高いほどより上位となるように、格納情報141に含まれる人物を順位付ける。例えば、以上のように、順位付け部155は、格納特徴データと同一である可能性があると判断される特徴データの数と、スコアの値と、に基づいて、格納情報141に含まれる人物の順位付けを行う。そして、順位付け部155は、順位付けの結果を順位情報144として記憶部140に格納する。
 なお、順位付け部155は、上記例示した以外の方法で順位付けを行ってもよい。例えば、順位付け部155は、総合スコア情報が示す合計のスコアのみに基づいて人物の順位付けを行ってもよいし、例示した以外の方法を用いて順位付けを行ってもよい。
 修正部156は、属性情報143が示す属性データに基づいて、順位付け部155が順位付けした結果を修正する。そして、修正部156は、修正した結果を修正後順位情報145として記憶部140に格納する。
 例えば、修正部156は、図8で示すように、属性データに応じて総合スコア情報が示すスコア(または、スコア情報が示すスコア)に所定値を加算する。そして、修正部156は、加算した後の総合スコア情報が示すスコアが高ければ高いほどより上位になるように順位付けの結果を修正する。例えば、修正部156は、上記のような処理により、順位付け部155が順位付けした結果を修正する。
 具体的には、例えば、修正部156は、現場で生じた犯罪の種類と、格納属性データが示す人物が実行した犯罪の種類と、に基づいて、総合スコア情報が示すスコアに所定値を加算することが出来る。一例として、修正部156は、現場で生じた犯罪の種類と、格納属性データが示す人物が実行した犯罪の種類と、が同一である場合に、所定値を加算することが出来る。また、図9の犯罪相関図で示すように、ある犯罪を実行した者が後に実行する犯罪の種類にはある程度の関係がある。そのため、修正部156は、犯罪相関図が示すような犯罪の関係性に応じてスコアを加算するよう構成してもよい。換言すると、修正部156は、格納属性データが示す種類の犯罪を実行した人物による現場で生じた犯罪の種類の実行しやすさに応じた値を加算するよう構成してもよい。
 また、例えば、修正部156は、現場で取得した特徴データから推測した人物の年齢や性別と、格納属性データが示す人物の年齢や性別と、に基づいて、総合スコア情報が示すスコアに所定値を加算することが出来る。一例として、修正部156は、特徴データから推測した人物の年齢や性別と、格納属性データが示す人物の年齢や性別と、が同一である場合に、所定値を加算することが出来る。修正部156は、年齢が同一である場合、性別が同一である場合、それぞれの場合に所定値を加算するよう構成してもよい。また、修正部156は、特徴データから推測した人物の年齢と、格納属性データが示す人物の年齢と、の近さに応じた値をスコアに加算するよう構成してもよい。
 また、例えば、修正部156は、現場の位置を示す情報と、格納属性データが示す犯行現場の位置を示す情報や格納特徴データを有する人物の現在や過去の住所を示す情報と、に基づいて、総合スコア情報が示すスコアに所定値を加算することが出来る。一例として、修正部156は、現場の位置と、格納属性データが示す犯行現場の位置や格納特徴データを有する人物の現在や過去の住所などと、の近さに応じた値をスコアに加算することが出来る。例えば、修正部156は、現場の位置と、格納属性データが示す犯行現場の位置や格納特徴データを有する人物の現在や過去の住所などと、が近ければ近いほどより大きな値をスコアに加算することが出来る。
 修正部156は、上記例示した方法のいずれか、または、複数を組み合わせた方法により、スコアの修正を行うことが出来る。修正部156は、上記例示した以外の属性データに応じてスコアを修正するよう構成してもよい。
 出力部157は、修正後順位情報145を出力する。例えば、出力部157は、修正後順位情報145を画面表示部120に画面表示したり、通信I/F部130を介して外部装置に対して送信したりすることが出来る。
 なお、出力部157は、修正後順位情報145のすべてを出力しても構わないし、上位20パーセントなど予め定められた基準で抽出される修正後順位情報145の一部のみを出力してもよい。また、出力部157は、順位情報144など記憶部140に格納された修正後順位情報145以外の情報も出力するよう構成してもよい。
 以上が、照合装置100の構成例である。続いて、図10を参照して照合装置100の動作例について説明する。
 図10は、照合装置100の動作例を示すフローチャートである。図10を参照すると、特徴データ取得部151は、通信I/F部130を介して、撮像装置や外部装置などから現場において取得した特徴データを取得する。また、属性データ取得部152は、特徴データに対応する属性データを取得する(ステップS101)。なお、属性データ取得部152は、操作入力部110を介して入力を受け付ける、通信I/F部130を介して外部装置などから取得する、などの方法により属性データを取得してもよいし、特徴データに基づいて属性データを取得してもよい。
 特徴点抽出部153は、特徴情報142に含まれる特徴データから特徴点を抽出する(ステップS102)。特徴点抽出部153は、既知の手段を用いて特徴点を抽出してよい。
 照合部154は、特徴点抽出部153が抽出した結果を用いて、特徴データと格納特徴データとの照合を行う(ステップS103)。例えば、照合部154は、現場で取得した各特徴データについて、格納情報141に含まれるすべての格納特徴データと比較照合して、類似している度合いを示すスコアを算出する。
 順位付け部155は、照合部154による処理の結果に基づいて、格納情報141に含まれる人物の順位付けを行う(ステップS104)。例えば、順位付け部155は、格納特徴データとの間のスコアが所定閾値以上となる特徴データの数(つまり、格納特徴データと同一である可能性があると判断可能な特徴データの数)が多ければ多いほどより上位となるように、格納情報141に含まれる人物を順位付けする。また、順位付け部155は、特徴データの数が同数の場合において、スコアの合計値である総合スコア情報が示す合計のスコアが高ければ高いほどより上位となるように、格納情報141に含まれる人物を順位付ける。順位付け部155は、上記例示した以外の方法で順位付けを行ってもよい。
 修正部156は、属性情報143が示す属性データに基づいて、順位付け部155が順位付けした結果を修正する(ステップS105)。例えば、修正部156は、属性データに応じて総合スコア情報が示すスコア(または、スコア情報が示すスコア)に所定値を加算する。そして、修正部156は、加算した後の総合スコア情報が示すスコアが高ければ高いほどより上位になるように順位付けの結果を修正する。
 出力部157は、修正後順位情報145を出力する(ステップS106)。例えば、出力部157は、修正後順位情報145を画面表示部120に画面表示したり、通信I/F部130を介して外部装置に対して送信したりすることが出来る。
 以上が、照合装置100の動作例である。
 このように、照合装置100は、順位付け部155と修正部156とを有している。このような構成により、照合装置100は、順位付け部155が順位付けした結果を修正部156により修正することが出来る。その結果、より現場にいた可能性のある人物をより上位に位置させることが可能となる。これにより、鑑識官などの確認者が候補の確認を行う際にかかる負担を低減させることが出来る。
 なお、本実施形態においては、抽出した特徴点を用いた照合を行う照合装置100について説明した。しかしながら、本発明は、特徴点を用いた照合を行う照合装置100以外の照合装置に適用されてもよい。例えば、本発明は、パターンマッチングなどにより照合を行って順位付けした結果を属性データに基づいて修正するよう構成してもよい。
 また、本実施形態においては、1台の情報処理装置により照合装置100としての機能を実現する場合について説明した。しかしながら、照合装置100としての機能は、例えば、クラウド上などネットワークを介して接続された複数の装置により実現されてもよい。また、照合装置100としての機能は、複数の装置で構成されたシステムにより実現されてもよい。例えば、以上のように、照合装置100の構成は、様々な変形例を採用してよい。
[第2の実施形態]
 続いて、本開示の第2の実施形態について、図11から図13までを参照して説明する。図11は、照合装置200の構成例を示すブロック図である。図12は、順位情報244の一例を示す図である。図13は、照合装置200の動作例を示すフローチャートである。
 本開示の第2の実施形態においては、第1の実施形態で説明した照合装置100の一例である照合装置200について説明する。後述するように、照合装置200は、現場や現場周辺などにおいて取得した顔画像データと指紋データとを特徴データとして取得する。また、照合装置200は、顔画像データを用いた照合を行うとともに、指紋データを用いた照合を行う。そして、照合装置200は、顔画像データを用いた照合により顔閾値以上のスコアが算出されず、かつ、指紋データを用いた照合により指紋閾値以上のスコアが算出されなかった場合、顔画像データを用いた照合の結果と指紋データを用いた照合の結果とを統合して順位付けする。その後、照合装置200は、顔画像データや指紋データが属する属性を示す属性情報に基づいて、順位付けの結果を修正する。
 図11は、照合装置200の構成例を示している。図11を参照すると、照合装置200は、主な構成要素として、例えば、操作入力部110と、画面表示部120と、通信I/F部130と、記憶部240と、演算処理部250と、を有している。なお、照合装置200は、第1の実施形態で説明した照合装置100と同様に、操作入力部110を有さないなど上記例示した構成の一部を有さなくてもよいし、上記例示した以外の構成を有してもよい。また、照合装置100と同様に、照合装置200としての機能は、1台の情報処理装置により実現されてもよいし、クラウド上などで実現されてもよい。
 記憶部240は、ハードディスクやメモリなどの記憶装置である。記憶部240は、演算処理部250における各種処理に必要な処理情報やプログラム246を記憶する。プログラム246は、演算処理部250に読み込まれて実行されることにより各種処理部を実現する。プログラム246は、通信I/F部230などのデータ入出力機能を介して外部装置や記録媒体から予め読み込まれ、記憶部240に保存されている。記憶部240で記憶される主な情報としては、例えば、格納情報241、特徴情報242、属性情報243、順位情報244、修正後順位情報245などがある。
 格納情報241は、第1の実施形態で説明した格納情報141と同様の情報である。格納情報241の場合、格納特徴データとして、人物の指紋データと顔画像データとが少なくとも含まれている。
 特徴情報242は、特徴情報142と同様の情報であり、現場や現場周辺などにおいて取得した、何らかの人物の特徴を示す特徴データを含んでいる。特徴情報242には、特徴データとして顔画像データと指紋データとが少なくとも含まれる。
 属性情報243は、属性情報143と同様の情報であり、特徴データが属する属性を示す属性データを含んでいる。つまり、属性情報243には、特徴データである顔画像データが属する属性を示す属性データと、特徴データである指紋データが属する属性を示す属性データと、が含まれている。
 順位情報244は、順位情報144と同様の情報であり、顔画像データを格納情報241と照合した結果と指紋データを格納情報241と照合した結果とを統合して順位付けした結果を示している。
 図12は、順位情報244の一例を示している。図12を参照すると、順位情報244には、ランクと、氏名と、格納属性データと、類似特徴データ(指紋)と、スコア情報(指紋)と、類似特徴データ(顔画像)と、スコア情報(顔画像)と、総合スコア情報とが含まれている。つまり、順位情報244には、指紋データを照合した結果として算出されるスコア情報であるスコア情報(指紋)と、顔画像データを照合した結果として算出されるスコア情報であるスコア情報(顔画像)と、が含まれている。なお、順位情報244には、上記例示した以外の情報が含まれてもよい。また、順位情報244は、格納属性データを含まないなど、上記例示したうちの一部のみを有してもよい。
 修正後順位情報245は、修正後順位情報145と同様の情報であり、順位情報244が示す順位付けの結果を属性情報243に基づいて修正した後の結果を示している。
 演算処理部250は、CPUなどの演算装置とその周辺回路を有する。演算処理部250は、記憶部240からプログラム246を読み込んで実行することにより、上記ハードウェアとプログラム246とを協働させて各種処理部を実現する。演算処理部250で実現される主な処理部としては、例えば、顔画像データ取得部251、指紋データ取得部252、属性データ取得部253、特徴点抽出部254、照合部255、判断部256、統合・順位付け部257、修正部258、出力部259などがある。
 顔画像データ取得部251は、通信I/F部130を介して、撮像装置や外部装置などから現場において取得した特徴データである顔画像データを取得する。すると、顔画像データ取得部251は、取得した顔画像データを特徴情報242として記憶部240に格納する。なお、顔画像データ取得部251は、一つの現場から複数の顔画像データを取得してよい。
 指紋データ取得部252は、通信I/F部130を介して、撮像装置や外部装置などから現場において取得した特徴データである指紋データを取得する。すると、指紋データ取得部252は、取得した指紋データを特徴情報242として記憶部240に格納する。なお、指紋データ取得部252は、一つの現場から複数の指紋データを取得してよい。
 属性データ取得部253は、特徴データに対応する属性データを取得して、取得した属性データを属性情報243として記憶部240に格納する。本実施形態の場合、属性データ取得部253は、特徴データである顔画像データに対応する属性データを取得するとともに、特徴データである指紋データに対応する属性データを取得する。
 特徴点抽出部254は、特徴点抽出部153と同様に、特徴情報142に含まれる特徴データである顔画像データと指紋データから特徴点を抽出する。また、照合部255は、照合部154と同様に、特徴データと格納特徴データとの照合を行うことで、スコアを算出する。本実施形態の場合、例えば、照合部255は、顔画像データについて1:Nで全照合を行うとともに、指紋データについて1:Nで全照合を行う。
 判断部256は、照合部255による照合の結果に基づいて、照合部255による照合の結果を統合するか否か判断する。
 例えば、判断部256は、顔画像データを用いた照合により算出されるスコアと予め定められた顔閾値とを比較する。そして、顔閾値以上のスコアが算出されていた場合、判断部256は、顔閾値以上となるスコアに対応する人物についての情報を出力するとともに、統合処理を行わないと判断する。また、例えば、判断部256は、指紋データを用いた照合により算出されるスコアと予め定められた指紋閾値とを比較する。そして、指紋閾値以上のスコアが算出されていた場合、判断部256は、指紋閾値以上となるスコアに対応する人物についての情報を出力するとともに、統合処理を行わないと判断する。また、判断部256は、顔閾値以上のスコアが算出されず、かつ、指紋閾値以上のスコアが算出されなかった場合、統合処理を行うと判断する。例えば、以上のように、判断部256は、照合部255による照合により算出されるスコアに基づいて、統合処理を行うか否か判断する。なお、顔閾値と指紋閾値は、任意の値であってよい。
 統合・順位付け部257は、判断部256が統合処理を行うと判断した場合に、顔画像データを用いた照合の結果と指紋データを用いた照合の結果とを統合するとともに、統合した結果として算出される総合スコア情報などに基づいて人物の順位付けを行う。そして、統合・順位付け部257は、順位付けの結果を順位情報244として記憶部240に格納する。
 例えば、統合・順位付け部257は、格納情報241に含まれる各人物について、顔画像データを用いた照合の結果として算出されるスコアと指紋データを用いた照合の結果として算出されるスコアとを統合する。そして、統合・順位付け部257は、スコアが所定閾値以上となる(つまり、同一である可能性があると判断可能な)顔画像データと指紋データの数が多ければ多いほどより上位となるように、格納情報141に含まれる人物を順位付けする。なお、統合・順位付け部257は、上記順位付けの際、指紋データの数の方を顔データの数よりも優先するように順位付けを行うことが出来る。例えば、スコアが所定閾値以上となる顔画像データの数が2つであり指紋データの数が3つである場合、また、スコアが所定閾値以上となる顔画像データの数が3つであり指紋データの数が2つである場合、スコアが所定閾値以上となる特徴データの数は合計でともに5つとなる。このような場合、統合・順位付け部257は、指紋データの数が多い方がより上位になるように、順位付けを行うことが出来る。また、統合・順位付け部257は、特徴データの数が同数の場合において、スコアの合計値である総合スコア情報が示す合計のスコアが高ければ高いほどより上位となるように、格納情報241に含まれる人物を順位付ける。なお、本実施形態の場合、総合スコア情報は、例えば、スコア情報(指紋)が示す値とスコア情報(顔画像)が示す値とを足し合わせた値となる。例えば、以上のように、統合・順位付け部257は、格納特徴データと同一である可能性があると判断される特徴データの数と、スコアの値と、に基づいて、格納情報241に含まれる人物の順位付けを行う。そして、統合・順位付け部257は、順位付けの結果を順位情報244として記憶部240に格納する。
 なお、同一である可能性があると判断するための所定閾値は、顔画像データと比較する場合と指紋データと比較する場合とは異なっていてもよいし、同一であってもよい。また、統合・順位付け部257は、上記例示した以外の方法で順位付けを行ってもよい。例えば、統合・順位付け部257は、総合スコア情報が示す合計のスコアのみに基づいて人物の順位付けを行ってもよいし、例示した以外の方法を用いて順位付けを行ってもよい。
 修正部258は、属性情報243が示す属性データに基づいて、統合・順位付け部257が順位付けした結果を修正する。そして、修正部258は、修正した結果を修正後順位情報245として記憶部240に格納する。修正部258は、修正部156と同様の処理により属性データに基づく修正を行ってよい。
 出力部259は、出力部157と同様に、修正後順位情報245などを出力する。また、出力部259は、判断部256が照合部255による照合の結果に基づいて人物についての情報を出力すると判断した場合、判断した人物についての情報を出力することが出来る。
 以上が、照合装置200の構成例である。続いて、図13を参照して照合装置200の動作例について説明する。
 図13は、照合装置200の動作例を示すフローチャートである。図13を参照すると、
指紋データ取得部252は、指紋データを取得する(ステップS201)。また、特徴点抽出部254は、指紋データから特徴点を抽出する(ステップS202)。そして、照合部255は、特徴点抽出部254が抽出した結果を用いて、指紋データと格納特徴データとの照合を行う(ステップS203)。
 また、顔画像データ取得部251は、顔画像データを取得する(ステップS204)。また、特徴点抽出部254は、顔画像データから特徴点を抽出する(ステップS205)。そして、照合部255は、特徴点抽出部254が抽出した結果を用いて、顔画像データと格納特徴データとの照合を行う(ステップS206)。
 判断部256は、照合部255による照合の結果に基づいて、照合部255による照合の結果を統合するか否か判断する。顔画像データを用いた照合により顔画像閾値以上のスコアが算出された場合、または、指紋データを用いた照合により指紋閾値以上のスコアが算出された場合、判断部256は、高スコアが存在すると判断して(ステップS207、Yes)、統合処理を行わないと判断する。この場合、出力部259は、高スコアと判断されるスコアに応じた人物についての情報(例えば、格納情報241に含まれる情報など)を出力する(ステップS210)。一方、高スコアが存在しない場合(ステップS207、N0)、判断部256は、統合処理を行うと判断する。
 統合・順位付け部257は、判断部256が統合処理を行うと判断した場合に、顔画像データを用いた照合の結果と指紋データを用いた照合の結果とを統合するとともに、統合した結果として算出される総合スコア情報などに基づいて人物の順位付けを行う(ステップS208)。
 修正部258は、属性情報243が示す属性データに基づいて、統合・順位付け部257が順位付けした結果を修正する(ステップS209)。例えば、修正部258は、属性データに応じて総合スコア情報が示すスコアなどに所定値を加算する。そして、修正部258は、加算した後の総合スコア情報が示すスコアが高ければ高いほどより上位になるように順位付けの結果を修正する。
 出力部259は、修正後順位情報245を出力する(ステップS210)。例えば、出力部259は、修正後順位情報245を画面表示部120に画面表示したり、通信I/F部130を介して外部装置に対して送信したりすることが出来る。
 以上が、照合装置200の動作例である。
 このように、照合装置200は、顔画像データによる照合や指紋データによる照合の結果として高スコアと判断できなかった場合に、統合処理を行って順位付けを行った上で属性データに基づく修正を行うよう構成されている。このような構成によると、高スコアが算出されず鑑識官などの確認者による確認が必要になった場合に、統合処理を行って順位付けをするとともに属性データに基づく修正を行うことが出来る。その結果、より現場にいた可能性のある人物をより上位に位置させた状態で確認者による確認を受けることが可能となる。これにより、鑑識官などの確認者が候補の確認を行う際にかかる負担を低減させることが出来る。
 なお、照合装置200は、第1の実施形態で説明した照合装置100と同様に、様々な変形例を採用することが出来る。
[第3の実施形態]
 次に、図14、図15を参照して、本発明の第3の実施形態について説明する。本発明の第3の実施形態では、情報処理装置である照合装置300の構成の概要について説明する。
 図14は、照合装置300のハードウェア構成例を示している。図14を参照すると、照合装置300は、一例として、以下のようなハードウェア構成を有している。
 ・CPU(Central Processing Unit)301(演算装置)
 ・ROM(Read Only Memory)302(記憶装置)
 ・RAM(Random Access Memory)303(記憶装置)
 ・RAM303にロードされるプログラム群304
 ・プログラム群304を格納する記憶装置305
 ・情報処理装置外部の記録媒体310の読み書きを行うドライブ装置306
 ・情報処理装置外部の通信ネットワーク311と接続する通信インタフェース307
 ・データの入出力を行う入出力インタフェース308
 ・各構成要素を接続するバス309
 また、照合装置300は、プログラム群304をCPU301が取得して当該CPU301が実行することで、図15に示す照合部321と修正部322としての機能を実現することが出来る。なお、プログラム群304は、例えば、予め記憶装置305やROM302に格納されており、必要に応じてCPU301がRAM303などにロードして実行する。また、プログラム群304は、通信ネットワーク311を介してCPU301に供給されてもよいし、予め記録媒体310に格納されており、ドライブ装置306が該プログラムを読み出してCPU301に供給してもよい。
 なお、図14は、照合装置300のハードウェア構成例を示している。照合装置300のハードウェア構成は上述した場合に限定されない。例えば、照合装置300は、ドライブ装置306を有さないなど、上述した構成の一部から構成されてもよい。
 照合部321は、何らかの人物の特徴を示す特徴データを予め格納された人物のデータと照合することにより、予め格納された人物の順位付けを行う。
 修正部322は、特徴データが属する属性データに基づいて、照合部321が行った人物の順位付けの結果を修正する。
 このように、照合装置300は、照合部321と修正部322とを有している。このような構成により、照合装置300は、照合部321が順位付けした結果を修正部322により修正することが出来る。その結果、より可能性のある人物をより上位に位置させることが可能となる。これにより、鑑識官などの確認者が候補の確認を行う際にかかる負担を低減させることが出来る。
 なお、上述した照合装置300などの情報処理装置は、当該情報処理装置に所定のプログラムが組み込まれることで実現できる。具体的に、本発明の他の形態であるプログラムは、情報処理装置に、何らかの人物の特徴を示す特徴データを予め格納された人物のデータと照合することにより、予め格納された人物の順位付けを行い、特徴データが属する属性データに基づいて、人物の順位付けの結果を修正する、処理を実現するためのプログラムである。
 また、上述した情報処理装置により実行される照合方法は、情報処理装置が、何らかの人物の特徴を示す特徴データを予め格納された人物のデータと照合することにより、予め格納された人物の順位付けを行い、特徴データが属する属性データに基づいて、人物の順位付けの結果を修正する、というものである。
 上述した構成を有する、プログラム(又は記録媒体)、又は、照合方法、の発明であっても、上記場合と同様の作用・効果を有するために、上述した本発明の目的を達成することが出来る。
 <付記>
 上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における照合装置などの概略を説明する。但し、本発明は、以下の構成に限定されない。
(付記1)
 何らかの人物の特徴を示す特徴データを予め格納された人物のデータと照合することにより、予め格納された人物の順位付けを行う照合部と、
 特徴データが属する属性データに基づいて、前記照合部が行った人物の順位付けの結果を修正する修正部と、
 を有する
 照合装置。
(付記2)
 前記属性データには、犯罪の種類、性別または年齢、または、位置を示す情報、のうちの少なくとも1つが含まれている
 付記1に記載の照合装置。
(付記3)
 前記修正部は、特徴データを取得した現場で生じた犯罪の種類と、予め格納された人物が実行した犯罪の種類と、に基づいて、前記照合部が行った人物の順位付けの結果を修正する
 付記1または付記2に記載の照合装置。
(付記4)
 前記修正部は、特徴データを取得した現場で生じた犯罪の種類と、予め格納された人物が実行した犯罪の種類と、に基づいて、犯罪相関図が示す犯罪の関係性に応じた修正を行う
 付記1から付記3までのうちのいずれか1項に記載の照合装置。
(付記5)
 前記修正部は、前記特徴データから推測した人物の年齢または性別と、予め格納された人物の年齢または性別と、に基づいて、前記照合部が行った人物の順位付けの結果を修正する
 付記1から付記4までのうちのいずれか1項に記載の照合装置。
(付記6)
 前記修正部は、前記特徴データの取得位置に応じた位置を示す情報と、予め格納された人物の住所を示す情報と、に基づいて、前記照合部が行った人物の順位付けの結果を修正する
 付記1から付記5までのうちのいずれか1項に記載の照合装置。
(付記7)
 前記照合部は、照合を行うことで、前記特徴データと予め格納された人物のデータとが類似している度合いを示すスコアを算出し、所定閾値以上となるスコアを用いて、予め格納された人物の順位付けを行う
 付記1から付記6までのうちのいずれか1項に記載の照合装置。
(付記8)
 前記特徴データには、指紋データと、顔画像データと、が含まれている
 付記1から付記7までのうちのいずれか1項に記載の照合装置。
(付記9)
 前記照合部は、顔画像データを用いた照合と指紋データを用いた照合とを行い、顔画像データを用いた照合と指紋データを用いた照合とにより予め定められた基準を満たさなかった場合に、顔画像データを用いた照合と指紋データを用いた照合との結果を統合して予め格納された人物の順位付けを行う
 付記8に記載の照合装置。
(付記10)
 前記照合部は、予め定められた基準を満たす指紋データの数を予め定められた基準を満たす顔画像データの数よりも優先した順位付けを行う
 付記9に記載の照合装置。
(付記11)
 情報処理装置が、
 何らかの人物の特徴を示す特徴データを予め格納された人物のデータと照合することにより、予め格納された人物の順位付けを行い、
 特徴データが属する属性データに基づいて、人物の順位付けの結果を修正する
 照合方法。
(付記12)
 情報処理装置に、
 何らかの人物の特徴を示す特徴データを予め格納された人物のデータと照合することにより、予め格納された人物の順位付けを行い、
 特徴データが属する属性データに基づいて、人物の順位付けの結果を修正する
 処理を実現するためのプログラムを記録した、コンピュータが読み取り可能な記録媒体。
 なお、上記各実施形態及び付記において記載したプログラムは、記憶装置に記憶されていたり、コンピュータが読み取り可能な記録媒体に記録されていたりする。例えば、記録媒体は、フレキシブルディスク、光ディスク、光磁気ディスク、及び、半導体メモリ等の可搬性を有する媒体である。
 以上、上記各実施形態を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることが出来る。
100 照合装置
110 操作入力部
120 画面表示部
130 通信I/F部
140 記憶部
141 格納情報
142 特徴情報
143 属性情報
144 順位情報
145 修正後順位情報
146 プログラム
150 演算処理部
151 特徴データ取得部
152 属性データ取得部
153 特徴点抽出部
154 照合部
155 順位付け部
156 修正部
157 出力部
200 照合装置
240 記憶部
241 格納情報
242 特徴情報
243 属性情報
244 順位情報
245 修正後順位情報
246 プログラム
250 演算処理部
251 顔画像データ取得部
252 指紋データ取得部
253 属性データ取得部
254 特徴点抽出部
255 照合部
256 判断部
257 統合・順位付け部
258 修正部
259 出力部
300 照合装置
301 CPU
302 ROM
303 RAM
304 プログラム群
305 記憶装置
306 ドライブ装置
307 通信インタフェース
308 入出力インタフェース
309 バス
310 記録媒体
311 通信ネットワーク
321 照合部
322 修正部

 

Claims (12)

  1.  何らかの人物の特徴を示す特徴データを予め格納された人物のデータと照合することにより、予め格納された人物の順位付けを行う照合部と、
     特徴データが属する属性データに基づいて、前記照合部が行った人物の順位付けの結果を修正する修正部と、
     を有する
     照合装置。
  2.  前記属性データには、犯罪の種類、性別または年齢、または、位置を示す情報、のうちの少なくとも1つが含まれている
     請求項1に記載の照合装置。
  3.  前記修正部は、特徴データを取得した現場で生じた犯罪の種類と、予め格納された人物が実行した犯罪の種類と、に基づいて、前記照合部が行った人物の順位付けの結果を修正する
     請求項1または請求項2に記載の照合装置。
  4.  前記修正部は、特徴データを取得した現場で生じた犯罪の種類と、予め格納された人物が実行した犯罪の種類と、に基づいて、犯罪相関図が示す犯罪の関係性に応じた修正を行う
     請求項1から請求項3までのうちのいずれか1項に記載の照合装置。
  5.  前記修正部は、前記特徴データから推測した人物の年齢または性別と、予め格納された人物の年齢または性別と、に基づいて、前記照合部が行った人物の順位付けの結果を修正する
     請求項1から請求項4までのうちのいずれか1項に記載の照合装置。
  6.  前記修正部は、前記特徴データの取得位置に応じた位置を示す情報と、予め格納された人物の住所を示す情報と、に基づいて、前記照合部が行った人物の順位付けの結果を修正する
     請求項1から請求項5までのうちのいずれか1項に記載の照合装置。
  7.  前記照合部は、照合を行うことで、前記特徴データと予め格納された人物のデータとが類似している度合いを示すスコアを算出し、所定閾値以上となるスコアを用いて、予め格納された人物の順位付けを行う
     請求項1から請求項6までのうちのいずれか1項に記載の照合装置。
  8.  前記特徴データには、指紋データと、顔画像データと、が含まれている
     請求項1から請求項7までのうちのいずれか1項に記載の照合装置。
  9.  前記照合部は、顔画像データを用いた照合と指紋データを用いた照合とを行い、顔画像データを用いた照合と指紋データを用いた照合とにより予め定められた基準を満たさなかった場合に、顔画像データを用いた照合と指紋データを用いた照合との結果を統合して予め格納された人物の順位付けを行う
     請求項8に記載の照合装置。
  10.  前記照合部は、予め定められた基準を満たす指紋データの数を予め定められた基準を満たす顔画像データの数よりも優先した順位付けを行う
     請求項9に記載の照合装置。
  11.  情報処理装置が、
     何らかの人物の特徴を示す特徴データを予め格納された人物のデータと照合することにより、予め格納された人物の順位付けを行い、
     特徴データが属する属性データに基づいて、人物の順位付けの結果を修正する
     照合方法。
  12.  情報処理装置に、
     何らかの人物の特徴を示す特徴データを予め格納された人物のデータと照合することにより、予め格納された人物の順位付けを行い、
     特徴データが属する属性データに基づいて、人物の順位付けの結果を修正する
     処理を実現するためのプログラムを記録した、コンピュータが読み取り可能な記録媒体。

     
PCT/JP2021/001093 2021-01-14 2021-01-14 照合装置 WO2022153451A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2021/001093 WO2022153451A1 (ja) 2021-01-14 2021-01-14 照合装置
JP2022574962A JP7567939B2 (ja) 2021-01-14 2021-01-14 照合装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/001093 WO2022153451A1 (ja) 2021-01-14 2021-01-14 照合装置

Publications (1)

Publication Number Publication Date
WO2022153451A1 true WO2022153451A1 (ja) 2022-07-21

Family

ID=82448100

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/001093 WO2022153451A1 (ja) 2021-01-14 2021-01-14 照合装置

Country Status (2)

Country Link
JP (1) JP7567939B2 (ja)
WO (1) WO2022153451A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006011591A (ja) * 2004-06-23 2006-01-12 Denso Corp 個人認証システム
JP2012003623A (ja) * 2010-06-18 2012-01-05 Toshiba Corp 顔画像検索装置および顔画像検索方法
JP2013020316A (ja) * 2011-07-08 2013-01-31 Hitachi Ltd 入国審査システム
CN110942036A (zh) * 2019-11-29 2020-03-31 深圳市商汤科技有限公司 人员识别方法及装置、电子设备和存储介质
JP2020107037A (ja) * 2018-12-27 2020-07-09 日本電気株式会社 情報処理装置、情報処理方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006011591A (ja) * 2004-06-23 2006-01-12 Denso Corp 個人認証システム
JP2012003623A (ja) * 2010-06-18 2012-01-05 Toshiba Corp 顔画像検索装置および顔画像検索方法
JP2013020316A (ja) * 2011-07-08 2013-01-31 Hitachi Ltd 入国審査システム
JP2020107037A (ja) * 2018-12-27 2020-07-09 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
CN110942036A (zh) * 2019-11-29 2020-03-31 深圳市商汤科技有限公司 人员识别方法及装置、电子设备和存储介质

Also Published As

Publication number Publication date
JPWO2022153451A1 (ja) 2022-07-21
JP7567939B2 (ja) 2024-10-16

Similar Documents

Publication Publication Date Title
US9875425B2 (en) Individual identification device, and identification threshold setting method
CN111241265A (zh) 信息推荐方法、设备、存储介质及装置
JP4862447B2 (ja) 顔認識システム
JP4241763B2 (ja) 人物認識装置及びその方法
CN106203333A (zh) 人脸识别方法及系统
JP2015097000A (ja) 画像認識装置及び画像認識装置に対するデータ登録方法
EP3839806B1 (en) Facial recognition method, facial recognition system, and electronic device
US11403875B2 (en) Processing method of learning face recognition by artificial intelligence module
CN110660078B (zh) 对象追踪方法、装置、计算机设备和存储介质
AU2011252761B2 (en) Automatic identity enrolment
US20160147825A1 (en) Method and electronic device for updating the registered fingerprint datasets of fingerprint recognition
KR20170003348A (ko) 사용자 인증을 위한 등록 데이터베이스의 갱신 방법 및 장치
JP6855266B2 (ja) 顔認証システム、顔認証方法、及び顔認証プログラム
Haji et al. Real time face recognition system (RTFRS)
JP2014071610A (ja) データ処理装置、名寄せ処理方法及びコンピュータプログラム
KR20190070179A (ko) 사용자 등록 장치 및 방법
JP2008257329A (ja) 顔照合装置
CN113591921B (zh) 图像识别方法及装置、电子设备、存储介质
EP3570207A1 (en) Video cookies
WO2022153451A1 (ja) 照合装置
EP3203415A1 (en) Biometric authentication device, biometric authentication method and biometric authentication program
US20220165055A1 (en) Information processing apparatus, information processing method, and storage medium
Vaijayanthimala et al. RETRACTED ARTICLE: Multi-modal biometric authentication system based on face and signature using legion feature estimation technique
JPH10261083A (ja) 個人同定装置及び個人同定方法
CN113822308B (zh) 多模态生物识别的比对分数融合方法、装置、介质及设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21919345

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022574962

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21919345

Country of ref document: EP

Kind code of ref document: A1